

# Auswahl
<a name="a-selection"></a>

**Topics**
+ [LEIST 1 Was ist bei der Wahl einer leistungsfähigen Architektur zu beachten?](perf-01.md)
+ [LEIST 2 Was ist bei der Wahl der Datenverarbeitungslösung zu beachten?](perf-02.md)
+ [LEIST 3 Was ist bei der Wahl der Speicherlösung zu beachten?](perf-03.md)
+ [LEIST 4 Was ist bei der Wahl der Datenbanklösung zu beachten?](perf-04.md)
+ [LEIST 5 Was ist beim Konfigurieren der Netzwerklösung zu beachten?](perf-05.md)

# LEIST 1 Was ist bei der Wahl einer leistungsfähigen Architektur zu beachten?
<a name="perf-01"></a>

 Oft sind mehrere Ansätze erforderlich, um die optimale Leistung für eine Workload zu erzielen. Gut geplante Systeme nutzen mehrere Lösungen und Funktionen zur Leistungsoptimierung. 

**Topics**
+ [PERF01-BP01 Verstehen von verfügbaren Services und Ressourcen](perf_performing_architecture_evaluate_resources.md)
+ [PERF01-BP02 Definieren eines Prozesses für die Wahl der Architektur](perf_performing_architecture_process.md)
+ [PERF01-BP03 Einbeziehen von Kostenanforderungen in Entscheidungen](perf_performing_architecture_cost.md)
+ [PERF01-BP04 Verwenden von Richtlinien oder Referenzarchitekturen](perf_performing_architecture_use_policies.md)
+ [PERF01-BP05 Einholen von Rat beim Cloud-Anbieter oder einem geeigneten Partner](perf_performing_architecture_external_guidance.md)
+ [PERF01-BP06 Benchmarking vorhandener Workloads](perf_performing_architecture_benchmark.md)
+ [PERF01-BP07 Durchführen von Lasttests für den Workload](perf_performing_architecture_load_test.md)

# PERF01-BP01 Verstehen von verfügbaren Services und Ressourcen
<a name="perf_performing_architecture_evaluate_resources"></a>

 Informieren Sie sich über die vielfältigen Services und Ressourcen, die Ihnen in der Cloud zur Verfügung stehen. Bestimmen Sie die für Ihre Workload relevanten Services und Konfigurationsoptionen und bringen Sie in Erfahrung, wie Sie damit eine optimale Leistung erzielen. 

 Wenn Sie einen vorhandenen Workload evaluieren, müssen Sie einen Bestand der verschiedenen Services-Ressourcen generieren, den er verbraucht. Mit diesem Bestand können Sie prüfen, welche Komponenten durch verwaltete Services und neuere Technologien ersetzt werden können. 

 **Gängige Antimuster:** 
+  Sie verwenden die Cloud als gemeinsam genutztes Rechenzentrum. 
+  Sie nutzen freigegebenen Speicher für alle Objekte, die einen persistenten Speicher benötigen. 
+  Sie verwenden keine automatische Skalierung. 
+  Sie verwenden Instance-Typen, die am besten zu Ihren aktuellen Standards passen, bei Bedarf jedoch größer sind. 
+  Von Ihnen werden Technologien bereitgestellt und verwaltet, die als verwaltete Services verfügbar sind. 

 **Vorteile der Einführung dieser bewährten Methode:** Indem Sie unbekannte Services in Betracht ziehen, können Sie unter Umständen die Kosten der Infrastruktur und den Wartungsaufwand für Ihre Services erheblich reduzieren. Möglicherweise können Sie durch Bereitstellung neuer Services und Funktionen Markteinführungen beschleunigen. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Hoch 

## Implementierungsleitfaden
<a name="perf01-bp01-implementation-guidance"></a>

 Inventarisieren der Workload-Software und -Architektur für verwandte Services: Erstellen Sie ein Inventar Ihrer Workload und entscheiden Sie, über welche Kategorie von Produkten Sie mehr erfahren möchten. Ermitteln Sie die Workload-Komponenten, die zur Leistungssteigerung und Verminderung der betrieblichen Komplexität durch verwaltete Services ersetzt werden können. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [AWS-Architekturzentrum](https://aws.amazon.com/architecture/) 
+  [AWS Partner Network](https://aws.amazon.com/partners/) 
+  [AWS-Lösungsbibliothek](https://aws.amazon.com/solutions/) 
+  [AWS Knowledge Center](https://aws.amazon.com/premiumsupport/knowledge-center/) 

 **Relevante Videos:** 
+  [Einführung in die Amazon Builders’ Library (DOP328)](https://www.youtube.com/watch?v=sKRdemSirDM) 
+  [This is My Architecture: Expedia](https://aws.amazon.com/architecture/this-is-my-architecture/) 

 **Zugehörige Beispiele:** 
+  [AWS-Beispiele](https://github.com/aws-samples) 
+  [AWS-SDK-Beispiele](https://github.com/awsdocs/aws-doc-sdk-examples) 

# PERF01-BP02 Definieren eines Prozesses für die Wahl der Architektur
<a name="perf_performing_architecture_process"></a>

 Nutzen Sie interne Erfahrungen und Kenntnisse im Zusammenhang mit der Cloud oder ziehen Sie externe Ressourcen heran, wie etwa veröffentlichte Anwendungsbeispiele, relevante Dokumentation oder Whitepapers, um einen Prozess zur Auswahl der geeigneten Ressourcen und Services festzulegen. Sie sollten einen Prozess definieren, der das Experimentieren und Benchmarking mit den Services fördert, die in Ihrer Workload verwendet werden könnten. 

 Berücksichtigen Sie beim Erstellen kritischer Benutzerszenarien für Ihre Architektur die Leistungsanforderungen. Geben Sie beispielsweise an, wie schnell jedes der kritischen Benutzerszenarien ausgeführt werden soll. Implementieren Sie für diese kritischen Szenarien zusätzliche skriptbasierte Benutzerreisen, um ihre Leistung mit Ihren Anforderungen vergleichen zu können. 

 **Gängige Antimuster:** 
+  Sie gehen davon aus, dass Ihre aktuelle Architektur unverändert bleibt und im Laufe der Zeit nicht aktualisiert wird. 
+  Sie führen im Laufe der Zeit Änderungen an der Architektur ein, ohne sie begründen. 

 **Vorteile der Einführung dieser bewährten Methode:** Durch einen definierten Prozess zum Ändern der Architektur erhalten Sie die Möglichkeit, die gesammelten Daten langfristig in die Gestaltung der Workload einfließen zu lassen. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Auswählen eines Architekturansatzes: Machen Sie die Art von Architektur ausfindig, die Ihre Leistungsanforderungen erfüllt. Ermitteln Sie Einschränkungen, etwa in Bezug auf die Medien für die Bereitstellung (Desktop, Web, Mobilgeräte, IoT), Anforderungen für Legacy-Systeme und Integrationen. Bestimmen Sie die Möglichkeiten der Wiederverwendung, einschließlich Refactoring. Konsultieren Sie andere Teams, Architekturdiagramme und Ressourcen wie AWS Solution Architects, AWS-Referenzarchitekturen und AWS-Partner, damit Ihnen die Wahl der Architektur leichter fällt. 

 Definieren von Leistungsanforderungen: Ermitteln Sie anhand der Kundenerfahrungen die wichtigsten Metriken. Identifizieren Sie für jede Kennzahl Ziel, Messverfahren und Priorität. Definieren Sie das Kundenerlebnis. Dokumentieren Sie die vom Kunden erwartete Leistung. Berücksichtigen Sie hierbei auch, wie Kunden die Leistung der Workload beurteilen. Räumen Sie bei kritischen User Stories problematischen Erlebnissen Priorität ein. Beziehen Sie Leistungsanforderungen mit ein und implementieren Sie skriptbasierte User Journeys, damit Sie nachvollziehen können, wie die Stories verglichen mit Ihren Anforderungen abschneiden. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [AWS-Architekturzentrum](https://aws.amazon.com/architecture/) 
+  [AWS Partner Network](https://aws.amazon.com/partners/) 
+  [AWS-Lösungsbibliothek](https://aws.amazon.com/solutions/) 
+  [AWS Knowledge Center](https://aws.amazon.com/premiumsupport/knowledge-center/) 

 **Relevante Videos:** 
+  [Einführung in die Amazon Builders’ Library (DOP328)](https://www.youtube.com/watch?v=sKRdemSirDM) 
+  [This is My Architecture: Expedia](https://aws.amazon.com/architecture/this-is-my-architecture/) 

 **Zugehörige Beispiele:** 
+  [AWS-Beispiele](https://github.com/aws-samples) 
+  [AWS-SDK-Beispiele](https://github.com/awsdocs/aws-doc-sdk-examples) 

# PERF01-BP03 Einbeziehen von Kostenanforderungen in Entscheidungen
<a name="perf_performing_architecture_cost"></a>

 Für den Betrieb von Workloads gelten oft bestimmte Kostenanforderungen. Verwenden Sie interne Kostenkontrollen, um Ressourcentypen und -größen entsprechend dem prognostizierten Ressourcenbedarf auszuwählen. 

 Ermitteln Sie, welche Workload-Komponenten durch vollständig verwaltete Services wie verwaltete Datenbanken, In-Memory-Caches und ETL-Services ersetzt werden können. Durch eine Reduzierung Ihrer betrieblichen Workload können Ressourcen vorwiegend auf Geschäftsergebnisse ausgerichtet werden. 

 Bewährte Methoden für Kostenanforderungen finden Sie im Abschnitt *Kostengünstige Ressourcen* im [Whitepaper zur Säule der Kostenoptimierung](https://docs.aws.amazon.com/wellarchitected/latest/cost-optimization-pillar/welcome.html). 

 **Gängige Antimuster:** 
+  Sie verwenden nur eine Instance-Familie. 
+  Sie bewerten keine lizenzierten Lösungen im Vergleich zu Open-Source-Lösungen. 
+  Sie nutzen nur Blockspeicher. 
+  Sie stellen gängige Software in EC2-Instances sowie in Amazon EBS- oder flüchtigen Volumes bereit, die als verwalteter Service verfügbar sind. 

 **Vorteile der Einführung dieser bewährten Methode:** Wenn Sie die Kosten bei der Auswahl berücksichtigen, können Sie andere Investitionen tätigen. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Optimieren der Workload-Komponenten zur Kostensenkung: Dimensionieren Sie Workload-Komponenten richtig und ermöglichen Sie Elastizität, um Kosten zu senken und die Effizienz der Komponenten zu maximieren. Ermitteln Sie, welche Workload-Komponenten gegebenenfalls durch verwaltete Services ersetzt werden können, z. B. verwaltete Datenbanken, In-Memory-Caches und Reverse-Proxys. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [AWS-Architekturzentrum](https://aws.amazon.com/architecture/) 
+  [AWS Partner Network](https://aws.amazon.com/partners/) 
+  [AWS-Lösungsbibliothek](https://aws.amazon.com/solutions/) 
+  [AWS Knowledge Center](https://aws.amazon.com/premiumsupport/knowledge-center/) 
+  [AWS Compute Optimizer](https://aws.amazon.com/compute-optimizer/) 

 **Relevante Videos:** 
+  [Einführung in die Amazon Builders’ Library (DOP328)](https://www.youtube.com/watch?v=sKRdemSirDM) 
+  [This is My Architecture: Expedia](https://aws.amazon.com/architecture/this-is-my-architecture/) 
+  [Optimieren von Leistung und Kosten für die Datenverarbeitung bei AWS (CMP323-R1) ](https://www.youtube.com/watch?v=zt6jYJLK8sg&ref=wellarchitected) 

 **Zugehörige Beispiele:** 
+  [AWS-Beispiele](https://github.com/aws-samples) 
+  [AWS-SDK-Beispiele](https://github.com/awsdocs/aws-doc-sdk-examples) 
+  [Die richtige Dimensionierung ermitteln, wenn Compute Optimizer und die Arbeitsspeicherauslastung aktiviert sind](https://www.wellarchitectedlabs.com/cost/200_labs/200_aws_resource_optimization/5_ec2_computer_opt/) 
+  [AWS Compute Optimizer-Demo-Code](https://github.com/awslabs/ec2-spot-labs/tree/master/aws-compute-optimizer) 

# PERF01-BP04 Verwenden von Richtlinien oder Referenzarchitekturen
<a name="perf_performing_architecture_use_policies"></a>

 Maximieren Sie die Leistung und Effizienz, indem Sie interne Richtlinien und vorhandene Referenzarchitekturen evaluieren und anhand Ihrer Analyse Services und Konfigurationen für Ihre Workload auswählen. 

 **Gängige Antimuster:** 
+  Sie erlauben eine Auswahl vielfältiger Technologien, was sich auf den Verwaltungsaufwand Ihres Unternehmens auswirken kann. 

 **Vorteile der Einführung dieser bewährten Methode:** Durch Festlegung einer Richtlinie für die Architektur-, Technologie und Anbieterauswahl können Entscheidungen schnell getroffen werden. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Bereitstellen des Workloads mithilfe vorhandener Richtlinien und Referenzarchitekturen: Integrieren Sie die Services in Ihre Cloud-Bereitstellung. Stellen Sie anschließend anhand von Leistungstests sicher, dass Sie die eigenen Leistungsanforderungen weiterhin erfüllen können. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [AWS-Architekturzentrum](https://aws.amazon.com/architecture/) 
+  [AWS Partner Network](https://aws.amazon.com/partners/) 
+  [AWS-Lösungsbibliothek](https://aws.amazon.com/solutions/) 
+  [AWS Knowledge Center](https://aws.amazon.com/premiumsupport/knowledge-center/) 

 **Relevante Videos:** 
+  [Einführung in die Amazon Builders’ Library (DOP328)](https://www.youtube.com/watch?v=sKRdemSirDM) 
+  [This is My Architecture: Expedia](https://aws.amazon.com/architecture/this-is-my-architecture/) 

 **Zugehörige Beispiele:** 
+  [AWS-Beispiele](https://github.com/aws-samples) 
+  [AWS-SDK-Beispiele](https://github.com/awsdocs/aws-doc-sdk-examples) 

# PERF01-BP05 Einholen von Rat beim Cloud-Anbieter oder einem geeigneten Partner
<a name="perf_performing_architecture_external_guidance"></a>

 Greifen Sie bei Ihren Entscheidungen auf die Ressourcen von Cloud-Unternehmen, wie etwa Lösungsarchitekten, oder auf professionelle Services oder einen geeigneten Partner zurück. Diese Ressourcen können Ihnen dabei helfen, Ihre Architektur zu überprüfen und zu verbessern, um so die Leistung zu optimieren. 

 Wenden Sie sich an AWS, wenn Sie zusätzliche Anleitungen oder Produktinformationen benötigen. AWS Solutions Architects und [AWS Professional Services](https://aws.amazon.com/professional-services/) liefern Ratschläge für die Implementierung von Lösungen. [AWS-Partner](https://aws.amazon.com/partners/) bieten AWS-Fachwissen, damit Sie in Ihrem Unternehmen flexibel agieren und Innovationen nutzen können. 

 **Gängige Antimuster:** 
+  Sie nutzen AWS als üblichen Anbieter von Rechenzentren. 
+  Sie verwenden AWS-Services auf unvorgesehene Weise. 

 **Vorteile der Einführung dieser bewährten Methode:** Wenn Sie sich mit Ihrem Anbieter oder einem Partner beraten, können Sie Entscheidungen mit größerer Zuversicht treffen. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Anfordern von Unterstützung bei AWS-Ressourcen: AWS Solutions Architects und Professional Services liefern Ratschläge für die Implementierung von Lösungen. APN-Partner bieten AWS-Fachwissen, damit Sie in Ihrem Unternehmen flexibel agieren und Innovationen nutzen können. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [AWS-Architekturzentrum](https://aws.amazon.com/architecture/) 
+  [AWS Partner Network](https://aws.amazon.com/partners/) 
+  [AWS-Lösungsbibliothek](https://aws.amazon.com/solutions/) 
+  [AWS Knowledge Center](https://aws.amazon.com/premiumsupport/knowledge-center/) 

 **Relevante Videos:** 
+  [Einführung in die Amazon Builders’ Library (DOP328)](https://www.youtube.com/watch?v=sKRdemSirDM) 
+  [This is My Architecture: Expedia](https://aws.amazon.com/architecture/this-is-my-architecture/) 

 **Zugehörige Beispiele:** 
+  [AWS-Beispiele](https://github.com/aws-samples) 
+  [AWS-SDK-Beispiele](https://github.com/awsdocs/aws-doc-sdk-examples) 

# PERF01-BP06 Benchmarking vorhandener Workloads
<a name="perf_performing_architecture_benchmark"></a>

 Führen Sie einen Benchmark-Vergleich für eine vorhandene Workload durch, um sich ein Bild über deren Leistung in der Cloud zu verschaffen. Nutzen Sie die beim Benchmarking erfassten Daten als Grundlage für architektonische Entscheidungen. 

 Kombinieren Sie Benchmarking mit synthetischen Tests und der Überwachung echter Benutzer, um Daten zur Leistung Ihrer Workload-Komponenten zu generieren. Benchmarking lässt sich in der Regel schneller als Lasttests einrichten und dient zur Bewertung der Technologie einer bestimmten Komponente. Ein Benchmarking wird oft zu Beginn eines neuen Projekts durchgeführt, wenn Sie noch keine vollständige Lösung für einen Lasttest haben. 

 Sie können wahlweise eigene Benchmark-Tests erstellen oder branchenübliche Standardtests verwenden, wie etwa [TPC-DS](http://www.tpc.org/tpcds/) für das Benchmarking Ihrer Data-Warehousing-Workloads. Branchen-Benchmarks sind zum Vergleich von Umgebungen nützlich. Benutzerdefinierte Benchmarks eignen sich zum Prüfen spezieller Arten von Vorgängen, die Sie in der Architektur ausführen möchten. 

 Beim Benchmarking ist es wichtig, die Testumgebung entsprechend vorzubereiten, um aussagekräftige Ergebnisse zu erzielen. Führen Sie zur Ermittlung aller Varianzen im Laufe der Zeit mehrmals denselben Benchmark-Test aus. 

 Da sich Benchmarks in der Regel schneller als Lasttests ausführen lassen, können Sie früher in der Bereitstellungspipeline eingesetzt werden und schneller Feedback zu Leistungsabweichungen liefern. Wenn Sie eine wesentliche Veränderung einer Komponente oder eines Services bewerten, können Sie schnell ermitteln, ob der Aufwand für die Korrektur gerechtfertigt ist. Die Verwendung von Benchmarking in Verbindung mit Lasttests ist wichtig, da letztere Auskunft über die Leistung der Workload in der Produktion geben. 

 **Gängige Antimuster:** 
+  Sie verlassen sich auf gängige Benchmarks, die für Ihre Workload-Merkmale nicht aufschlussreich sind. 
+  Sie verlassen sich auf Kundenfeedback und Kundenwahrnehmung als einzige Benchmark. 

 **Vorteile der Einführung dieser bewährten Methode:** Durch das Benchmarking Ihrer aktuellen Implementierung können Sie die Leistungssteigerung messen. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Leistung während der Entwicklung überwachen: Implementieren Sie Prozesse, die Ihnen Einblick in die Leistung gewähren, während sich Ihr Workload entwickelt. 

 Integrieren in eigene Bereitstellungspipeline: Führen Sie automatisch Lasttests in Ihrer Bereitstellungspipeline aus. Vergleichen Sie die Testergebnisse mit vordefinierten Key Performance Indicators (KPIs, Leistungskennzahlen) und Schwellenwerten, damit die Leistungsanforderungen weiterhin erfüllt werden. 

 Testen von User Journeys: Verwenden Sie für Lasttests synthetische oder bereinigte Daten (d. h. entfernen Sie sensible oder personenbezogene Informationen). Testen Sie die gesamte Architektur intensiv, indem Sie wiedergegebene oder vorprogrammierte Benutzerreisen durch Ihre Anwendung verwenden. 

 Überwachung echter Benutzer: Verwenden Sie CloudWatch RUM, um clientseitige Daten über Ihre Anwendungsleistung zu erfassen und anzuzeigen. Verwenden Sie diese Daten, um die Leistungs-Benchmarks für echte Benutzer festzulegen. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [AWS-Architekturzentrum](https://aws.amazon.com/architecture/) 
+  [AWS Partner Network](https://aws.amazon.com/partners/) 
+  [AWS-Lösungsbibliothek](https://aws.amazon.com/solutions/) 
+  [AWS Knowledge Center](https://aws.amazon.com/premiumsupport/knowledge-center/) 
+  [Amazon CloudWatch RUM](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-RUM.html) 
+  [Amazon CloudWatch Synthetics](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Synthetics_Canaries.html) 

 **Relevante Videos:** 
+  [Einführung in die Amazon Builders’ Library (DOP328)](https://www.youtube.com/watch?v=sKRdemSirDM) 
+  [This is My Architecture](https://aws.amazon.com/architecture/this-is-my-architecture/) 
+  [Optimize applications through Amazon CloudWatch RUM (Optimieren von Anwendungen mithilfe von CW RUM)](https://www.youtube.com/watch?v=NMaeujY9A9Y) 
+  [Demo of Amazon CloudWatch Synthetics (Demo von CW Synthetics)](https://www.youtube.com/watch?v=hF3NM9j-u7I) 

 **Zugehörige Beispiele:** 
+  [AWS-Beispiele](https://github.com/aws-samples) 
+  [AWS-SDK-Beispiele](https://github.com/awsdocs/aws-doc-sdk-examples) 
+  [Verteilte Belastungstests](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) 
+  [Messen der Seitenladezeit mit Amazon CloudWatch Synthetics](https://github.com/aws-samples/amazon-cloudwatch-synthetics-page-performance) 
+  [Amazon CloudWatch RUM Web Client](https://github.com/aws-observability/aws-rum-web) 

# PERF01-BP07 Durchführen von Lasttests für den Workload
<a name="perf_performing_architecture_load_test"></a>

 Stellen Sie Ihre neueste Workload-Architektur mit verschiedenen Ressourcentypen und -größen in der Cloud bereit. Überwachen Sie die Bereitstellung, um Leistungsmetriken zu erfassen, die Engpässe oder überschüssige Kapazität erkennen lassen. Nutzen Sie diese Leistungsdaten, um die Architektur zu entwerfen oder zu verbessern und eine bessere Auswahl von Ressourcen zu treffen. 

 Bei Lasttests wird der *tatsächliche* Workload herangezogen. So lässt sich feststellen, wie leistungsfähig Ihre Lösung in einer Produktionsumgebung ist. Verwenden Sie für Lasttests synthetische oder bereinigte Daten und entfernen Sie sensible oder personenbezogene Informationen. Verwenden Sie progressiv wiedergegebene oder vorprogrammierte Benutzerreisen durch Ihre Workload, um die gesamte Architektur zu testen. Führen Sie automatisch Lasttests als Teil Ihrer Bereitstellungs-Pipeline durch und vergleichen Sie die Ergebnisse mit vordefinierten KPIs und Schwellenwerten. So wird sichergestellt, dass Sie weiterhin die erforderliche Leistung erreichen. 

 **Gängige Antimuster:** 
+  Sie führen Lasttests für einzelne Teile der Workload durch, aber nicht für die gesamte Workload. 
+  Sie führen Lasttests in einer Infrastruktur durch, die sich von Ihrer Produktionsumgebung unterscheidet. 
+  Sie führen Lasttests nur für die erwartete Last durch und nicht für noch größere Lasten, um mögliche künftige Probleme besser vorherzusehen. 
+  Sie führen Lasttests durch, ohne den AWS Support zu informieren. Die Tests sind jedoch nutzlos, da sie wie Denial-of-Service-Vorfälle aussehen. 

 **Vorteile der Einführung dieser bewährten Methode:** Die Messung der Leistung im Rahmen eines Lasttests gibt Aufschluss darüber, wo bei zunehmender Last mit Auswirkungen zu rechnen ist. Auf diese Weise können Sie erforderliche Änderungen vorhersehen, bevor sie sich auf Ihre Workload auswirken. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Niedrig 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Validieren des Ansatzes mittels Lasttests: Führen Sie einen Lasttest für einen Machbarkeitsnachweis durch, um festzustellen, ob die Leistungsanforderungen erfüllt werden. Mithilfe von AWS-Services können Sie Umgebungen im Produktionsmaßstab ausführen und damit Ihre Architektur testen. Da Sie für die Testumgebung nur bei Nutzung bezahlen, können Sie umfassende Tests zu einem Bruchteil der Kosten durchführen, die bei Verwendung einer lokalen Umgebung anfallen würden. 

 Überwachen von Metriken: Mithilfe von CloudWatch lassen sich Kennzahlen aus sämtlichen Ressourcen Ihrer Architektur erfassen. Sie können auch benutzerdefinierte Kennzahlen erfassen und in Oberflächen-, Geschäfts- oder abgeleiteten Kennzahlen veröffentlichen. Richten Sie mit CloudWatch oder mit Lösungen von Drittanbietern Alarme ein, die auf das Überschreiten von Schwellenwerten hinweisen. 

 Bedarfsgerechte Tests: Bei Lasttests wird die tatsächliche Workload herangezogen. So lässt sich feststellen, wie leistungsfähig Ihre Lösung in einer Produktionsumgebung ist. Mithilfe von AWS-Services können Sie Umgebungen im Produktionsmaßstab ausführen und damit Ihre Architektur testen. Da Sie für die Testumgebung nur bei Nutzung bezahlen, können Sie umfassende Tests zu geringeren Kosten durchführen, als bei Verwendung einer lokalen Umgebung anfallen würden. Testen Sie Ihren Workload mithilfe der AWS Cloud, um zu ermitteln, an welcher Stelle er nicht skalierbar ist oder ob die Skalierung nicht-linear erfolgt. Nutzen Sie beispielsweise Spot Instances, um kostengünstig Lasten zu erzeugen und Engpässe zu identifizieren, bevor diese in der Produktionsumgebung auftreten. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [AWS CloudFormation](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/Welcome.html) 
+  [Building AWS CloudFormation Templates using CloudFormer (Erstellen von CFN-Vorlagen mit CloudFormer)](https://aws.amazon.com/blogs/devops/building-aws-cloudformation-templates-using-cloudformer/) 
+  [Amazon CloudWatch RUM](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-RUM.html) 
+  [Amazon CloudWatch Synthetics](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Synthetics_Canaries.html) 
+  [Distributed Load Testing on AWS (Verteilte Lasttests auf AWS)](https://docs.aws.amazon.com/solutions/latest/distributed-load-testing-on-aws/welcome.html) 

 **Relevante Videos:** 
+  [Einführung in die Amazon Builders’ Library (DOP328)](https://www.youtube.com/watch?v=sKRdemSirDM) 
+  [Optimize applications through Amazon CloudWatch RUM (Optimieren von Anwendungen mithilfe von CW RUM)](https://www.youtube.com/watch?v=NMaeujY9A9Y) 
+  [Demo of Amazon CloudWatch Synthetics (Demo von CW Synthetics)](https://www.youtube.com/watch?v=hF3NM9j-u7I) 

 **Zugehörige Beispiele:** 
+  [Distributed Load Testing on AWS (Verteilte Lasttests auf AWS)](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) 

# LEIST 2 Was ist bei der Wahl der Datenverarbeitungslösung zu beachten?
<a name="perf-02"></a>

Die optimale Datenverarbeitungslösung für eine Workload ist vom Anwendungsdesign sowie von Nutzungsmustern und Konfigurationseinstellungen abhängig. Architekturen können unterschiedliche Datenverarbeitungslösungen für verschiedene Komponenten verwenden und unterschiedliche Funktionen zur Leistungsverbesserung unterstützen. Die Wahl der falschen Datenverarbeitungslösung für eine Architektur kann die Leistungseffizienz schmälern.

**Topics**
+ [PERF02-BP01 Prüfen von verfügbaren Datenverarbeitungsoptionen](perf_select_compute_evaluate_options.md)
+ [PERF02-BP02 Verstehen verfügbarer Konfigurationsoptionen für die Datenverarbeitung](perf_select_compute_config_options.md)
+ [PERF02-BP03 Erfassen von Datenverarbeitungsmetriken](perf_select_compute_collect_metrics.md)
+ [PERF02-BP04 Bestimmen der erforderlichen Konfiguration durch Dimensionieren](perf_select_compute_right_sizing.md)
+ [PERF02-BP05 Nutzen verfügbarer Elastizität von Ressourcen](perf_select_compute_elasticity.md)
+ [PERF02-BP06 Kontinuierliche Evaluierung des Computing-Bedarfs anhand von Metriken](perf_select_compute_use_metrics.md)

# PERF02-BP01 Prüfen von verfügbaren Datenverarbeitungsoptionen
<a name="perf_select_compute_evaluate_options"></a>

 Erfahren Sie, wie Ihre Workload vom Einsatz unterschiedlicher Datenverarbeitungsoptionen wie Instances, Container und Funktionen profitieren kann. 

 **Gewünschtes Ergebnis:** Indem Sie alle verfügbaren Datenverarbeitungsoptionen verstehen, erkennen Sie die Möglichkeiten zur Leistungsverbesserung, zum Verringern von unnötigen Infrastrukturkosten und zum Reduzieren des Aufwands, um Ihre Workload zu verwalten. Zudem können Sie durch Bereitstellung neuer Services und Funktionen Markteinführungen beschleunigen. 

 **Gängige Antimuster:** 
+  Verwenden der gleichen Datenverarbeitungslösung bei einer Post-Migration-Workload, die On-Premises eingesetzt wurde. 
+  Fehlendes Bewusstsein für Cloud-Datenverarbeitungslösungen und wie diese Lösungen Ihre Datenverarbeitungsleistung verbessern können. 
+  Überdimensionieren einer bestehenden Datenverarbeitungslösung, um Skalierungs- oder Leistungsanforderungen zu erfüllen, wenn eine alternative Datenverarbeitungslösung Ihren Workload-Merkmalen besser entsprechen würde. 

 **Vorteile der Einführung dieser bewährten Methode:** Indem Sie die Datenverarbeitungsanforderungen ermitteln und die verfügbaren Datenverarbeitungslösungen evaluieren, verstehen Business-Stakeholder und Entwicklungsteams die Vorteile und Einschränkungen der ausgewählten Datenverarbeitungslösung. Die ausgewählte Datenverarbeitungslösung sollte den Kriterien für die Workload-Leistung entsprechen. Wesentliche Kriterien umfassen Anforderungen an Datenverarbeitung, Datenverkehrsmuster, Datenzugriffsmuster, Skalierung und Latenz. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Machen Sie sich mit den Lösungen zur Virtualisierung, Containerisierung und Verwaltung vertraut, von denen Ihre Workload profitieren kann und die Ihren Leistungsanforderungen entsprechen. Eine Workload kann unterschiedliche Arten von Datenverarbeitungslösungen enthalten. Jede Datenverarbeitungslösung zeichnet sich durch andere Eigenschaften aus. Basierend auf der Skala Ihrer Workload und Ihrer Datenverarbeitungsanforderungen kann eine Datenverarbeitungslösung ausgewählt und für Ihre Bedürfnisse konfiguriert werden. Der Cloud-Architekt sollte die Vorteile und Nachteile von Instances, Containern und Funktionen kennenlernen. Die folgenden Schritte helfen Ihnen beim Auswählen Ihrer Datenverarbeitungslösung, die Ihren Workload-Eigenschaften und Leistungsanforderungen entspricht. 


|  **Typ**  |  **Server**  |  **Container**  |  **Funktion**  | 
| --- | --- | --- | --- | 
|  AWS-Service  |  Virtuelle Server-Instances in der Amazon Elastic Compute Cloud (Amazon EC2)  |  Amazon Elastic Container Service (Amazon ECS), Amazon Elastic Kubernetes Service (Amazon EKS)  |  AWS Lambda  | 
|  Schlüsselmerkmale  |  Es gibt eine dedizierte Option für die Anforderungen an Hardwarelizenzen, Platzierungsoptionen und eine große Auswahl von unterschiedlichen Instance-Familien basierend auf Datenverarbeitungsmetriken  |  Einfache Bereitstellung, konsistente Umgebungen, wird auf EC2-Instances ausgeführt, ist skalierbar  |  Kurze Laufzeit (15 Minuten oder kürzer), der maximale Arbeitsspeicher und die CPU sind nicht so hoch wie bei anderen Services, verwaltete Hardwareebene, skaliert auf Millionen gleichzeitiger Anforderungen  | 
|  Gängige Anwendungsfälle  |  Lift-and-Shift-Migrationen, monolithische Anwendung, hybride Umgebungen, Enterprise-Anwendungen  |  Microservices, Hybrid-Umgebungen  |  Microservices, ereignisgesteuerte Anwendungen  | 

 

 **Implementierungsschritte:** 

1.  Wählen Sie den Ort aus, an dem sich die Datenverarbeitungslösung befinden soll, indem Sie [PERF05-BP06 Auswählen des Workload-Standortes entsprechend den Netzwerkanforderungen](perf_select_network_location.md)evaluieren. Dieser Standort schränkt die für Sie verfügbaren Arten von Rechenlösungen ein. 

1.  Identifizieren Sie die Art der Datenverarbeitungslösung, die am besten mit den Anforderungen an den Standort und die Anwendung funktioniert.  

   1.  [https://aws.amazon.com/ec2/](https://aws.amazon.com/ec2/) sind in vielen unterschiedlichen Familien und Größen verfügbar. Sie bieten eine Vielzahl von Optionen wie Solid-State-Laufwerken (SSDs) und Grafikprozessoren (Graphics Processing Units, GPUs). EC2-Instances bieten bei der Auswahl von Instances die größte Flexibilität. Wenn Sie eine EC2-Instance starten, wird anhand des von Ihnen festgelegten Instance-Typs die Hardware für Ihre Instance ermittelt. Jeder Instance-Typ umfasst andere Datenverarbeitungs-, Arbeitsspeicher- und Speicheroptionen. Instance-Typen werden anhand dieser Optionen in Instance-Familien gruppiert. Typische Anwendungsfälle umfassen: das Ausführen von Enterprise-Anwendungen, High Performance Computing (HPC), das Trainieren und Bereitstellen von Machine-Learning-Anwendungen und das Ausführen von cloudnativen Anwendungen. 

   1.  [https://aws.amazon.com/ecs/](https://aws.amazon.com/ecs/) ist ein vollständig verwalteter Service zur Container-Orchestrierung, mit dem Sie Container in einem Cluster aus EC2-Instances oder Serverless-Instances mit AWS Fargate automatisch ausführen und verwalten können. Sie können Amazon ECS zusammen mit anderen Services wie Amazon Route 53, Secrets Manager, AWS Identity and Access Management (IAM) und Amazon CloudWatch verwenden. Amazon ECS ist empfehlenswert, wenn Ihre Anwendung containerisiert ist und Ihr Entwicklungsteam Docker-Container bevorzugt. 

   1.  [https://aws.amazon.com/eks/](https://aws.amazon.com/eks/) ist ein vollständig verwalteter Kubernetes-Service. Sie können Ihre EKS-Cluster mit AWS Fargate ausführen, sodass keine Server mehr bereitgestellt und verwaltet werden müssen. Die Verwaltung von Amazon EKS wird durch Integrationen mit AWS-Services wie Amazon CloudWatch, Auto-Scaling-Gruppen, AWS Identity and Access Management (IAM) und Amazon Virtual Private Cloud (VPC) vereinfacht. Wenn Sie Container einsetzen, müssen Sie Datenverarbeitungsmetriken verwenden, um den optimalen Typ für Ihre Workload zu ermitteln, ähnlich wie Sie Ihre Datenverarbeitungsmetriken verwenden, um Ihre EC2- oder AWS Fargate-Instance-Typen auszuwählen. Amazon EKS wird empfohlen, wenn Ihre Anwendung containerisiert ist und Ihr Entwicklungsteam Kubernetes-Container gegenüber Docker-Containern bevorzugt. 

   1.  Sie können [https://aws.amazon.com/lambda/](https://aws.amazon.com/lambda/) verwenden, um Code auszuführen, der die erlaubte Laufzeit, den Speicher und die CPU-Optionen unterstützt. Laden Sie einfach Ihren Code hoch und AWS Lambda verwaltet alles, was zum Ausführen und Skalieren des Codes erforderlich ist. Ihr Code kann automatisch über andere AWS-Services ausgelöst werden oder Sie können ihn direkt aufrufen. Lambda wird für kurz ausgeführte Microservice-Architekturen empfohlen, die für die Cloud entwickelt wurden.  

1.  Nachdem Sie mit Ihrer neuen Datenverarbeitungslösung experimentiert haben, planen Sie Ihre Migration und überprüfen Sie Ihre Leistungsmetriken. Dies ist ein kontinuierlicher Prozess, siehe [PERF02-BP04 Bestimmen der erforderlichen Konfiguration durch Dimensionieren](perf_select_compute_right_sizing.md)evaluieren. 

 **Grad des Aufwands für den Implementierungsplan:** Wenn eine Workload von einer Datenverarbeitungslösung zu einer anderen verschoben wird, stellt dies möglicherweise einen *mittleren* Grad des Aufwands beim Faktorwechsel der Anwendung dar.   

## Ressourcen
<a name="resources"></a>

 **Ähnliche Dokumente:** 
+  [Cloud Computing mit AWS ](https://aws.amazon.com/products/compute/?ref=wellarchitected) 
+  [EC2-Instance-Typen ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html?ref=wellarchitected) 
+  [Steuerung des Prozessorzustands für Ihre EC2-Instance ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/processor_state_control.html?ref=wellarchitected) 
+  [EKS-Container: EKS-Worker-Knoten ](https://docs.aws.amazon.com/eks/latest/userguide/worker.html?ref=wellarchitected) 
+  [Amazon ECS-Container: Amazon ECS-Container-Instances ](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html?ref=wellarchitected) 
+  [Funktionen: Lambda-Funktionskonfiguration](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html?ref=wellarchitected#function-configuration) 
+  [Prescriptive Guidance für Container](https://aws.amazon.com/prescriptive-guidance/?apg-all-cards.sort-by=item.additionalFields.sortText&apg-all-cards.sort-order=desc&awsf.apg-new-filter=*all&awsf.apg-content-type-filter=*all&awsf.apg-code-filter=*all&awsf.apg-category-filter=categories%23containers&awsf.apg-rtype-filter=*all&awsf.apg-isv-filter=*all&awsf.apg-product-filter=*all&awsf.apg-env-filter=*all) 
+  [Prescriptive Guidance für Serverless](https://aws.amazon.com/prescriptive-guidance/?apg-all-cards.sort-by=item.additionalFields.sortText&apg-all-cards.sort-order=desc&awsf.apg-new-filter=*all&awsf.apg-content-type-filter=*all&awsf.apg-code-filter=*all&awsf.apg-category-filter=categories%23serverless&awsf.apg-rtype-filter=*all&awsf.apg-isv-filter=*all&awsf.apg-product-filter=*all&awsf.apg-env-filter=*all) 

 **Ähnliche Videos:** 
+  [Datenverarbeitungsoptionen auswählen](https://aws.amazon.com/startups/start-building/how-to-choose-compute-option/) 
+  [Optimieren von Leistung und Kosten für die Datenverarbeitung bei AWS (CMP323-R1)](https://www.youtube.com/watch?v=zt6jYJLK8sg) 
+  [Amazon EC2-Grundlagen (CMP211-R2) ](https://www.youtube.com/watch?v=kMMybKqC2Y0&ref=wellarchitected) 
+  [Amazon EC2 der neuesten Generation: Ausführliche Beschreibung des Nitro-Systems ](https://www.youtube.com/watch?v=rUY-00yFlE4&ref=wellarchitected) 
+  [Bereitstellen leistungsstarker ML-Inferenzen mit AWS Inferentia (CMP324-R1) ](https://www.youtube.com/watch?v=17r1EapAxpk&ref=wellarchitected) 
+  [Bessere, schnellere und kostengünstigere Datenverarbeitung: Kostenoptimierung bei Amazon EC2 (CMP202-R1) ](https://www.youtube.com/watch?v=_dvh4P2FVbw&ref=wellarchitected) 

 **Ähnliche Beispiele:** 
+  [Migration der Webanwendung zu Containern](https://application-migration-with-aws.workshop.aws/en/container-migration.html) 
+  [Ausführen eines Serverless-„Hello World“](https://aws.amazon.com/getting-started/hands-on/run-serverless-code/) 

# PERF02-BP02 Verstehen verfügbarer Konfigurationsoptionen für die Datenverarbeitung
<a name="perf_select_compute_config_options"></a>

 Jede Datenverarbeitungslösung hat verfügbare Optionen und Konfigurationen, um die Merkmale Ihrer Workload zu unterstützen. Erfahren Sie, wie die verschiedenen Optionen Ihre Workloads ergänzen und welche Konfigurationsoptionen am besten für Ihre Anwendung geeignet sind. Beispiele für diese Optionen sind Instance-Familien, -Größen, -Merkmale (GPU, I/O), Bursting, Zeitüberschreitungen, Funktionsgrößen, Container-Instances und Gleichzeitigkeit. 

 **Gewünschtes Ergebnis:** Die Workload-Merkmale, einschließlich CPU, Arbeitsspeicher, Netzwerkdurchsatz, GPU, IOPS, Datenverkehrsmuster und Datenzugriffsmuster, werden dokumentiert und verwendet, um die Datenverarbeitungslösung so zu konfigurieren, dass Sie den Workload-Merkmalen entspricht. Jede dieser Metriken sowie benutzerspezifische Metriken, die für Ihre Workload spezifisch sind, werden aufgezeichnet, überwacht und dann verwendet, um die Datenverarbeitungskonfiguration zu optimieren, damit sie bestmöglich Ihre Anforderungen erfüllt. 

 **Gängige Antimuster:** 
+  Verwenden der gleichen Datenverarbeitungslösung, die On-Premises eingesetzt wurde. 
+  Die Datenverarbeitungsoptionen oder die Instance-Familie werden nicht überprüft, damit sie den Workload-Merkmalen entsprechen. 
+  Die Datenverarbeitung ist überdimensioniert, um Bursting-Kapazitäten zu gewährleisten. 
+  Sie verwenden mehrere Plattformen zur Datenverarbeitungsverwaltung für ein und dieselbe Workload. 

** Vorteile der Einführung dieser bewährten Methode:** Sie müssen mit den Datenverarbeitungsangeboten von AWS vertraut sein, damit Sie die richtige Lösung für die einzelnen Workloads bestimmen können. Nachdem Sie die Datenverarbeitungsangebote für Ihre Workload ausgewählt haben, können Sie anhand von schnellen Experimenten mit diesen Angeboten feststellen, wie gut sie Ihren Workload-Anforderungen entsprechen. Eine Datenverarbeitungslösung, die für Ihre Workload-Eigenschaften optimiert ist, steigert Ihre Leistung, verringert Ihre Kosten und erhöht Ihre Zuverlässigkeit.

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Wenn Ihre Workload die gleiche Rechenoption für mehr als vier Wochen verwendet hat und sie davon ausgehen, dass die Eigenschaften in Zukunft gleich bleiben, können Sie [AWS Compute Optimizer](https://aws.amazon.com/compute-optimizer/) verwenden, um eine Empfehlung basierend auf Ihren Rechenmerkmalen zu erhalten. Wenn AWS Compute Optimizer nicht in Frage kommt, da Metriken fehlen, [es sich im einen nicht unterstützten Instance-Typ handelt](https://docs.aws.amazon.com/compute-optimizer/latest/ug/requirements.html#requirements-ec2-instances) oder sich eine vorhersehbare Änderung in Ihren Merkmalen ereignen kann, müssen Sie Ihre Metriken basierend auf Lasttests und Experimenten vorhersagen.  

 **Implementierungsschritte:** 

1.  Führen Sie EC2-Instances oder -Container mit dem EC2-Starttyp aus? 

   1.  Kann Ihre Workload GPUs zur Erhöhung der Leistung verwenden? 

      1.  [Beschleunigte Computing-Instances](https://aws.amazon.com/ec2/instance-types/?trk=36c6da98-7b20-48fa-8225-4784bced9843&sc_channel=ps&sc_campaign=acquisition&sc_medium=ACQ-P|PS-GO|Brand|Desktop|SU|Compute|EC2|US|EN|Text&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types&ef_id=CjwKCAjwiuuRBhBvEiwAFXKaNNRXM5FrnFg5H8RGQ4bQKuUuK1rYWmU2iH-5H3VZPqEheB-pEm-GNBoCdD0QAvD_BwE:G:s&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types#Accelerated_Computing) sind GPU-basierte Instances, die die höchste Leistung für Machine-Learning-Training, Inferenz und High Performance Computing bieten. 

   1.  Führt Ihre Workload Anwendungen zur Machine-Learning-Inferenz aus? 

      1.  [AWS Inferentia (Inf1)](https://aws.amazon.com/ec2/instance-types/inf1/) – Inf1-Instances wurden entwickelt, um Machine Learning-Inferenzanwendungen zu unterstützen. Mithilfe von Inf1-Instances können Kunden umfangreiche Inferenzanwendungen für Machine Learning wie Bilderkennung, Spracherkennung, Verarbeitung natürlicher Sprache, Personalisierung und Betrugserkennung ausführen. Sie können ein Modell in einem der gängigen Machine Learning-Frameworks wie TensorFlow, PyTorch oder MXNet erstellen und GPU-Instances verwenden, um Ihr Modell zu schulen. Nachdem Ihr Machine Learning-Modell geschult wurde, um Ihre Anforderungen zu erfüllen, können Sie es auf Inf1-Instances bereitstellen. Dazu verwenden Sie [AWS Neuron](https://aws.amazon.com/machine-learning/neuron/), ein spezialisiertes Software Development Kit (SDK), das aus einem Compiler, einer Laufzeit und Tools zur Profilerstellung besteht, die die Machine Learning-Inferenzleistung von Inferentia-Chips optimieren. 

   1.  Lässt sich Ihre Workload mit Ihren grundlegenden Hardwarekomponenten integrieren, um die Leistung zu verbessern?  

      1.  [Field Programmable Gate Arrays (FPGAs)](https://aws.amazon.com/ec2/instance-types/f1/) – Mit FPGAs können Sie Workloads mithilfe einer benutzerdefinierten Hardwarebeschleunigung für die anspruchsvollsten Workloads optimieren. Zum Definieren der Algorithmen bieten sich gängige unterstützte Programmiersprachen wie C oder Go sowie hardwareorientierte Sprachen wie Verilog oder VHDL an. 

   1.  Verfügen Sie über mindestens vier Wochen an Metriken und können vorhersagen, dass Ihre Datenverkehrsmuster und -metriken in Zukunft ungefähr gleich bleiben werden? 

      1.  Verwenden Sie [Compute Optimizer,](https://aws.amazon.com/compute-optimizer/) um eine Machine-Learning-Empfehlung dazu zu erhalten, welche Datenverarbeitungskonfiguration am besten Ihren Datenverarbeitungsmerkmalen entspricht. 

   1.  Ist Ihre Workload-Leistung durch CPU-Metriken eingeschränkt?  

      1.  [Rechenoptimierte](https://aws.amazon.com/ec2/instance-types/?trk=36c6da98-7b20-48fa-8225-4784bced9843&sc_channel=ps&sc_campaign=acquisition&sc_medium=ACQ-P|PS-GO|Brand|Desktop|SU|Compute|EC2|US|EN|Text&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types&ef_id=CjwKCAjwiuuRBhBvEiwAFXKaNNRXM5FrnFg5H8RGQ4bQKuUuK1rYWmU2iH-5H3VZPqEheB-pEm-GNBoCdD0QAvD_BwE:G:s&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types#Compute_Optimized) Instances eignen sich hervorragend für Workloads, die leistungsstarke Prozessoren erfordern.  

   1.  Ist Ihre Workload-Leistung durch Arbeitsspeichermetriken eingeschränkt?  

      1.  [Arbeitsspeicheroptimierte](https://aws.amazon.com/ec2/instance-types/?trk=36c6da98-7b20-48fa-8225-4784bced9843&sc_channel=ps&sc_campaign=acquisition&sc_medium=ACQ-P|PS-GO|Brand|Desktop|SU|Compute|EC2|US|EN|Text&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types&ef_id=CjwKCAjwiuuRBhBvEiwAFXKaNNRXM5FrnFg5H8RGQ4bQKuUuK1rYWmU2iH-5H3VZPqEheB-pEm-GNBoCdD0QAvD_BwE:G:s&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types#Memory_Optimized) Instances bieten große Mengen an Arbeitsspeicher, um arbeitsspeicherintensive Workloads zu unterstützen. 

   1.  Ist Ihre Workload-Leistung durch IOPS eingeschränkt? 

      1.  [Speicheroptimierte](https://aws.amazon.com/ec2/instance-types/?trk=36c6da98-7b20-48fa-8225-4784bced9843&sc_channel=ps&sc_campaign=acquisition&sc_medium=ACQ-P|PS-GO|Brand|Desktop|SU|Compute|EC2|US|EN|Text&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types&ef_id=CjwKCAjwiuuRBhBvEiwAFXKaNNRXM5FrnFg5H8RGQ4bQKuUuK1rYWmU2iH-5H3VZPqEheB-pEm-GNBoCdD0QAvD_BwE:G:s&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types#Storage_Optimized) Instances wurden für Workloads entworfen, die hohen, sequenziellen Lese- und Schreibzugriff (IOPS) auf lokalen Speicher erfordern. 

   1.  Stellen Ihre Workload-Eigenschaften einen ausgewogenen Bedarf hinsichtlich aller Metriken dar? 

      1.  Benötigt Ihre Workload-CPU Burst-Kapazitäten, um Spitzen beim Datenverkehr zu bewältigen? 

         1.  [Instances mit Spitzenlastleistung](https://aws.amazon.com/ec2/instance-types/?trk=36c6da98-7b20-48fa-8225-4784bced9843&sc_channel=ps&sc_campaign=acquisition&sc_medium=ACQ-P|PS-GO|Brand|Desktop|SU|Compute|EC2|US|EN|Text&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types&ef_id=CjwKCAjwiuuRBhBvEiwAFXKaNNRXM5FrnFg5H8RGQ4bQKuUuK1rYWmU2iH-5H3VZPqEheB-pEm-GNBoCdD0QAvD_BwE:G:s&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types#Instance_Features) ähneln für Datenverarbeitung optimierten Instances mit dem Unterschied, dass sie eine Burst-Kapazität über die feste CPU-Baseline hinaus bieten, die in einer für Datenverarbeitung optimierten Instance festgelegt ist. 

      1.  [Allzweck-](https://aws.amazon.com/ec2/instance-types/?trk=36c6da98-7b20-48fa-8225-4784bced9843&sc_channel=ps&sc_campaign=acquisition&sc_medium=ACQ-P|PS-GO|Brand|Desktop|SU|Compute|EC2|US|EN|Text&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types&ef_id=CjwKCAjwiuuRBhBvEiwAFXKaNNRXM5FrnFg5H8RGQ4bQKuUuK1rYWmU2iH-5H3VZPqEheB-pEm-GNBoCdD0QAvD_BwE:G:s&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types#General_Purpose) Instances bieten eine ausgewogene Mischung aller Merkmale, um unterschiedliche Workloads zu unterstützen. 

   1.  Wird Ihre Datenverarbeitungs-Instance auf Linux ausgeführt und ist durch den Netzwerkdurchsatz auf der Netzwerkschnittstellenkarte eingeschränkt? 

      1.  Lesen Sie [Leistungsfrage 5, Bewährte Methoden 2: Evaluieren der verfügbaren Netzwerkfunktionen,](https://docs.aws.amazon.com/wellarchitected/latest/performance-efficiency-pillar/network-architecture-selection.html) um den entsprechenden Instance-Typ und die Instance-Familie zu ermitteln, die Ihren Leistungsanforderungen entsprechen. 

   1.  Benötigt Ihre Workload konsistente und vorhersehbare Instances in einer bestimmten Availability Zone, an die Sie sich für ein Jahr binden können?  

      1.  [Reserved Instances](https://aws.amazon.com/ec2/pricing/reserved-instances/) bestätigen Kapazitätsreservierungen in einer bestimmten Availability Zone. Reserved Instances eignen sich optimal für die erforderliche Rechenleistung in einer bestimmten Availability Zone.  

   1.  Hat Ihre Workload Lizenzen, die dedizierte Hardware erfordern? 

      1.  [Dedicated Hosts](https://aws.amazon.com/ec2/dedicated-hosts/) unterstützen vorhandene Softwarelizenzen und helfen Ihnen bei der Erfüllung von Compliance-Anforderungen. 

   1.  Verfügt Ihre Datenverarbeitungslösung über eine Burst-Funktion und erfordert sie synchrone Verarbeitung? 

      1.  [Mit On-Demand-Instances](https://aws.amazon.com/ec2/pricing/on-demand/) können Sie die Datenverarbeitungskapazität nach Sekunde oder Stunde ohne langfristige Verpflichtungen verwenden. Diese Instances eignen sich für sich Bursting über die Leistungsbasis hinaus. 

   1.  Ist Ihre Datenverarbeitungslösung zustandslos, fehlertolerant und asynchron?  

      1.  [Spot Instances](https://aws.amazon.com/ec2/spot/) erschließen ungenutzte Instance-Kapazitäten für Ihre zustandslosen, fehlertoleranten Workloads.  

1.  Verwenden Sie Container auf [Fargate](https://aws.amazon.com/fargate/)? 

   1.  Ist Ihre Task-Leistung durch den Arbeitsspeicher oder die CPU-Leistung eingeschränkt? 

      1.  Verwenden Sie die [Task-Größe,](https://docs.aws.amazon.com/AmazonECS/latest/bestpracticesguide/capacity-tasksize.html) um Ihren Arbeitsspeicher oder Ihre CPU anzupassen. 

   1.  Wird Ihre Leistung von Ihren Datenverkehr-Bursts beeinträchtigt? 

      1.  Verwenden Sie die [Auto-Scaling-Konfiguration,](https://docs.aws.amazon.com/AmazonECS/latest/bestpracticesguide/capacity-autoscaling.html) damit sie Ihren Datenverkehrsmustern entspricht. 

1.  Befindet sich Ihre Datenverarbeitungslösung auf [Lambda](https://docs.aws.amazon.com/lambda/latest/dg/gettingstarted-features.html)? 

   1.  Verfügen Sie über mindestens vier Wochen an Metriken und können vorhersagen, dass Ihre Datenverkehrsmuster und -metriken in Zukunft ungefähr gleich bleiben werden? 

      1.  Verwenden Sie [Compute Optimizer,](https://aws.amazon.com/compute-optimizer/) um eine Machine-Learning-Empfehlung dazu zu erhalten, welche Datenverarbeitungskonfiguration am besten Ihren Datenverarbeitungsmerkmalen entspricht. 

   1.  Haben Sie nicht ausreichend Metriken, um AWS Compute Optimizer zu verwenden? 

      1.  Wenn Sie keine verfügbaren Metriken haben, um Compute Optimizer zu verwenden, nutzen Sie [AWS Lambda Power Tuning,](https://docs.aws.amazon.com/lambda/latest/operatorguide/profile-functions.html) um die beste Konfiguration zu finden. 

   1.  Ist Ihre Funktionsleistung durch den Arbeitsspeicher oder die CPU-Leistung eingeschränkt? 

      1.  Konfigurieren Sie Ihren [Lambda-Arbeitsspeicher,](https://docs.aws.amazon.com/lambda/latest/dg/configuration-function-common.html#configuration-memory-console) damit er Ihren benötigten Leistungsmetriken entspricht. 

   1.  Überschreitet Ihre Funktion das Zeitlimit bei der Ausführung? 

      1.  Ändern Sie die [Timeout-Einstellungen.](https://docs.aws.amazon.com/lambda/latest/dg/configuration-function-common.html) 

   1.  Wird Ihre Funktionsleistung durch Aktivitäts- und Gleichzeitigkeits-Bursts eingeschränkt?  

      1.  Konfigurieren Sie die [Gleichzeitigkeitseinstellungen,](https://docs.aws.amazon.com/lambda/latest/dg/configuration-concurrency.html) damit sie Ihren Leistungsanforderungen entsprechen. 

   1.  Wird Ihre Funktion asynchron ausgeführt und fällt bei wiederholten Versuchen aus? 

      1.  Konfigurieren Sie das maximale Alter des Ereignisses und die Höchstzahl von Wiederholungen in den Einstellungen für die [asynchrone Konfiguration](https://docs.aws.amazon.com/lambda/latest/dg/invocation-async.html) . 

## Grad des Aufwands für den Implementierungsplan: 
<a name="level-of-effort-for-the-implementation-plan-to-establish-this-best-practice-you-must-be-aware-of-your-current-compute-characteristics-and-metrics.-gathering-those-metrics-establishing-a-baseline-and-then-using-those-metrics-to-identify-the-ideal-compute-option-is-a-low-to-moderate-level-of-effort.-this-is-best-validated-by-load-tests-and-experimentation."></a>

Sie müssen Ihre aktuellen Recheneigenschaften und -metriken kennen, um diese bewährten Methoden einzurichten. Das Erfassen dieser Metriken, Festlegen einer Baseline und Verwenden von Metriken zum Ermitteln der idealen Datenverarbeitungsoption stellt einen *niedrigen* bis *mittleren* Grad des Aufwands dar. Die Validierung erfolgt am besten über Lasttests und Experimentieren. 

## Ressourcen
<a name="resources"></a>

 **Ähnliche Dokumente:** 
+  [Cloud Computing mit AWS ](https://aws.amazon.com/products/compute/?ref=wellarchitected) 
+  [AWS Compute Optimizer](https://aws.amazon.com/compute-optimizer/) 
+  [EC2-Instance-Typen ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html?ref=wellarchitected) 
+  [Steuerung des Prozessorzustands für Ihre EC2-Instance ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/processor_state_control.html?ref=wellarchitected) 
+  [EKS-Container: EKS-Worker-Knoten ](https://docs.aws.amazon.com/eks/latest/userguide/worker.html?ref=wellarchitected) 
+  [Amazon ECS-Container: Amazon ECS-Container-Instances ](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html?ref=wellarchitected) 
+  [Funktionen: Lambda-Funktionskonfiguration](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html?ref=wellarchitected#function-configuration) 

 **Ähnliche Videos:** 
+  [Amazon EC2-Grundlagen (CMP211-R2) ](https://www.youtube.com/watch?v=kMMybKqC2Y0&ref=wellarchitected) 
+  [Amazon EC2 der neuesten Generation: Ausführliche Beschreibung des Nitro-Systems ](https://www.youtube.com/watch?v=rUY-00yFlE4&ref=wellarchitected) 
+  [Optimieren von Leistung und Kosten für die Datenverarbeitung bei AWS (CMP323-R1) ](https://www.youtube.com/watch?v=zt6jYJLK8sg&ref=wellarchitected) 

 **Ähnliche Beispiele:** 
+  [Rightsizing with Compute Optimizer and Memory utilization enabled (Die richtige Dimensionierung ermitteln, wenn Amazon Compute Optimizer und die Arbeitsspeicherauslastung aktiviert sind)](https://www.wellarchitectedlabs.com/cost/200_labs/200_aws_resource_optimization/5_ec2_computer_opt/) 
+  [AWS Compute Optimizer-Demo-Code](https://github.com/awslabs/ec2-spot-labs/tree/master/aws-compute-optimizer) 

# PERF02-BP03 Erfassen von Datenverarbeitungsmetriken
<a name="perf_select_compute_collect_metrics"></a>

Sie müssen die tatsächliche Nutzung der verschiedenen Ressourcen erfassen und verfolgen, um die Leistung Ihrer Datenverarbeitungsressourcen zu bestimmen. Anhand dieser Daten lassen sich die Ressourcenanforderungen genauer bestimmen.  

 Workloads können große Mengen an Daten generieren, wie Metriken, Protokolle und Ereignisse. Stellen Sie fest, ob Ihr vorhandener Speicher, Überwachungs- und Beobachtungsservice die generierten Daten verwalten kann. Identifizieren Sie, welche Metriken die Ressourcennutzung widerspiegeln und auf einer einzelnen Plattform erfasst, aggregiert und korreliert werden können. Diese Metriken sollten alle Ihre Workload-Ressourcen, Anwendungen und Services darstellen, sodass Sie einen systemweiten Überblick erhalten und schnell Möglichkeiten zur Leistungsverbesserung und Schwierigkeiten identifizieren können.

 **Gewünschtes Ergebnis:** Alle Metriken in Bezug auf Datenverarbeitungsressourcen werden auf einer einzigen Plattform identifiziert, aggregiert sowie korreliert und die Datenaufbewahrung ist implementiert, um Kosten- und Betriebsziele zu unterstützen. 

 **Gängige Antimuster:** 
+  Sie suchen ausschließlich manuell mithilfe von Protokolldateien nach Metriken.  
+  Sie veröffentlichen Metriken nur in internen Tools. 
+  Sie verwenden nur die Standardmetriken, die von der Überwachungssoftware Ihrer Wahl aufgezeichnet wurden. 
+  Sie überprüfen Metriken nur dann, wenn ein Problem vorliegt. 

 

 **Vorteile der Einführung dieser bewährten Methode:** Um die Leistung der Workloads zu überwachen, müssen Sie mehrere Leistungsmetriken über einen bestimmten Zeitraum aufzeichnen. Mithilfe dieser Metriken können Sie Anomalien bei der Leistung erkennen. Sie helfen auch beim Abgleichen der Leistung mit den Geschäftsmetriken, um sicherzustellen, dass Sie Ihre Workload-Anforderungen erfüllen, 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Identifizieren, sammeln, aggregieren und korrelieren Sie Datenverarbeitungsmetriken. Wenn ein Service wie Amazon CloudWatch verwendet wird, kann die Implementierung schneller erfolgen und ist einfacher zu verwalten. Identifizieren und verfolgen Sie zusätzlich zu den aufgezeichneten Standardmetriken auch weitere Metriken auf Systemebene innerhalb Ihrer Workload. Erfassen Sie Daten zu CPU-Nutzung, Arbeitsspeicher, Datenträger-I/O sowie eingehende und ausgehende Netzwerkmetriken, um Einblick in die Nutzung bzw. in Engpässe zu erhalten. Diese Daten sind von entscheidender Bedeutung, um festzustellen, wie leistungsfähig die Workload ist und wie die Datenverarbeitungslösung genutzt wird. Nutzen Sie diese Kennzahlen im Rahmen eines datengestützten Ansatzes, der Ihnen die aktive Feinabstimmung und Optimierung der vom Workload genutzten Ressourcen ermöglicht.  

 **Implementierungsschritte:** 

1.  Welche Metriken zu Datenverarbeitungslösungen sollten nachverfolgt werden? 

   1.  [EC2-Standardmetriken](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/viewing_metrics_with_cloudwatch.html) 

   1.  [Amazon ECS-Standardmetriken](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/cloudwatch-metrics.html) 

   1.  [EKS-Standardmetriken](https://docs.aws.amazon.com/prescriptive-guidance/latest/implementing-logging-monitoring-cloudwatch/kubernetes-eks-metrics.html) 

   1.  [Lambda-Standardmetriken](https://docs.aws.amazon.com/lambda/latest/dg/monitoring-functions-access-metrics.html) 

   1.  [EC2-Arbeitsspeicher- und -Datenträgermetriken](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/mon-scripts.html) 

1.  Habe ich derzeit eine genehmigte Protokollierungs- und Überwachungslösung? 

   1.  [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) 

   1.  [AWS Distro for OpenTelemetry](https://aws.amazon.com/otel/) 

   1.  [Amazon Managed Service for Prometheus](https://docs.aws.amazon.com/grafana/latest/userguide/prometheus-data-source.html) 

1.  Habe ich meine Datenaufbewahrungsrichtlinien identifiziert und konfiguriert, sodass sie meinen Sicherheits- und Betriebszielen entsprechen? 

   1.  [Standard-Datenaufbewahrung für CloudWatch-Metriken](https://aws.amazon.com/cloudwatch/faqs/#AWS_resource_.26_custom_metrics_monitoring) 

   1.  [Standard-Datenaufbewahrung für CloudWatch Logs](https://aws.amazon.com/cloudwatch/faqs/#Log_management) 

1.  Wie stellen Sie Ihre Metrik- und Protokollaggregationsagenten bereit? 

   1.  [Automatisierung von AWS Systems Manager](https://docs.aws.amazon.com/systems-manager/latest/userguide/systems-manager-automation.html?ref=wellarchitected) 

   1.  [OpenTelemetry Collector](https://aws-otel.github.io/docs/getting-started/collector) 

 **Grad des Aufwands für den Implementierungsplan **Der Grad des Aufwands ist *mittel,* um Metriken von allen Datenverarbeitungsressourcen zu identifizieren, nachzuverfolgen, zu erfassen, zu aggregieren und zu korrelieren. 

## Ressourcen
<a name="resources"></a>

 **Ähnliche Dokumente:** 
+  [Amazon CloudWatch-Dokumentation](https://docs.aws.amazon.com/cloudwatch/index.html?ref=wellarchitected) 
+  [Erfassen von Metriken und Protokollen aus Amazon EC2-Instances und On-Premises-Servern mit dem CloudWatch Agent](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html?ref=wellarchitected) 
+  [Zugriff auf Amazon CloudWatch Logs für AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/monitoring-functions-logs.html?ref=wellarchitected) 
+  [CloudWatch Logs mit Container-Instances verwenden](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/using_cloudwatch_logs.html?ref=wellarchitected) 
+  [Veröffentlichen von benutzerdefinierten Metriken](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/publishingMetrics.html?ref=wellarchitected) 
+  [AWS Answers: Zentralisierte Protokollierung](https://aws.amazon.com/answers/logging/centralized-logging/?ref=wellarchitected) 
+  [CloudWatch-Services, die AWS-Metriken veröffentlichen](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CW_Support_For_AWS.html?ref=wellarchitected) 
+  [Amazon EKS auf AWS Fargate überwachen](https://aws.amazon.com/blogs/containers/monitoring-amazon-eks-on-aws-fargate-using-prometheus-and-grafana/) 

 

 **Ähnliche Videos:** 
+  [Verwaltung der Anwendungsleistung in AWS](https://www.youtube.com/watch?v=5T4stR-HFas&ref=wellarchitected) 
+  [Erstellen eines Überwachungsplans](https://www.youtube.com/watch?v=OMmiGETJpfU&ref=wellarchitected) 

 

 **Ähnliche Beispiele:** 
+  [Level 100: Monitoring with CloudWatch Dashboards (Stufe 100: Überwachung mit Cloudwatch-Dashboards)](https://wellarchitectedlabs.com/performance-efficiency/100_labs/100_monitoring_with_cloudwatch_dashboards/) 
+  [Level 100: Monitoring Windows EC2 instance with CloudWatch Dashboards (Stufe 100: Überwachung einer Windows-EC2-Instance mit Cloudwatch-Dashboards)](https://wellarchitectedlabs.com/performance-efficiency/100_labs/100_monitoring_windows_ec2_cloudwatch/) 
+  [Level 100: Monitoring an Amazon Linux EC2 instance with CloudWatch Dashboards (Stufe 100: Überwachung einer Amazon-Linux-EC2-Instance mit Cloudwatch-Dashboards)](https://wellarchitectedlabs.com/performance-efficiency/100_labs/100_monitoring_linux_ec2_cloudwatch/) 

# PERF02-BP04 Bestimmen der erforderlichen Konfiguration durch Dimensionieren
<a name="perf_select_compute_right_sizing"></a>

Analysieren Sie die verschiedenen Leistungsmerkmale Ihres Workloads und wie diese Merkmale mit der Speicher-, Netzwerk-, I/O- und CPU-Nutzung zusammenhängen. Wählen Sie anhand dieser Daten die für das Workload-Profil am besten geeigneten Ressourcen aus. Ein speicherintensiver Workload wie eine Datenbank kann von mehr Speicher pro Kern profitieren. Ein rechenintensiver Workload hingegen benötigt möglicherweise mehr oder schnellere Kerne und vielleicht weniger Speicher pro Kern.

 **Typische Anti-Muster:** 
+  Sie wählen eine Instance mit den größten Werten für alle Leistungsmerkmale für alle Workloads aus. 
+  Zur einfacheren Verwaltung verwenden Sie für alle Instances einen Typ als Standard. 
+  Sie optimieren anhand von standardmäßigen synthetischen Benchmarks, ohne die tatsächlichen Anforderungen eines bestimmten Workloads zu validieren. 
+  Sie behalten dieselbe Infrastruktur über einen langen Zeitraum hinweg bei, ohne neue Angebote neu zu bewerten und zu integrieren. 

 **Vorteile der Einführung dieser bewährten Methode:** Wenn Sie die Anforderungen Ihres Workloads kennen, können Sie diese Anforderungen mit den verfügbaren Computing-Angeboten vergleichen und schnell experimentieren, um festzustellen, welche Angebote die Anforderungen am effizientesten erfüllen. So können Sie eine optimale Leistung erzielen, ohne zu viel für nicht benötigte Ressourcen zu bezahlen. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

Ändern Sie die Workload-Konfiguration durch eine richtige Dimensionierung. Um die Leistung, Gesamteffizienz und Kosten zu optimieren, ermitteln Sie zunächst, welche Ressourcen Ihr Workload benötigt. Wählen Sie für speicherintensive Workloads wie Datenbanken speicheroptimierte Instances aus – z. B. die R-Instances-Familie. Für Workloads, die eine höhere Rechenkapazität erfordern, wählen Sie Instances der C-Familie oder Instances mit einer höheren Anzahl von Kernen oder einer höheren Geschwindigkeit aus. Wählen Sie die I/O-Leistung auf der Grundlage der Anforderungen Ihres Workloads aus und vergleichen Sie sie nicht mit synthetischen Standard-Benchmarks. Für eine höhere I/O-Leistung wählen Sie Instances aus der I-Familie aus, [wählen Sie I/O-optimierte Amazon EBS-Volumes aus](https://aws.amazon.com/premiumsupport/knowledge-center/optimize-ebs-provisioned-iops/) oder wählen Sie Instances mit [Instance-Speicher](https://aws.amazon.com/premiumsupport/knowledge-center/instance-store-vs-ebs/) aus. Weitere Details zu bestimmten Instance-Typen finden Sie unter [Amazon EC2-Instance-Typen](https://aws.amazon.com/ec2/instance-types/).

 Die richtige Größenanpassung stellt sicher, dass Ihre Workloads die bestmögliche Leistung erbringen, ohne dass Sie zu viel Geld für nicht benötigte Ressourcen ausgeben. 

 **Implementierungsschritte** 
+  Informieren Sie sich über Ihren Workload oder analysieren Sie seinen Ressourcenbedarf. 
+  Bewerten Sie die Workloads separat. AWS Cloud bietet die Flexibilität und Agilität einer individuellen Größenanpassung für jeden einzelnen Workload, ohne dass Sie Kompromisse eingehen müssen. 
+  Erstellen Sie Testumgebungen, um das beste Computing-Angebot für Ihren Workload zu finden. 
+  Bewerten Sie neue Computing-Angebote und vergleichen Sie sie mit den Anforderungen Ihres Workloads. 
+  Prüfen Sie regelmäßig neue Service-Angebote auf ein besseres Preis-Leistungs-Verhältnis. 
+  Führen Sie regelmäßig Well-Architected Framework-Reviews durch. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige bewährte Methoden:** 
+  [PERF02-BP03 Erfassen von Datenverarbeitungsmetriken](perf_select_compute_collect_metrics.md) 
+  [PERF02-BP06 Kontinuierliche Evaluierung des Computing-Bedarfs anhand von Metriken](perf_select_compute_use_metrics.md) 

 **Zugehörige Dokumente:** 
+  [AWS Compute Optimizer](https://aws.amazon.com/compute-optimizer/)  
+  [Cloud Computing mit AWS](https://aws.amazon.com/products/compute/) 
+  [Amazon EC2 Instance-Typen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html) 
+  [Amazon ECS-Container: Amazon ECS-Container-Instances](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html) 
+  [Amazon EKS-Container: Amazon EKS-Worker-Knoten](https://docs.aws.amazon.com/eks/latest/userguide/worker.html) 
+  [Funktionen: Lambda-Funktionskonfiguration](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html#function-configuration) 

 **Zugehörige Videos:** 
+  [Amazon EC2-Grundlagen (CMP211-R2)](https://www.youtube.com/watch?v=kMMybKqC2Y0) 
+  [Bessere, schnellere und kostengünstigere Datenverarbeitung: Kostenoptimierung bei Amazon EC2 (CMP202-R1)](https://www.youtube.com/watch?v=_dvh4P2FVbw) 
+  [Bereitstellen leistungsstarker ML-Inferenzen mit AWS Inferentia (CMP324-R1)](https://www.youtube.com/watch?v=17r1EapAxpk) 
+  [Optimieren von Leistung und Kosten für die Datenverarbeitung bei AWS (CMP323-R1)](https://www.youtube.com/watch?v=zt6jYJLK8sg) 
+  [Amazon EC2 der neuesten Generation: Ausführliche Beschreibung des Nitro-Systems](https://www.youtube.com/watch?v=rUY-00yFlE4) 
+  [Datenverarbeitungsoptionen auswählen](https://aws.amazon.com/startups/start-building/how-to-choose-compute-option/) 
+  [Optimieren von Leistung und Kosten für die Datenverarbeitung bei AWS (CMP323-R1)](https://www.youtube.com/watch?v=zt6jYJLK8sg) 

 **Zugehörige Beispiele:** 
+  [Rightsizing with Compute Optimizer and Memory utilization enabled](https://www.wellarchitectedlabs.com/cost/200_labs/200_aws_resource_optimization/5_ec2_computer_opt/) (Die richtige Dimensionierung ermitteln, wenn Amazon Compute Optimizer und die Arbeitsspeicherauslastung aktiviert sind) 
+  [AWS Compute Optimizer-Demo-Code](https://github.com/awslabs/ec2-spot-labs/tree/master/aws-compute-optimizer) 

# PERF02-BP05 Nutzen verfügbarer Elastizität von Ressourcen
<a name="perf_select_compute_elasticity"></a>

Die Cloud bietet die Flexibilität, Ihre Ressourcen durch eine Vielzahl von Mechanismen dynamisch zu erweitern und zu reduzieren, um Bedarfsänderungen gerecht zu werden. Durch die Kombination dieser Elastizität mit Computing-bezogenen Metriken kann ein Workload automatisch auf Änderungen reagieren, um nur die benötigten Ressourcen zu nutzen.

 **Typische Anti-Muster:** 
+  Sie stellen zu viel Ressourcen bereit, um mögliche Spitzen abzudecken. 
+  Sie reagieren auf Alarme, indem Sie die Kapazität manuell erhöhen. 
+  Sie erhöhen die Kapazität, ohne die Bereitstellungszeit zu berücksichtigen. 
+  Sie belassen die erhöhte Kapazität nach dem Hochskalieren, anstatt wieder herunterzuskalieren. 
+  Sie überwachen Metriken, die nicht direkt die tatsächlichen Anforderungen Ihres Workloads abbilden. 

 **Nutzen der Einführung dieser bewährten Methode:** Der Bedarf kann fest oder variabel sein, einem Muster folgen oder sprunghaft ansteigen. Die Abstimmung von Angebot und Nachfrage führt zu den niedrigsten Kosten für einen Workload. Das Überwachen, Testen und Konfigurieren der Elastizität von Workloads optimiert die Leistung, spart Geld und verbessert die Zuverlässigkeit, wenn sich die Nutzungsanforderungen ändern. Ein manueller Ansatz ist zwar möglich, aber bei größeren Skalierungen nicht praktikabel. Ein automatisierter und auf Metriken basierender Ansatz stellt sicher, dass die Ressourcen den Anforderungen entsprechen und jederzeit verfügbar sind. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

Eine auf Metriken basierende Automatisierung sollte verwendet werden, um das verfügbare Ressourcenangebot an den vom Workload benötigen Ressourcen auszurichten. Sie können zum Beispiel [Amazon CloudWatch-Metriken zur Überwachung Ihrer Ressourcen verwenden](https://aws.amazon.com/startups/start-building/how-to-monitor-resources/) oder Amazon CloudWatch-Metriken für Ihre Auto Scaling-Gruppen verwenden.

 In Kombination mit Computing-Metriken kann eine Workload automatisch auf Änderungen reagieren und die optimalen Ressourcen nutzen, um die Zielvorgabe zu erreichen. Sie müssen außerdem die Bereitstellungszeit und mögliche Fehler bei den Ressourcen einplanen. 

 Instances, Container und Funktionen bieten Mechanismen für die Elastizität entweder als Funktion des Service, in Form von [Application Auto Scaling](https://aws.amazon.com/autoscaling/) oder in Kombination mit [Amazon EC2 Auto Scaling](https://docs.aws.amazon.com/autoscaling/ec2/userguide/what-is-amazon-ec2-auto-scaling.html). Nutzen Sie die Elastizität in Ihrer Architektur, um sicherzustellen, dass Sie über ausreichende Kapazitäten verfügen, um die Anforderungen an die Leistung bei einer Vielzahl von Skalierungen zu erfüllen. 

 Validieren Sie Ihre Metriken für das Hochskalieren oder Herunterskalieren elastischer Ressourcen anhand des Typs des bereitgestellten Workloads. Wenn Sie beispielsweise eine Anwendung zur Transkodierung von Videos bereitstellen, ist eine CPU-Auslastung von 100 % zu erwarten. Diese Metrik sollte daher nicht die primäre Metrik sein. Alternativ können Sie die Warteschlangenlänge von Transcodierungsaufgaben messen, die auf die Skalierung der Instance-Typen warten. 

 Die Bereitstellung von Workloads muss sowohl die Hochskalierung als auch die Herunterskalierung berücksichtigen. Das sichere Herunterskalieren von Workload-Komponenten ist genauso wichtig wie das Hochskalieren von Ressourcen bei entsprechendem Bedarf. 

 Erstellen Sie Testszenarien für Skalierungsereignisse, um zu überprüfen, ob sich der Workload wie erwartet verhält. 

 **Implementierungsschritte** 
+  Nutzen Sie historische Daten, um den Ressourcenbedarf Ihres Workloads im Laufe der Zeit zu analysieren. Stellen Sie konkrete Fragen wie: 
  +  Werden die Anforderungen Ihres Workloads im Laufe der Zeit gleichmäßig und mit einer bekannten Rate steigen? 
  +  Steigen oder sinken die Anforderungen Ihres Workloads in saisonalen, sich wiederholenden Mustern? 
  +  Gibt es Anforderungsspitzen bei Ihrem Workload? Lassen sich die Spitzen vorhersehen oder voraussagen? 
+  Nutzen Sie Monitoring-Services und historische Daten so umfassend wie möglich. 
+  Die Kennzeichnung von Ressourcen kann bei der Überwachung helfen. Wenn Sie Tags verwenden, nutzen Sie die [bewährten Methoden zur Kennzeichnung](https://docs.aws.amazon.com/whitepapers/latest/tagging-best-practices/tagging-best-practices.html). Außerdem können [Tags Ihnen bei der Verwaltung, Identifizierung und Organisation von Ressourcen helfen](https://docs.aws.amazon.com/general/latest/gr/aws_tagging.html). 
+  In AWS können Sie eine Vielzahl verschiedener Ansätze für die Abstimmung von Angebot und Bedarf verwenden. Die bewährten Methoden der Kostenoptimierungssäule ([COST09-BP01 bis COST09-03](https://docs.aws.amazon.com/wellarchitected/latest/cost-optimization-pillar/manage-demand-and-supply-resources.html)) beschreiben, wie Sie die folgenden Ansätze für die Kosten nutzen können: 
  + [ COST09-BP01 Analyse des Workload-Bedarfs ](https://docs.aws.amazon.com/wellarchitected/latest/cost-optimization-pillar/cost_manage_demand_resources_cost_analysis.html)
  + [ COST09-BP02 Implementieren eines Puffers oder einer Drosselung zur Bedarfsverwaltung ](https://docs.aws.amazon.com/wellarchitected/latest/cost-optimization-pillar/cost_manage_demand_resources_buffer_throttle.html)
  + [COST09-BP03 Dynamische Bereitstellung von Ressourcen](https://docs.aws.amazon.com/wellarchitected/latest/cost-optimization-pillar/cost_manage_demand_resources_dynamic.html)
+  Erstellen Sie Testszenarien für das Herunterskalieren, um zu überprüfen, ob sich der Workload wie erwartet verhält. 
+  Die meisten Instances außerhalb der Produktionsumgebung sollten bei Nichtgebrauch angehalten werden. 
+  Nutzen Sie für den Speicherbedarf bei Verwendung von Amazon Elastic Block Store (Amazon EBS) die Vorteile der [volumenbasierten Elastizität](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html). 
+  Ziehen Sie für [Amazon Elastic Compute Cloud (Amazon EC2)](https://aws.amazon.com/ec2/) die Verwendung von [Auto Scaling-Gruppen](https://docs.aws.amazon.com/autoscaling/ec2/userguide/auto-scaling-groups.html) in Betracht, mit denen Sie die Leistung und Kosten optimieren können, indem Sie die Anzahl der Computing-Instances bei Nachfragespitzen automatisch erhöhen und die Kapazität bei sinkender Nachfrage verringern. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige bewährte Methoden:** 
+  [PERF02-BP03 Erfassen von Datenverarbeitungsmetriken](perf_select_compute_collect_metrics.md) 
+  [PERF02-BP04 Bestimmen der erforderlichen Konfiguration durch Dimensionieren](perf_select_compute_right_sizing.md) 
+  [PERF02-BP06 Kontinuierliche Evaluierung des Computing-Bedarfs anhand von Metriken](perf_select_compute_use_metrics.md) 

 **Zugehörige Dokumente:** 
+  [Cloud Computing mit AWS](https://aws.amazon.com/products/compute/) 
+  [Amazon EC2 Instance-Typen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html) 
+  [Amazon ECS-Container: Amazon ECS-Container-Instances](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html) 
+  [Amazon EKS-Container: Amazon EKS-Worker-Knoten](https://docs.aws.amazon.com/eks/latest/userguide/worker.html) 
+  [Funktionen: Lambda-Funktionskonfiguration](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html#function-configuration) 

 **Zugehörige Videos:** 
+  [Amazon EC2-Grundlagen (CMP211-R2)](https://www.youtube.com/watch?v=kMMybKqC2Y0) 
+  [Bessere, schnellere und kostengünstigere Datenverarbeitung: Kostenoptimierung bei Amazon EC2 (CMP202-R1)](https://www.youtube.com/watch?v=_dvh4P2FVbw) 
+  [Bereitstellen leistungsstarker ML-Inferenzen mit AWS Inferentia (CMP324-R1)](https://www.youtube.com/watch?v=17r1EapAxpk) 
+  [Optimieren von Leistung und Kosten für die Datenverarbeitung bei AWS (CMP323-R1)](https://www.youtube.com/watch?v=zt6jYJLK8sg) 
+  [Amazon EC2 der neuesten Generation: Ausführliche Beschreibung des Nitro-Systems](https://www.youtube.com/watch?v=rUY-00yFlE4) 

 **Zugehörige Beispiele:** 
+  [Amazon EC2 Auto Scaling-Gruppenbeispiele](https://github.com/aws-samples/amazon-ec2-auto-scaling-group-examples) 
+  [Amazon EFS-Tutorials](https://github.com/aws-samples/amazon-efs-tutorial) 

# PERF02-BP06 Kontinuierliche Evaluierung des Computing-Bedarfs anhand von Metriken
<a name="perf_select_compute_use_metrics"></a>

Nutzen Sie einen datenbasierten Ansatz, um die Computing-Ressourcen für Ihren Workload im Laufe der Zeit kontinuierlich zu bewerten und zu optimieren.

 **Gewünschtes Ergebnis:** Verwendung von Metriken auf Systemebene, um das Verhalten und die Anforderungen Ihres Workloads im Laufe der Zeit aktiv zu überwachen. Bewerten Sie auf der Basis der gesammelten Daten die Anforderungen Ihres Workloads im Vergleich zu den verfügbaren Ressourcen und nehmen Sie Änderungen an Ihrer Computing-Umgebung vor, um das Profil Ihres Workloads bestmöglich abzudecken. Beispielsweise könnte sich ein Workload im Laufe der Zeit als speicherintensiver erweisen als ursprünglich angegeben, sodass ein Wechsel zu einer anderen Instance-Familie oder -Größe sowohl die Leistung als auch die Effizienz verbessern könnte. 

 **Typische Anti-Muster:** 
+  Überwachung von Metriken auf Systemebene, um Erkenntnisse über Ihren Workload zu gewinnen, ohne Neubewertung des Computing-Bedarfs. 
+  Architektur des Computing-Bedarfs orientiert sich an den Anforderungen von Workload-Spitzen. 
+  Überdimensionierung der vorhandenen Computing-Lösung, um Skalierungs- oder Leistungsanforderungen zu erfüllen, obwohl der Wechsel zu einer alternativen Computing-Lösung Ihren Workload-Merkmalen besser entsprechen würde. 

 **Nutzen der Einführung dieser bewährten Methode:** Optimierte Computing-Ressourcen basierend auf realen Daten und dem von Ihnen gewünschten Gleichgewicht von Kosten und Leistung. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** niedrig 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

Verwenden Sie einen datenbasierten Ansatz zur Optimierung von Computing-Ressourcen auf der Grundlage des beobachteten Verhaltens des Workloads. Um eine maximale Leistung und Effizienz zu erreichen, nutzen Sie die Daten, die Sie im Laufe der Zeit aus Ihrem Workload gesammelt haben, um Ihre Ressourcen kontinuierlich anzupassen und zu optimieren. Analysieren Sie, wie Ihr Workload die aktuell verfügbaren Ressourcen nutzt und überlegen Sie, welche Änderungen Sie vornehmen könnten, um die Anforderungen Ihres Workloads besser zu erfüllen. Wenn Ressourcen überlastet sind, verschlechtert sich die Leistung des Systems. Wenn Ressourcen nicht angemessen genutzt werden, arbeitet das System weniger effizient und dies führt zu höheren Kosten. 

 Um Leistung und Ressourcenauslastung zu optimieren, benötigen Sie einen Gesamtüberblick über den Betrieb, detaillierte Echtzeitdaten und Referenzdaten aus der Vergangenheit. Sie können automatisierte Dashboards erstellen, um diese Daten zu visualisieren und Erkenntnisse über den Betrieb und die Auslastung abzuleiten. 

 **Implementierungsschritte** 

1.  Erfassen Sie Computing-bezogene Metriken im Laufe der Zeit. 

1.  Vergleichen Sie die Metriken zum Workload mit den verfügbaren Ressourcen in der von Ihnen ausgewählten Computing-Lösung. 

1.  Ermitteln Sie erforderliche Konfigurationsänderungen, indem Sie eine Größenanpassung der vorhandenen Lösung vornehmen oder alternative Computing-Lösungen evaluieren. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige bewährte Methoden:** 
+  [PERF02-BP01 Prüfen von verfügbaren Datenverarbeitungsoptionen](perf_select_compute_evaluate_options.md) 
+  [PERF02-BP02 Verstehen verfügbarer Konfigurationsoptionen für die Datenverarbeitung](perf_select_compute_config_options.md) 
+  [PERF02-BP03 Erfassen von Datenverarbeitungsmetriken](perf_select_compute_collect_metrics.md) 
+  [PERF02-BP04 Bestimmen der erforderlichen Konfiguration durch Dimensionieren](perf_select_compute_right_sizing.md) 

 **Zugehörige Dokumente:** 
+  [Cloud Computing mit AWS](https://aws.amazon.com/products/compute/?ref=wellarchitected) 
+  [AWS Compute Optimizer](https://aws.amazon.com/compute-optimizer/) 
+  [EC2-Instance-Typen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html) 
+  [Amazon ECS-Container: Amazon ECS-Container-Instances](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html) 
+  [Amazon EKS-Container: Amazon EKS-Worker-Knoten](https://docs.aws.amazon.com/eks/latest/userguide/worker.html) 
+ [Bewährte Methoden für die Arbeit mit AWS Lambda-Funktionen](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html#function-configuration)

 **Zugehörige Videos:** 
+  [Amazon EC2-Grundlagen (CMP211-R2)](https://www.youtube.com/watch?v=kMMybKqC2Y0) 
+  [Bessere, schnellere und kostengünstigere Datenverarbeitung: Kostenoptimierung bei Amazon EC2 (CMP202-R1)](https://www.youtube.com/watch?v=_dvh4P2FVbw) 
+  [Bereitstellen leistungsstarker ML-Inferenzen mit AWS Inferentia (CMP324-R1)](https://www.youtube.com/watch?v=17r1EapAxpk) 
+  [Optimieren von Leistung und Kosten für die Datenverarbeitung bei AWS (CMP323-R1)](https://www.youtube.com/watch?v=zt6jYJLK8sg) 
+  [Amazon EC2 der neuesten Generation: Ausführliche Beschreibung des Nitro-Systems](https://www.youtube.com/watch?v=rUY-00yFlE4) 
+ [ Selecting and optimizing Amazon EC2 instances ](https://www.youtube.com/watch?v=Vz0HZ6hlpgM) (Amazon EC2-Instances auswählen und optimieren)

 **Zugehörige Beispiele:** 
+  [Rightsizing with Compute Optimizer and Memory utilization enabled](https://www.wellarchitectedlabs.com/cost/200_labs/200_aws_resource_optimization/5_ec2_computer_opt/) (Die richtige Dimensionierung ermitteln, wenn Amazon Compute Optimizer und die Arbeitsspeicherauslastung aktiviert sind) 
+  [AWS Compute Optimizer-Demo-Code](https://github.com/awslabs/ec2-spot-labs/tree/master/aws-compute-optimizer) 

# LEIST 3 Was ist bei der Wahl der Speicherlösung zu beachten?
<a name="perf-03"></a>

 Die optimale Speicherlösung für ein System richtet sich nach der Zugriffsmethode (Block, Datei oder Objekt), den Zugriffsmustern (Zufallsprinzip oder sequenziell), dem erforderlichen Durchsatz, der Zugriffshäufigkeit (online, offline, Archiv), der Aktualisierungshäufigkeit (WORM, dynamisch) sowie den Einschränkungen hinsichtlich Verfügbarkeit und Langlebigkeit. Gut geplante Systeme nutzen mehrere Speicherlösungen und bieten unterschiedliche Möglichkeiten zur Leistungsoptimierung und effizienten Ressourcennutzung. 

**Topics**
+ [PERF03-BP01 Verstehen von Speichereigenschaften und -anforderungen](perf_right_storage_solution_understand_char.md)
+ [PERF03-BP02 Bewerten verfügbarer Konfigurationsoptionen](perf_right_storage_solution_evaluated_options.md)
+ [PERF03-BP03 Einbeziehen von Zugriffsmustern und Metriken in die Entscheidung](perf_right_storage_solution_optimize_patterns.md)

# PERF03-BP01 Verstehen von Speichereigenschaften und -anforderungen
<a name="perf_right_storage_solution_understand_char"></a>

 Ermitteln und dokumentieren Sie den Speicherbedarf der Workloads und definieren Sie die Speichereigenschaften der einzelnen Standorte. Beispiele für Speichereigenschaften sind: gemeinsamer Zugriff, Dateigröße, Wachstumsrate, Durchsatz, IOPS, Latenz, Zugriffsmuster und Datenpersistenz. Beurteilen Sie anhand dieser Eigenschaften, ob Block-, Datei, Objekt- oder Instance-Speicherservices die effizienteste Lösung für Ihren Speicherbedarf darstellen. 

 **Gewünschtes Ergebnis:** Ermitteln und dokumentieren Sie den Speicherbedarf pro Speicheranforderung und bewerten Sie die verfügbaren Speicherlösungen. Unter Berücksichtigung der wichtigsten Speichereigenschaften wird Ihr Team verstehen, wie die ausgewählten Speicherservices für eine Verbesserung der Workload-Leistung sorgen werden. Zu den wesentlichen Kriterien gehören, Datenzugriffsmuster, Wachstumsrate, Skalierungsbedarf und Latenzanforderungen. 

 **Typische Anti-Muster:** 
+  Sie verwenden nur einen Speichertyp, z. B. Amazon Elastic Block Store (Amazon EBS), für alle Workloads. 
+  Sie gehen davon aus, dass für alle Workloads ähnliche Anforderungen an die Speicherzugriffsleistung gelten. 

 **Vorteile der Nutzung dieser bewährten Methode:** Wenn Sie die Speicherlösung auf der Grundlage der ermittelten und erforderlichen Eigenschaften auswählen, können Sie damit die Leistung Ihrer Workloads verbessern, die Kosten senken und den betrieblichen Aufwand für die Verwaltung Ihrer Workloads verringern. Die Workload-Leistung wird von der Lösung, der Konfiguration und dem Standort des Speicherservice profitieren. 

 **Risikostufe bei fehlender Befolgung dieser Best Practice:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Identifizieren Sie die wichtigsten Speicherleistungsmetriken Ihrer Workload und implementieren Sie Verbesserungen als Teil eines datengesteuerten Ansatzes mithilfe von Benchmarking oder Lasttests. Ermitteln Sie anhand dieser Daten, an welcher Stelle Ihre Speicherlösung Defizite hat. Prüfen Sie anschließend die Konfigurationsoptionen zur Verbesserung der Lösung. Ermitteln Sie die erwartete Wachstumsrate für Ihre Workload und wählen Sie eine Speicherlösung aus, die diesen Raten gerecht wird. Überprüfen Sie die AWS-Speicherangebote, um die richtige Speicherlösung für Ihre verschiedenen Workload-Anforderungen zu ermitteln. Durch die Bereitstellung von Speicherlösungen in AWS haben Sie bessere Möglichkeiten, Speicherangebote zu testen und festzustellen, ob sie für Ihre Workload-Anforderungen geeignet sind. 


| AWS-Service | Schlüsselmerkmale | Häufige Anwendungsfälle | 
| --- | --- | --- | 
| Amazon S3 |  Beständigkeit von 99,999999999 %, unbegrenztes Wachstum, Zugriff von überall, mehrere Kostenmodelle auf der Grundlage von Zugriff und Ausfallsicherheit  |  Cloudnative Anwendungsdaten, Datenarchivierung und Backups, Analysen, Data Lakes, Hosting von statischen Websites, IoT-Daten   | 
| Amazon Glacier |  Latenz von Sekunden bis Stunden, unbegrenztes Wachstum, geringste Kosten, langfristige Speicherung  |  Datenarchivierung, Medienarchive, langfristige Aufbewahrung von Backups  | 
| Amazon EBS | Die Größe des Speichers erfordert Verwaltung und Überwachung, niedrige Latenz, dauerhafte Speicherung, Beständigkeit von 99,8 % bis 99,9 %, die meisten Volume-Typen sind nur von einer EC2-Instance aus zugänglich. |  COTS-Anwendungen, I/O-intensive Anwendungen, relationale Datenbanken und NoSQL-Datenbanken, Sicherung und Wiederherstellung  | 
| EC2-Instance-Speicher |  Vorab festgelegte Speichergröße. geringste Latenz, nicht persistent, nur von einer EC2-Instance aus zugänglich  |  COTS-Anwendungen, I/O-intensive Anwendungen, In-Memory-Datenspeicher  | 
| Amazon EFS |  Beständigkeit von 99,999999999 %, unbegrenztes Wachstum, Zugriff von mehreren Datenverarbeitungsservices aus möglich  |  Modernisierte Anwendungen, die Dateien über mehrere Datenverarbeitungsservices hinweg gemeinsam nutzen, Dateispeicher für die Skalierung von Content-Management-Systemen  | 
| Amazon FSx |  Unterstützt vier Dateisysteme (NetApp, OpenZFS, Windows File Server und Amazon FSx for Lustre), verfügbarer Speicher für jedes Dateisystem unterschiedlich, Zugriff von mehreren Datenverarbeitungsservices aus möglich  |  Cloudnative Workloads, Private Cloud Bursting, migrierte Workloads, die ein bestimmtes Dateisystem erfordern, VMC, ERP-Systeme, On-Premises-Dateispeicherung und -Backups   | 
| Snow Family |  Tragbare Geräte, 256-Bit-Verschlüsselung, NFS-Endpunkt, On-Board-Computing, TB Speicherplatz  |  Migration von Daten in die Cloud, Speicherung und Datenverarbeitung unter extremen On-Premises-Bedingungen, Notfallwiederherstellung, Remote-Datenerfassung  | 
| AWS Storage Gateway |  Bietet On-Premises-Zugriff mit niedriger Latenz auf Cloud-gestützten Speicher, vollständig verwalteter On-Premises-Cache   |  Migrationen von On-Premises-Daten in die Cloud, Auffüllen von Cloud Data Lakes aus On-Premises-Quellen, modernisierte Dateifreigabe  | 

 **Implementierungsschritte:** 

1. Nutzen Sie Benchmarking oder Ladetests, um die wichtigsten Merkmale Ihres Speicherbedarfs zu erfassen. Schlüsselmerkmale sind: 

   1. Gemeinsam nutzbar (welche Komponenten greifen auf diesen Speicher zu) 

   1. Wachstumsrate 

   1. Durchsatz 

   1. Latenz 

   1. I/O-Größe 

   1. Stabilität 

   1. Zugriffsmuster (Lese- oder Schreibzugriff, Häufigkeit, schwankend oder konsistent) 

1. Ermitteln Sie die für Ihre Speichereigenschaften geeignete Art von Speicherlösung. 

   1. [Amazon S3](https://aws.amazon.com/s3/) ist ein Objektspeicherservice mit unbegrenzter Skalierbarkeit, hoher Verfügbarkeit und mehreren Zugriffsoptionen. Für die Übertragung von Objekten in und aus Amazon S3 und den Zugriff auf diese Objekte können Sie einen Service wie z. B. [Transfer Acceleration](https://aws.amazon.com/s3/transfer-acceleration/) oder [Zugriffspunkte nutzen,](https://aws.amazon.com/s3/features/access-points/) um Ihren Standort, Ihre Sicherheitsanforderungen und Zugriffsmuster zu unterstützen. Verwenden Sie die [Amazon S3-Leistungsrichtlinien,](https://docs.aws.amazon.com/AmazonS3/latest/userguide/optimizing-performance-guidelines.html) um Ihre Amazon S3-Konfiguration zu optimieren und damit den Anforderungen an Ihre Workload-Leistung gerecht zu werden. 

   1. [Amazon Glacier](https://aws.amazon.com/s3/storage-classes/glacier/) ist eine Speicherklasse vonAmazon S3 für die Datenarchivierung. Sie haben drei Archivierungslösungen zur Auswahl, die von einem Millisekundenzugriff bis zu einem Zugriff von 5 bis 12 Stunden bei unterschiedlichen Kosten und Sicherheitsoptionen reichen. Amazon Glacier kann Ihnen helfen, die Leistungsanforderungen zu erfüllen, indem ein Datenlebenszyklus implementiert wird, der Ihre geschäftlichen Anforderungen und Dateneigenschaften unterstützt. 

   1. [Amazon Elastic Block Store (Amazon EBS)](https://aws.amazon.com/ebs/) ist ein hochleistungsfähiger Blockspeicherservice für Amazon Elastic Compute Cloud (Amazon EC2). Sie können unter [SSD- oder HDD-basierten](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html) Lösungen mit unterschiedlichen Merkmalen auswählen, die [IOPS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/provisioned-iops.html) oder [Durchsatz priorisieren](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/hdd-vols.html). EBS-Volumes sind gut geeignet für Hochleistungs-Workloads, primären Speicher für Dateisysteme, Datenbanken oder Anwendungen, die nur auf angehängte Stage-Systeme zugreifen können. 

   1. [Amazon EC2-Instance-Speicher](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/InstanceStorage.html) ist ähnlich wie Amazon EBS, da er an eine Amazon EC2-Instance angehängt wird. Allerdings ist Instance-Speicher nur ein temporärer Speicher, der idealerweise als Puffer, Cache oder für andere temporäre Inhalte verwendet werden sollte. Ein Instance-Speicher kann nicht getrennt werden. Wenn die Instance heruntergefahren wird, gehen alle Daten verloren. Instance-Speicher kann für Anwendungsfälle mit hoher I/O-Leistung und niedriger Latenz verwendet werden, bei denen die Daten nicht bestehen bleiben müssen. 

   1. [Amazon Elastic File System (Amazon EFS)](https://aws.amazon.com/efs/) ist ein mountfähiges Dateisystem, auf das verschiedene Arten von Datenverarbeitungslösungen zugreifen können. Amazon EFS erweitert und verringert den Speicher automatisch und ist leistungsoptimiert, um durchgängig niedrige Latenzen zu bieten. EFS verfügt über [zwei Leistungskonfigurationsmodi:](https://docs.aws.amazon.com/efs/latest/ug/performance.html): Allzweck und max. I/O. Der Allzweckmodus weist eine Leselatenz von weniger als einer Millisekunde und eine Schreiblatenz im einstelligen Millisekundenbereich auf. Die „Max. I/O“-Funktion kann Tausende von Computing-Instances unterstützen, die ein gemeinsames Dateisystem benötigen. Amazon EFS unterstützt [zwei Durchsatzmodi](https://docs.aws.amazon.com/efs/latest/ug/managing-throughput.html): Bursting und Bereitgestellt. Für eine Workload mit schwankendem Zugriffsmuster wird der Bursting-Durchsatzmodus vorteilhaft sein, während eine konstant hohe Workload bei Nutzung des bereitgestellten Durchsatzmodus eine gute Leistung zeigen wird. 

   1. [Amazon FSx](https://aws.amazon.com/fsx/) basiert auf den neuesten AWS-Datenverarbeitungslösungen und unterstützt vier gängige Dateisysteme: NetApp ONTAP, OpenZFS, Windows File Server und Lustre. Die Latenz, der Durchsatz und die IOPS von Amazon FSx [variieren](https://aws.amazon.com/fsx/when-to-choose-fsx/) je nach Dateisystem und sollten bei der Auswahl des richtigen Dateisystems für Ihre Workload-Anforderungen berücksichtigt werden. 

   1. [AWS Snow Family](https://aws.amazon.com/snow/) sind Speicher- und Datenverarbeitungsgeräte, die eine Online- und Offline-Datenmigration in die Cloud sowie die Datenspeicherung und -verarbeitung On-Premises unterstützen. AWS-Snow-Geräte unterstützen die Erfassung großer Mengen an On-Premises-Daten, die Verarbeitung dieser Daten und die Verschiebung der Daten in die Cloud. Es sind mehrere [bewährte Methoden zur Leistungsoptimierung](https://docs.aws.amazon.com/snowball/latest/developer-guide/performance.html) in Bezug auf die Anzahl der Dateien, die Dateigrößen und die Komprimierung dokumentiert. 

   1. [AWS Storage Gateway](https://aws.amazon.com/storagegateway/) bietet On-Premises-Anwendungen Zugriff auf cloudbasierten Speicher. AWS Storage Gateway unterstützt mehrere Cloud-Speicherservices, darunter Amazon S3, Amazon Glacier, Amazon FSx und Amazon EBS. Der Service unterstützt verschiedene Protokolle wie z. B. iSCSI, SMB und NFS. Er bietet Leistung mit niedriger Latenz, da häufig abgerufene Daten On-Premises zwischengespeichert werden und nur geänderte und komprimierte Daten an AWS gesendet werden. 

1. Nachdem Sie mit Ihrer neuen Speicherlösung experimentiert und die optimale Konfiguration ermittelt haben, planen Sie Ihre Migration und überprüfen Sie Ihre Leistungsmetriken. Dies ist ein kontinuierlicher Prozess, der neu bewertet werden sollte, wenn sich wichtige Merkmale ändern oder es Änderungen in Bezug auf die verfügbaren Services oder Optionen gibt. 

 **Aufwand für den Implementierungsplan: **Wenn eine Workload von einer Speicherlösung zu einer anderen verschoben wird, könnte der Faktorwechsel der Anwendung mit einem *moderaten* Aufwand verbunden sein.   

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Amazon EBS Volume-Typen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) 
+  [Amazon EC2 Speicher](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/Storage.html) 
+  [Amazon EFS: Leistung von Amazon EFS](https://docs.aws.amazon.com/efs/latest/ug/performance.html) 
+  [Leistung von Amazon FSx for Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/performance.html) 
+  [Leistung von Amazon FSx for Windows File Server](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/performance.html) 
+ [Leistung von Amazon FSx for NetApp ONTAP](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/performance.html)
+ [Leistung von Amazon FSx for OpenZFS](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/performance.html)
+  [Amazon Glacier: Dokumentation zu Amazon Glacier](https://docs.aws.amazon.com/amazonglacier/latest/dev/introduction.html) 
+  [Amazon S3: Überlegungen zu Anfragerate und Leistung](https://docs.aws.amazon.com/AmazonS3/latest/dev/request-rate-perf-considerations.html) 
+  [Cloud-Speicher mit AWS](https://aws.amazon.com/products/storage/) 
+ [AWS Snow Family](https://aws.amazon.com/snow/#Feature_comparison)
+  [EBS-I/O-Merkmale](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/ebs-io-characteristics.html) 

 **Zugehörige Videos:** 
+  [Ausführliche Beschreibung von Amazon EBS (STG303-R1)](https://www.youtube.com/watch?v=wsMWANWNoqQ) 
+  [Optimieren Sie Ihre Speicherleistung mit Amazon S3 (STG343)](https://www.youtube.com/watch?v=54AhwfME6wI) 

 **Zugehörige Beispiele:** 
+  [Amazon EFS-CSI-Treiber](https://github.com/kubernetes-sigs/aws-efs-csi-driver) 
+  [Amazon EBS-CSI-Treiber](https://github.com/kubernetes-sigs/aws-ebs-csi-driver) 
+  [Amazon EFS-Dienstprogramme](https://github.com/aws/efs-utils) 
+  [Amazon EBS – automatische Skalierung](https://github.com/awslabs/amazon-ebs-autoscale) 
+  [Amazon S3-Beispiele](https://docs.aws.amazon.com/sdk-for-javascript/v2/developer-guide/s3-examples.html) 
+ [Amazon FSx for Lustre Container Storage Interface (CSI)-Treiber](https://github.com/kubernetes-sigs/aws-fsx-csi-driver)

# PERF03-BP02 Bewerten verfügbarer Konfigurationsoptionen
<a name="perf_right_storage_solution_evaluated_options"></a>

 Bewerten Sie die verschiedenen Merkmale und Konfigurationsoptionen und ermitteln Sie, welche Auswirkungen sie auf den Speicher haben. Finden Sie heraus, wo und wie Sie bereitgestellte IOPS, SSDs, magnetischen Speicher, Objektspeicher, Archivspeicher oder flüchtigen Speicher idealerweise einsetzen, um Speicherplatz und Leistung Ihrer Workload zu optimieren. 

 [Amazon EBS](https://aws.amazon.com/ebs) bietet eine Reihe von Optionen, mit denen Sie die Speicherleistung optimieren und die Workload-Kosten senken können. Dabei gibt es zwei Hauptkategorien: SSD-gestützten Speicher für Transaktions-Workloads wie etwa Datenbanken und Boot-Volumes (Leistung hängt primär von IOPS ab), sowie HDD-gestützten Speicher für durchsatzintensive Workloads wie MapReduce und die Protokollverarbeitung (Leistung hängt primär von MB/s ab). 

 Zu den SSD-gestützten Volumes zählen extrem leistungsstarke SSDs mit bereitgestellten IOPS für Transaktions-Workloads, bei denen eine geringe Latenz wichtig ist, sowie allgemeine SSDs mit einem guten Preis-Leistungs-Verhältnis, die sich für eine Vielzahl von Transaktionsdaten eignen. 

 [Amazon S3 Transfer Acceleration](https://aws.amazon.com/s3/transfer-acceleration/) ermöglicht die schnelle Datenübertragung zwischen Ihrem Client und Ihrem S3-Bucket über große Entfernungen. Transfer Acceleration nutzt global verteilte Amazon CloudFront-Edge-Standorte, um den Netzwerkpfad für die Datenweiterleitung zu optimieren. Für eine Workload in einem S3-Bucket mit umfassenden GET-Anfragen empfiehlt sich die Verwendung von Amazon S3 mit CloudFront. Wenn Sie große Dateien hochladen, sind mehrteilige Uploads von Vorteil. Durch das Hochladen mehrerer Teile können Sie den Netzwerkdurchsatz maximieren. 

 [Amazon Elastic File System (Amazon EFS)](https://aws.amazon.com/efs/) bietet ein einfaches, skalierbares, vollständig verwaltetes elastisches NFS-Dateisystem für die Verwendung mit AWS Cloud-Services und On-Premises-Ressourcen. Zur Unterstützung einer Vielzahl von Cloud-Speicher-Workloads bietet Amazon EFS zwei Leistungsmodi: den Allzweck-Leistungsmodus und den Max. E/A-Leistungsmodus. Es stehen zwei Durchsatzmodi für Ihr Dateisystem zur Auswahl: Bursting und Bereitgestellt. Informationen dazu, welche Einstellungen für Ihren Workload verwendet werden sollten, finden Sie im [Amazon EFS-Benutzerhandbuch](https://docs.aws.amazon.com/efs/latest/ug/performance.html). 

 [Amazon FSx](https://aws.amazon.com/fsx/) bietet vier Dateisysteme zur Auswahl: [Amazon FSx for Windows File Server](https://aws.amazon.com/fsx/windows/) für Enterprise-Workloads, [Amazon FSx for Lustre](https://aws.amazon.com/fsx/lustre/) für Hochleistungs-Workloads, [Amazon FSx for NetApp ONTAP](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/index.html) für das Dateisystem NetApp ONTAP und [Amazon FSx for OpenZFS](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/what-is-fsx.html) für Linux-basierte Dateiserver. FSx ist SSD-gestützt und bietet eine schnelle, vorhersehbare, skalierbare und konsistente Leistung. Amazon FSx-Dateisysteme bieten dauerhaft hohe Lese- und Schreibgeschwindigkeiten und konsistenten Datenzugriff mit geringer Latenz. Sie können das Durchsatzniveau auswählen, den Sie benötigen, um den Anforderungen Ihrer Workload zu entsprechen. 

 **Gängige Antimuster:** 
+  Sie verwenden nur einen Speichertyp, z. B. Amazon EBS, für alle Workloads. 
+  Sie verwenden bereitgestellte IOPS für alle Workloads, ohne reale Tests auf allen Speicherebenen durchzuführen. 
+  Sie gehen davon aus, dass für alle Workloads ähnliche Anforderungen an die Speicherzugriffsleistung gelten. 

 **Vorteile der Einführung dieser bewährten Methode:** Wenn Sie alle Speicherservice-Optionen auswerten, können Sie die Kosten für die Infrastruktur und den Aufwand reduzieren, der zur Aufrechterhaltung Ihrer Workloads erforderlich ist. Dies kann Ihre Markteinführungszeit für die Bereitstellung neuer Services und Funktionen beschleunigen. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Bestimmen der Speichermerkmale: Überlegen Sie bei der Wahl einer Speicherlösung, welche Speichereigenschaften für Sie wichtig sind, wie etwa Freigabefähigkeit, Datei- und Cache-Größe, Latenz, Durchsatz und Datenpersistenz. Prüfen Sie anschließend, welcher AWS-Service Ihre Anforderungen am besten erfüllt. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Cloud-Speicher mit AWS](https://aws.amazon.com/products/storage/?ref=wellarchitected) 
+  [Amazon EBS Volume-Typen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) 
+  [Amazon EC2 Speicher](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/Storage.html) 
+  [Amazon EFS: Leistung von Amazon EFS](https://docs.aws.amazon.com/efs/latest/ug/performance.html) 
+  [Leistung von Amazon FSx for Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/performance.html) 
+  [Leistung von Amazon FSx for Windows File Server](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/performance.html) 
+  [Amazon Glacier: Dokumentation zu Amazon Glacier](https://docs.aws.amazon.com/amazonglacier/latest/dev/introduction.html) 
+  [Amazon S3: Überlegungen zu Anfragerate und Leistung](https://docs.aws.amazon.com/AmazonS3/latest/dev/request-rate-perf-considerations.html) 
+  [Cloud-Speicher mit AWS](https://aws.amazon.com/products/storage/) 
+  [Cloud-Speicher mit AWS](https://aws.amazon.com/products/storage/?ref=wellarchitected) 
+  [EBS-E/A-Merkmale](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/ebs-io-characteristics.html) 

 **Relevante Videos:** 
+  [Ausführliche Beschreibung von Amazon EBS (STG303-R1)](https://www.youtube.com/watch?v=wsMWANWNoqQ) 
+  [Optimieren Sie Ihre Speicherleistung mit Amazon S3 (STG343)](https://www.youtube.com/watch?v=54AhwfME6wI) 

 **Zugehörige Beispiele:** 
+  [Amazon EFS-CSI-Treiber](https://github.com/kubernetes-sigs/aws-efs-csi-driver) 
+  [Amazon EBS-CSI-Treiber](https://github.com/kubernetes-sigs/aws-ebs-csi-driver) 
+  [Amazon EFS-Dienstprogramme](https://github.com/aws/efs-utils) 
+  [Amazon EBS automatische Skalierung](https://github.com/awslabs/amazon-ebs-autoscale) 
+  [Amazon S3-Beispiele](https://docs.aws.amazon.com/sdk-for-javascript/v2/developer-guide/s3-examples.html) 

# PERF03-BP03 Einbeziehen von Zugriffsmustern und Metriken in die Entscheidung
<a name="perf_right_storage_solution_optimize_patterns"></a>

 Wählen Sie Speichersysteme basierend auf den Zugriffsmustern Ihrer Workload aus und konfigurieren Sie sie, indem Sie festlegen, wie die Workload auf Daten zugreift. Erhöhen Sie die Speichereffizienz, indem Sie Objektspeicher statt Blockspeicher auswählen. Konfigurieren Sie die von Ihnen gewählten Speicheroptionen so, dass sie den Datenzugriffsmustern entsprechen. 

 Die Leistung der Speicherlösung hängt davon ab, wie Sie auf Daten zugreifen. Wählen Sie für maximale Leistung die für Ihre Zugriffsmuster geeignete Speicherlösung, oder passen Sie Ihre Zugriffsmuster an die Speicherlösung an. 

 Indem Sie ein RAID 0-Array erstellen, können Sie die Leistung eines Dateisystems gegenüber der Bereitstellung eines einzelnen Volumes erhöhen. RAID 0 empfiehlt sich, wenn die E/A-Leistung wichtiger als die Fehlertoleranz ist. Das Array eignet sich beispielsweise für eine intensiv genutzte Datenbank, bei der die Datenreplikation bereits separat eingerichtet ist. 

 Wählen Sie für Ihren Workload geeignete Speichermetriken für alle Speicheroptionen aus, die für den Workload verwendet werden. Wenn Sie Dateisysteme verwenden, die Burst-Guthaben verwenden, erstellen Sie Alarme, damit Sie informiert werden, wenn Sie sich diesen Guthabenlimits nähern. Sie müssen Speicher-Dashboards erstellen, um den gesamten Workload-Speicherzustand anzuzeigen. 

 Stellen Sie bei Speichersystemen mit einer festen Größe wie Amazon EBS oder Amazon FSx sicher, dass Sie die Menge des verwendeten Speichers im Vergleich zur Gesamtspeichergröße überwachen und nach Möglichkeit die Speichergröße beim Erreichen eines Schwellenwerts automatisch erhöhen. 

 **Gängige Antimuster:** 
+  Sie gehen davon aus, dass die Speicherleistung ausreichend ist, wenn sich Kunden nicht beschweren. 
+  Sie verwenden nur eine Speicherebene, vorausgesetzt, dass alle Workloads in diese Ebene passen. 

 **Vorteile der Einführung dieser bewährten Methode:** Um Leistung und Ressourcenauslastung zu optimieren, benötigen Sie einen Gesamtüberblick über den Betrieb, detaillierte Echtzeitdaten und Referenzdaten aus der Vergangenheit. Sie können automatische Dashboards und Daten mit einer Granularität von einer Sekunde erstellen, um Metrikberechnungen für Ihre Daten durchzuführen und Einblicke in Betrieb und Auslastung Ihrer Speicheranforderungen zu erhalten. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Niedrig 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Optimieren von Speichernutzung und Zugriffsmustern: Wählen Sie die Speichersysteme je nach Zugriffsmuster der Workload und auf Basis der Merkmale der verfügbaren Speicheroptionen aus. Achten Sie bei der Wahl des Datenspeicherorts darauf, dass Ihre Anforderungen erfüllt und gleichzeitig der Overhead minimiert werden. Ziehen Sie beim Konfigurieren und Interagieren mit Daten, je nach Speichermerkmalen, Leistungsoptimierungen und Zugriffsmuster heran (z. B.Volume Striping oder Datenpartitionierung). 

 Auswählen geeigneter Metriken für Speicheroptionen: Stellen Sie sicher, dass Sie die entsprechenden Speichermetriken für die Workload auswählen. Jede Speicheroption bietet verschiedene Metriken, um zu verfolgen, wie Ihre Workload im Laufe der Zeit ausgeführt wird. Stellen Sie sicher, dass Sie anhand von Speicherburst-Metriken messen (z. B. Überwachung von Burst-Guthaben für Amazon EFS). Stellen Sie bei Speichersystemen mit fester Größe wie Amazon Elastic Block Store oder Amazon FSx sicher, dass Sie die verwendete Speichermenge im Vergleich zur Gesamtspeichergröße überwachen. Erstellen Sie nach Möglichkeit eine Automatisierung, um die Speichergröße zu erhöhen, wenn Sie einen Schwellenwert erreichen. 

 Überwachen von Metriken: Mithilfe von Amazon CloudWatch lassen sich Kennzahlen aus sämtlichen Ressourcen Ihrer Architektur erfassen. Sie können auch benutzerdefinierte Kennzahlen erfassen und in Oberflächen-, Geschäfts- oder abgeleiteten Kennzahlen veröffentlichen. Richten Sie mit CloudWatch oder mit Lösungen von Drittanbietern Alarme ein, die auf das Überschreiten von Schwellenwerten hinweisen. 

## Ressourcen
<a name="resources"></a>

 **Ähnliche Dokumente:** 
+  [Amazon EBS Volume-Typen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) 
+  [Amazon EC2 Speicher](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/Storage.html) 
+  [Amazon EFS: Leistung von Amazon EFS](https://docs.aws.amazon.com/efs/latest/ug/performance.html) 
+  [Leistung von Amazon FSx for Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/performance.html) 
+  [Leistung von Amazon FSx for Windows File Server](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/performance.html) 
+  [Amazon Glacier: Dokumentation zu Amazon Glacier](https://docs.aws.amazon.com/amazonglacier/latest/dev/introduction.html) 
+  [Amazon S3: Überlegungen zu Anfragerate und Leistung](https://docs.aws.amazon.com/AmazonS3/latest/dev/request-rate-perf-considerations.html) 
+  [Cloud-Speicher mit AWS](https://aws.amazon.com/products/storage/) 
+  [EBS-E/A-Merkmale](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/ebs-io-characteristics.html) 
+  [Die Leistung von Amazon EBS mithilfe von Amazon CloudWatch überwachen und verstehen](https://aws.amazon.com/blogs/storage/valuable-tips-for-monitoring-and-understanding-amazon-ebs-performance-using-amazon-cloudwatch/) 

 **Ähnliche Videos:** 
+  [Ausführliche Beschreibung von Amazon EBS (STG303-R1)](https://www.youtube.com/watch?v=wsMWANWNoqQ) 
+  [Optimieren Sie Ihre Speicherleistung mit Amazon S3 (STG343)](https://www.youtube.com/watch?v=54AhwfME6wI) 

 **Ähnliche Beispiele:** 
+  [Amazon EFS-CSI-Treiber](https://github.com/kubernetes-sigs/aws-efs-csi-driver) 
+  [Amazon EBS-CSI-Treiber](https://github.com/kubernetes-sigs/aws-ebs-csi-driver) 
+  [Amazon EFS-Dienstprogramme](https://github.com/aws/efs-utils) 
+  [Amazon EBS automatische Skalierung](https://github.com/awslabs/amazon-ebs-autoscale) 
+  [Amazon S3-Beispiele](https://docs.aws.amazon.com/sdk-for-javascript/v2/developer-guide/s3-examples.html) 

# LEIST 4 Was ist bei der Wahl der Datenbanklösung zu beachten?
<a name="perf-04"></a>

 Welche Datenbanklösung sich am besten für ein System eignet, hängt von der erforderlichen Verfügbarkeit, Konsistenz, Partitionstoleranz, Latenz, Langlebigkeit, Skalierbarkeit und Abfragefähigkeit ab. Viele Systeme nutzen für verschiedene Untersysteme unterschiedliche Datenbanklösungen und unterstützen unterschiedliche Funktionen zur Leistungsoptimierung. Die Wahl der falschen Datenbanklösung und -funktionen kann die Leistungseffizienz eines Systems schmälern. 

**Topics**
+ [PERF04-BP01 Verstehen von Datenmerkmalen](perf_right_database_solution_understand_char.md)
+ [PERF04-BP02 Prüfen der verfügbaren Optionen](perf_right_database_solution_evaluate_options.md)
+ [PERF04-BP03 Erfassen und Aufzeichnen von Metriken zur Datenbankleistung](perf_right_database_solution_collect_metrics.md)
+ [PERF04-BP04 Wählen des Datenspeichers nach Zugriffsmuster](perf_right_database_solution_access_patterns.md)
+ [PERF04-BP05 Optimieren des Datenspeicher nach Zugriffsmuster und Metriken](perf_right_database_solution_optimize_metrics.md)

# PERF04-BP01 Verstehen von Datenmerkmalen
<a name="perf_right_database_solution_understand_char"></a>

 Wählen Sie Ihre Datenverwaltungslösungen aus, sodass Sie den Eigenschaften, Zugriffsmustern und Anforderungen Ihrer Workload-Datensätze optimal entsprechen. Beim Auswählen und Implementieren Ihrer Datenverwaltungslösung müssen Sie sicherstellen, dass Ihre Abfrage-, Skalierungs- und Speichermerkmale die Datenanforderungen der Workload unterstützen. Erfahren Sie, wie unterschiedliche Datenbankoptionen Ihren Datenmodellen entsprechen und welche Konfigurationsoptionen am besten für Ihren Anwendungsfall geeignet sind.  

 AWS bietet zahlreiche speziell entwickelte Datenbankmodule, darunter relationale, Schlüssel-Werte-, Dokument-, In-Memory-, Graph-, Zeitreihen- und Ledger-Datenbanken. Jede Datenverwaltungslösung hat verfügbare Optionen und Konfigurationen, um Ihre Anwendungsfälle und Datenmodelle zu unterstützen. Basierend auf Ihren Datenmerkmalen kann Ihre Workload möglicherweise mehrere unterschiedliche Datenbanklösungen verwenden. Sie können den Umstieg von monolithischen Datenbanken bewerkstelligen, die mit ihrem Einheitsansatz restriktiv sind, indem Sie die beste Datenbanklösung für ein spezifisches Problem auswählen und sich darauf konzentrieren, Daten zu verwalten, um die Bedürfnisse Ihrer Kunden zu erfüllen. 

 **Gewünschtes Ergebnis:** Die Datenmerkmale von Workloads sind mit ausreichenden Details dokumentiert, um die Auswahl und Konfiguration von unterstützenden Datenbanklösungen zu ermöglichen und Einblicke in mögliche Alternativen zu bieten. 

 **Gängige Antimuster:** 
+  Möglichkeiten nicht in Betracht ziehen, größere Datensätze, die ähnliche Merkmale aufweisen, in kleinere Datensammlungen aufzuteilen, was dazu führt, dass Chancen verabsäumt werden, um speziell entwickelte Datenbanken zu verwenden, die den Daten- und Wachstumsmerkmalen besser entsprechen. 
+  Datenzugriffsmuster nicht vorab identifizieren, was später zu kostspieliger und komplexer Nachbearbeitung führt. 
+  Wachstum einschränken, indem Datenspeicherstrategien verwendet werden, die nicht ausreichend schnell skalieren. 
+  Einen Datenbanktyp und -anbieter für alle Workloads auswählen. 
+  An einer Datenbanklösung festhalten, da es interne Erfahrungen und Wissen über eine bestimmte Datenbanklösung gibt. 
+  Eine Datenbanklösung behalten, weil sie in einer On-Premises-Umgebung gut funktioniert hat. 

 **Vorteile der Einführung dieser bewährten Methode:** Sie sollten mit allen AWS-Datenbanklösungen vertraut sein, damit Sie die richtige Datenbanklösung für Ihre verschiedenen Workloads bestimmen können. Nachdem Sie die geeignete Datenbanklösung für Ihren Workload ausgewählt haben, können Sie schnell mit diesen Datenbankangeboten experimentieren, um festzustellen, ob sie Ihren Workload-Anforderungen weiterhin entsprechen. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Hoch 
+  Potenzielle Kosteneinsparungen werden möglicherweise nicht erkannt. 
+  Daten werden möglicherweise nicht im erforderlichen Ausmaß gesichert. 
+  Der Datenzugriff und die Speicherleistung sind möglicherweise nicht optimal. 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Definieren Sie die Datenmerkmale und Zugriffsmuster Ihrer Workload. Überprüfen Sie alle verfügbaren Datenbanklösungen, um herauszufinden, welche Lösung am besten Ihren Datenanforderungen entspricht. Innerhalb einer bestimmten Workload können mehrere Datenbanken ausgewählt werden. Evaluieren Sie jeden Service oder jede Servicegruppe und führen Sie eine individuelle Bewertung durch. Wenn potenzielle alternative Datenverwaltungslösungen für alle oder Teile der Daten identifiziert werden, experimentieren Sie mit unterschiedlichen Implementierungen, die zu Vorteilen hinsichtlich Kosten, Sicherheit, Leistung und Zuverlässigkeit führen können. Aktualisieren Sie die bestehende Dokumentation, falls ein neuer Ansatz zur Datenverwaltung eingeführt wird. 


|  **Typ**  |  **AWS-Services**  |  **Schlüsselmerkmale**  |  **Gängige Anwendungsfälle**  | 
| --- | --- | --- | --- | 
|  Relational  |  Amazon RDS, Amazon Aurora  |  Referenzielle Integrität, ACID-Transaktionen, Schema-on-Write  |  ERP, CRM, kommerzielle Standardsoftware  | 
|  Schlüssel-Werte-Datenbanken  |  Amazon DynamoDB  |  Hoher Durchsatz, geringe Latenz, beinahe unendliche Skalierbarkeit  |  Einkaufswagen (E-Commerce), Produktkataloge, Chat-Anwendungen  | 
|  Dokumentdatenbanken  |  Amazon DocumentDB  |  JSON-Dokumente speichern und Abfragen zu jedem Attribut durchführen  |  Content-Management (CMS), Kundenprofile, mobile Anwendungen  | 
|  In-Memory  |  Amazon ElastiCache, Amazon MemoryDB  |  Latenz im Mikrosekundenbereich  |  Caching, Ranglisten für Spiele  | 
|  Graphdatenbanken  |  Amazon Neptune  |  Höchst relationale Daten, wobei die Beziehung zwischen Daten von Bedeutung ist  |  Soziale Netzwerke, Personalisierungs-Engines, Betrugserkennung  | 
|  Zeitreihendatenbanken  |  Amazon Timestream  |  Daten, bei denen Zeit wesentlich ist  |  DevOps, IoT, Überwachung  | 
|  Wide-Column-Datenbanken  |  Amazon Keyspaces  |  Cassandra-Workloads  |  Instandhaltung von Industrieanlagen, Routenoptimierung  | 
|  Ledger-Datenbanken  |  Amazon QLDB  |  Unveränderliches und kryptografisch überprüfbares Änderungs-Ledger  |  Systems of Record, Gesundheitswesen, Lieferketten, Finanzinstitute  | 

 **Implementierungsschritte** 

1.  Wie sind die Daten strukturiert? (z. B. nicht strukturiert, Schlüssel-Wert, halbstrukturiert, relational) 

   1.  Wenn die Daten nicht strukturiert sind, erwägen Sie einen Objektspeicher wie [Amazon S3](https://aws.amazon.com/products/storage/data-lake-storage/) oder eine NoSQL-Datenbank wie [Amazon DocumentDB.](https://aws.amazon.com/documentdb/) 

   1.  Erwägen Sie für Schlüssel-Werte-Daten [DynamoDB](https://aws.amazon.com/documentdb/), [ElastiCache für Redis](https://aws.amazon.com/elasticache/redis/) oder [MemoryDB.](https://aws.amazon.com/memorydb/) 

   1.  Welche Ebene an Referenzintegrität ist erforderlich, wenn die Daten über eine relationale Struktur verfügen? 

      1.  Bei Fremdschlüsseleinschränkungen können relationale Datenbanken wie [Amazon RDS](https://aws.amazon.com/rds/) und [Aurora](https://aws.amazon.com/rds/aurora/) diese Integritätsebene bieten. 

      1.  Üblicherweise würden Sie innerhalb eines NoSQL-Datenmodells Ihre Daten in ein einzelnes Dokument oder eine Sammlung von Dokumenten denormalisieren, die in einer einzelnen Anfrage abgerufen werden können, anstatt Daten in Dokumenten oder Tabellen zusammenzufügen.  

1.  Ist AKID-Compliance (Atomarität, Konsistenz, Isolation, Dauerhaftigkeit) erforderlich? 

   1.  Wenn mit relationalen Datenbanken zusammenhängende AKID-Eigenschaften erforderlich sind, erwägen Sie eine relationale Datenbank wie [Amazon RDS](https://aws.amazon.com/rds/) und [Aurora.](https://aws.amazon.com/rds/aurora/) 

1.  Welches Konsistenzmodell ist erforderlich? 

   1.  Wenn Ihre Anwendung eventuelle Kohärenz tolerieren kann, ziehen Sie eine NoSQL-Implementierung in Erwägung. Überprüfen Sie die anderen Eigenschaften, um zu bestimmen, welche [NoSQL-Datenbank](https://aws.amazon.com/nosql/) am besten geeignet ist. 

   1.  Wenn strikte Konsistenz erforderlich ist, können Sie strikt konsistente Lesevorgänge mithilfe von [DynamoDB](https://aws.amazon.com/documentdb/) durchführen oder mit einer relationalen Datenbank wie [Amazon RDS](https://aws.amazon.com/rds/)evaluieren. 

1.  Welche Abfrage- und Ergebnisformate müssen unterstützt werden? (z. B. SQL, CSV, Parque, Avro, JSON usw.) 

1.  Welche Datentypen, Feldgrößen und Gesamtmengen sind vorhanden? (z. B. Text, numerische, räumliche, zeitreihenkalkulierte, binäre oder BLOB-Daten) 

1.  Wie ändern sich die Speicheranforderungen im Laufe der Zeit? Wie beeinflusst dies die Skalierbarkeit? 

   1.  Serverless-Datenbanken wie [DynamoDB](https://aws.amazon.com/documentdb/) und [Amazon Quantum Ledger Database](https://aws.amazon.com/qldb/) skalieren dynamisch auf beinahe unbeschränkten Speicher. 

   1.  Relationale Datenbanken haben oftmals Obergrenzen bei bereitgestelltem Speicher und müssen mithilfe von Mechanismen wie Sharding horizontal partitioniert werden, sobald sie diese Grenzen erreicht haben. 

1.  In welcher Proportion stehen Leseabfragen zu Schreibabfragen? Könnte Caching die Leistung verbessern? 

   1.  Leseintensive Workloads könnten von einer Caching-Ebene profitieren. Diese könnte [ElastiCache](https://aws.amazon.com/elasticache/) oder [DAX](https://aws.amazon.com/dynamodb/dax/) sein, wenn es sich bei der Datenbank um DynamoDB handelt. 

   1.  Lesevorgänge können auch zu Read Replicas mit relationalen Datenbanken ausgelagert werden, wie [Amazon RDS](https://aws.amazon.com/rds/)evaluieren. 

1.  Wird Speicher und Modifizierung (OLTP – Online Transaction Processing) oder Abruf und Berichterstattung (OLAP – Online Analytical Processing) eine höhere Priorität eingeräumt? 

   1.  Erwägen Sie für Transaktionsverarbeitung mit hohem Durchsatz eine NoSQL-Datenbank wie DynamoDB oder Amazon DocumentDB. 

   1.  Erwägen Sie für analytische Abfragen eine spaltenbasierte Datenbank wie [Amazon Redshift](https://aws.amazon.com/redshift/) oder das Exportieren von Daten zu Amazon S3 und das Durchführen von Analysen mithilfe von [Athena](https://aws.amazon.com/athena/) oder [QuickSight.](https://aws.amazon.com/quicksight/) 

1.  Wie sensibel sind die Daten und welches Ausmaß an Schutz und Verschlüsselung erfordern sie? 

   1.  Alle Amazon RDS- und Aurora-Engines unterstützen Datenverschlüsselung im Ruhezustand mithilfe von AWS KMS. Microsoft SQL Server und Oracle unterstützen auch Transparent Data Encryption (TDE), wenn Amazon RDS verwendet wird. 

   1.  Sie können für DynamoDB eine differenzierte Zugriffskontrolle mit [IAM](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/access-control-overview.html) verwenden, um zu steuern, wer Zugriff auf welche Daten auf Schlüsselebene hat. 

1.  Welches Ausmaß an Stabilität erfordern die Daten? 

   1.  Aurora repliziert Ihre Daten automatisch in drei Availability Zones innerhalb von einer Region, was bedeutet, dass Ihre Daten hochbeständig sind und eine geringere Wahrscheinlichkeit von Datenverlust besteht. 

   1.  DynamoDB wird automatisch in mehreren Availability Zones repliziert und bietet hohe Verfügbarkeit und Datenstabilität. 

   1.  Amazon S3 bietet eine Stabilitätsgarantie von 99,999999999 %. Viele Datenbankservices wie Amazon RDS und DynamoDB unterstützen das Exportieren von Daten zu Amazon S3 für Langzeitaufbewahrung und Archivierung. 

1.  Beeinflussen die Anforderungen an [die Wiederherstellungsdauer (Recovery Time Objective, RTO) oder den Wiederherstellungszeitpunkt (Recovery Point Objective, RPO)](https://docs.aws.amazon.com/wellarchitected/latest/reliability-pillar/plan-for-disaster-recovery-dr.html) die Lösung? 

   1.  Amazon RDS, Aurora, DynamoDB, Amazon DocumentDB und Neptune unterstützen alle Point-in-Time-Wiederherstellung und On-Demand-Sicherung und -Wiederherstellung.  

   1.  Bei Anforderungen für eine hohe Verfügbarkeit können DynamoDB-Tabellen mithilfe der Funktion [Globale Tabellen](https://aws.amazon.com/dynamodb/global-tables/) global repliziert werden und Aurora-Cluster können mithilfe der Funktion „Globale Datenbanken“ innerhalb von mehreren Regionen repliziert werden. Zusätzlich können S3-Buckets in AWS-Regionen mithilfe von regionsübergreifender Replikation repliziert werden.  

1.  Besteht der Wunsch, sich von kommerziellen Datenbank-Engines/Lizenzkosten zu entfernen? 

   1.  Ziehen Sie Open-Source-Engines wie PostgreSQL und MySQL auf Amazon RDS oder Aurora in Erwägung. 

   1.  Nutzen Sie [AWS DMS](https://aws.amazon.com/dms/) und [AWS SCT](https://aws.amazon.com/dms/schema-conversion-tool/) zum Migrieren von kommerziellen Datenbank-Engines zu Open Source-Lösungen. 

1.  Was ist die Betriebserwartung an die Datenbank? Ist der Umstieg zu verwalteten Services eine Priorität? 

   1.  Das Verwenden von Amazon RDS anstatt von Amazon EC2 und DynamoDB oder Amazon DocumentDB anstatt eine NoSQL-Datenbank selbst zu hosten kann den Betriebsaufwand verringern. 

1.  Wie erfolgt derzeit der Zugriff auf die Datenbank? Handelt es sich nur um einen Anwendungszugriff oder gibt es Business-Intelligence (BI)-Benutzer und andere Standardanwendungen? 

   1.  Wenn Sie von externen Tools abhängig sind, müssen Sie möglicherweise mit der Datenbank, die unterstützt wird, die Kompatibilität aufrecht erhalten. Amazon RDS ist vollständig kompatibel mit den unterschiedlichen Engine-Versionen, die unterstützt werden, einschließlich Microsoft SQL Server, Oracle, MySQL und PostgreSQL. 

1.  Nachstehend finden Sie eine Liste von möglichen Datenmanagementservices und wo diese am besten verwendet werden können: 

   1.  In relationalen Datenbanken werden Daten mit vordefinierten Schemata und Beziehungen zwischen ihnen gespeichert. Diese Datenbanken unterstützen AKID-Transaktionen (Atomarität, Konsistenz, Isolation und Dauerhaftigkeit) und gewährleisten die referentielle Integrität sowie eine starke Datenkonsistenz. Bei zahlreichen herkömmlichen Anwendungen, Enterprise Resource Planning (ERP), Customer Relationship Management (CRM) und E-Commerce werden relationale Datenbanken zum Speichern der Daten verwendet. Viele dieser Datenbank-Engines können Sie in Amazon EC2 ausführen oder Sie können einen der von AWS verwalteten [Datenbankservices nutzen](https://aws.amazon.com/products/databases/): [Amazon Aurora](https://aws.amazon.com/rds/aurora), [Amazon RDS](https://aws.amazon.com/rds)und [Amazon Redshift](https://aws.amazon.com/redshift)evaluieren. 

   1.  Schlüssel-Werte-Datenbanken sind auf gängige Zugriffsmuster ausgelegt, üblicherweise zum Speichern und Abrufen großer Datenmengen. Diese Datenbanken bieten kurze Reaktionszeiten, selbst bei extrem großen Mengen gleichzeitiger Anforderungen. Web-Apps mit hohem Datenverkehr, E-Commerce-Systeme und Gaming-Anwendungen sind typische Anwendungsfälle für Schlüssel-Werte-Datenbanken. In AWS können Sie [Amazon DynamoDB](https://aws.amazon.com/dynamodb/)verwenden, eine vollständig verwaltete, regionsübergreifende, beständige Multi-Master-Datenbank mit integrierter Sicherheit, Sicherung und Wiederherstellung sowie In-Memory-Caching für internetfähige Anwendungen. 

   1.  In-Memory-Datenbanken werden für Anwendungen eingesetzt, die einen Echtzeitzugriff auf Daten, die niedrigste Latenz und den höchsten Durchsatz erfordern. Durch das direkte Speichern von Daten im Arbeitsspeicher liefern diese Datenbanken eine Latenz im Mikrosekundenbereich für Anwendungen, wo eine Latenz im Millisekundenbereich nicht ausreicht. Sie können In-Memory-Datenbanken für Anwendungs-Caching, Sitzungsverwaltung, Gaming-Bestenlisten und Geodatenanwendungen verwenden. [Amazon ElastiCache](https://aws.amazon.com/elasticache/) ist ein vollständig verwalteter In-Memory-Datenspeicher, der mit [Redis](https://aws.amazon.com/elasticache/redis/) oder [Memcached](https://aws.amazon.com/elasticache/memcached)evaluieren. Wenn die Anwendungen eine höhere Stabilität erfordern, bietet [Amazon MemoryDB für Redis](https://aws.amazon.com/memorydb/) eine Kombination, da es ein stabiler In-Memory-Datenbankservice für ultraschnelle Leistung ist. 

   1.  Eine Dokumentdatenbank ist darauf ausgelegt, halbstrukturierte Daten als JSON-ähnliche Dokumente zu speichern. Mit diesen Datenbanken können Entwickler Anwendungen wie Content Management, Kataloge und Benutzerprofile schnell erstellen und aktualisieren. [Amazon DocumentDB](https://aws.amazon.com/documentdb/) ist ein schneller, skalierbarer, hochverfügbarer und vollständig verwalteter Dokumentdatenbank-Service, der MongoDB-Workloads unterstützt. 

   1.  Ein Wide Column-Speicher ist eine Art NoSQL-Datenbank. Sie verwendet Tabellen, Zeilen und Spalten, aber im Gegensatz zu einer relationalen Datenbank können sich die Namen und das Format der Spalten von Zeile zu Zeile in derselben Tabelle unterscheiden. In der Regel werden Wide Column-Speicher in umfangreichen Branchen-Apps für Gerätewartung, Flottenverwaltung und Routenoptimierung eingesetzt. [Amazon Keyspaces (für Apache Cassandra)](https://aws.amazon.com/mcs/) ist ein skalierbarer, hoch verfügbarer und verwalteter Apache Cassandra-kompatibler Datenbankservice. 

   1.  Graph-Datenbanken sind für Anwendungen gedacht, die in Millionen von Beziehungen zwischen hochgradig vernetzten Diagrammdatensätzen mit Millisekunden-Latenz navigieren und diese abfragen müssen. Viele Unternehmen verwenden Graph-Datenbanken für Betrugserkennung, soziale Netzwerke und Empfehlungs-Engines. [Amazon Neptune](https://aws.amazon.com/neptune/) ist ein schneller, zuverlässiger, vollständig verwalteter Graph-Datenbankservice, der das Erstellen und Ausführen von Anwendungen vereinfacht, die mit hochgradig verbundenen Datensätzen arbeiten. 

   1.  Zeitreihen-Datenbanken erfassen, generieren und gewinnen auf effiziente Weise Einblicke aus Daten, die sich im Laufe der Zeit ändern. IoT-Anwendungen, DevOps und industrielle Telemetrie können Zeitreihen-Datenbanken nutzen. [Amazon Timestream](https://aws.amazon.com/timestream/) ist ein schneller, skalierbarer, vollständig verwalteter Zeitreihen-Datenbankservice für IoT- und Betriebsanwendungen, der das Speichern und Analysieren von Billionen von Ereignissen pro Tag vereinfacht. 

   1.  Ledger-Datenbanken bieten eine zentrale und vertrauenswürdige Instanz für die Verwaltung einer skalierbaren, unveränderlichen und kryptografisch überprüfbaren Aufzeichnung von Transaktionen für jede Anwendung. Ledger-Datenbanken werden für Datensatzsysteme, Lieferketten, Registrierungen und sogar Banktransaktionen verwendet. [Amazon Quantum Ledger Database (Amazon QLDB)](https://aws.amazon.com/qldb/) ist eine vollständig verwaltete Ledger-Datenbank, die ein transparentes, unveränderliches und kryptografisch überprüfbares Transaktionsprotokoll bereitstellt, das sich im Besitz einer zentralen vertrauenswürdigen Stelle befindet. Amazon QLDB verfolgt jede Änderung der Anwendungsdaten und pflegt einen vollständigen und überprüfbaren Änderungsverlauf. 

 **Grad des Aufwands für den Implementierungsplan: **Wenn eine Workload von einer Datenbanklösung zu einer anderen verschoben wird, stellt dies möglicherweise einen *hohen* Grad des Aufwands beim Faktorwechsel der Daten und Anwendung dar.   

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Cloud-Datenbanken mit AWS ](https://aws.amazon.com/products/databases/?ref=wellarchitected) 
+  [AWS-Datenbank-Caching ](https://aws.amazon.com/caching/database-caching/?ref=wellarchitected) 
+  [Amazon DynamoDB Accelerator ](https://aws.amazon.com/dynamodb/dax/?ref=wellarchitected) 
+  [Bewährte Methoden für Amazon Aurora ](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Aurora.BestPractices.html?ref=wellarchitected) 
+  [Amazon Redshift-Leistung ](https://docs.aws.amazon.com/redshift/latest/dg/c_challenges_achieving_high_performance_queries.html?ref=wellarchitected) 
+  [Die besten 10 Leistungstipps für Amazon Athena ](https://aws.amazon.com/blogs/big-data/top-10-performance-tuning-tips-for-amazon-athena/?ref=wellarchitected) 
+  [Bewährte Methoden für Amazon Redshift Spectrum ](https://aws.amazon.com/blogs/big-data/10-best-practices-for-amazon-redshift-spectrum/?ref=wellarchitected) 
+  [Bewährte MethodenAmazon DynamoDB](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/BestPractices.html?ref=wellarchitected) 
+  [Wählen Sie zwischen EC2 und Amazon RDS](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-sql-server/comparison.html) 
+  [Bewährte Methoden für die Implementierung von Amazon ElastiCache](https://docs.aws.amazon.com/AmazonElastiCache/latest/UserGuide/BestPractices.html) 

 **Relevante Videos:** 
+ [Speziell entwickelte AWS-Datenbanken (DAT209-L) ](https://www.youtube.com/watch?v=q81TVuV5u28) 
+ [Verständliche Beschreibung des Amazon Aurora-Speichers: Funktionsweise (DAT309-R) ](https://www.youtube.com/watch?v=uaQEGLKtw54) 
+ [Ausführliche Beschreibung von Amazon DynamoDB: Erweiterte Entwurfsmuster (DAT403-R1) ](https://www.youtube.com/watch?v=6yqfmXiZTlM) 

 **Zugehörige Beispiele:** 
+  [Optimierung von Datenmustern mithilfe von Amazon Redshift Data Sharing](https://wellarchitectedlabs.com/sustainability/300_labs/300_optimize_data_pattern_using_redshift_data_sharing/) 
+  [Datenbankmigrationen](https://github.com/aws-samples/aws-database-migration-samples) 
+  [MS SQL Server – AWS Database Migration Service (DMS)-Replikationsdemo](https://github.com/aws-samples/aws-dms-sql-server) 
+  [Praktischer Workshop für die Datenbankmodernisierung](https://github.com/aws-samples/amazon-rds-purpose-built-workshop) 
+  [Amazon Neptune-Beispiele](https://github.com/aws-samples/amazon-neptune-samples) 

# PERF04-BP02 Prüfen der verfügbaren Optionen
<a name="perf_right_database_solution_evaluate_options"></a>

 Verstehen Sie die verfügbaren Datenbankoptionen und wie sie Ihre Leistung optimieren können, bevor Sie Ihre Datenverwaltungslösung auswählen. Identifizieren Sie mithilfe von Lasttests Datenbankmetriken, die für Ihre Workload wichtig sind. Während Sie die Datenbanktoptionen erkunden, sollten Sie unterschiedliche Aspekte in Betracht ziehen, wie Parametergruppen, Speicheroptionen, Arbeitsspeicher, Rechenvorgänge, Read Replica, eventuelle Kohärenz, Verbindungs-Pooling und Caching-Optionen. Experimentieren Sie mit diesen unterschiedlichen Konfigurationsoptionen, um die Metriken zu verbessern. 

 **Gewünschtes Ergebnis:** Eine Workload könne eine oder mehrere Datenbanklösungen verwenden, basierend auf Datentypen. Die Funktionen und Vorteile der Datenbank entsprechen optimal den Datenmerkmalen, Zugriffsmustern und Workload-Anforderungen. Zur Optimierung der Leistung und Kosten Ihrer Datenbank müssen Sie die Datenzugriffsmuster auswerten, um die entsprechenden Datenbankoptionen zu bestimmen. Evaluieren Sie akzeptable Abfragezeiten, um sicherzustellen, dass die ausgewählten Datenbankoptionen die Anforderungen erfüllen können. 

 **Gängige Antimuster:** 
+  Sie identifizieren Datenzugriffsmuster nicht. 
+  Ihnen fehlt das Bewusstsein für die Wahl der Konfigurationsoptionen der Datenverwaltungslösung. 
+  Sie verlassen sich ausschließlich auf das Vergrößern der Instance-Größe, ohne andere verfügbare Konfigurationsoptionen in Betracht zu ziehen. 
+  Sie testen die Skalierungsoptionen der ausgewählten Lösung nicht. 

 

 **Vorteile der Einführung dieser bewährten Methode:** Indem Sie Datenbankoptionen erkunden und mit ihnen experimentieren, können Sie möglicherweise Infrastrukturkosten senken, die Leistung und Skalierbarkeit verbessern und den Aufwand zur Verwaltung Ihrer Workloads verringern. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Hoch 
+  Die Optimierung für eine *Größe, die für alle Datenbanken passt,* bedeutet, dass unnötige Kompromisse eingegangen werden müssen. 
+  Da die Datenbanklösung nicht für die Datenverkehrsmuster konfiguriert ist, entstehen höhere Kosten. 
+  Skalierungsprobleme können Schwierigkeiten beim Betrieb verursachen. 
+  Daten werden möglicherweise nicht im erforderlichen Ausmaß gesichert. 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Sie müssen die Datenmerkmale Ihrer Workload kennen, damit Sie Ihre Datenbankoptionen konfigurieren können. Führen Sie Lasttests durch, um Ihre wesentlichen Leistungsmetriken und Engpässe zu identifizieren. Verwenden Sie diese Merkmale und Metriken, um Datenbankoptionen zu evaluieren und unterschiedliche Konfigurationen auszuprobieren. 


|  AWS-Services  |  Amazon RDS, Amazon Aurora  |  Amazon DynamoDB  |  Amazon DocumentDB  |  Amazon ElastiCache  |  Amazon Neptune  |  Amazon Timestream  |  Amazon Keyspaces  |  Amazon QLDB  | 
| --- | --- | --- | --- | --- | --- | --- | --- | --- | 
|  Skalieren der Rechenvorgänge  |  Erhöhen der Instance-Größe, Aurora-Serverless-Instances skalieren automatisch als Reaktion auf Änderungen der Last  |  Automatisches Skalieren der Lese- und Schreibvorgänge mit einem On-Demand-Kapazitätsmodus oder automatisches Skalieren von bereitgestellter Kapazität für Lese- und Schreibvorgänge im bereitgestellten Kapazitätsmodus  |  Erhöhen der Instance-Größe  |  Erhöhen der Instance-Größe, Hinzufügen von Knoten zu einem Cluster  |  Erhöhen der Instance-Größe  |  Skaliert automatisch, um sich der Kapazität anzupassen  |  Automatisches Skalieren der Lese- und Schreibvorgänge mit einem On-Demand-Kapazitätsmodus oder automatisches Skalieren von bereitgestellter Kapazität für Lese- und Schreibvorgänge im bereitgestellten Kapazitätsmodus  |  Skaliert automatisch, um sich der Kapazität anzupassen  | 
|  Skalieren von Schreibvorgängen  |  Alle Enginges unterstützen Read Replicas. Aurora unterstützt die automatische Skalierung von Read-Replica-Instances  |  Erhöhen bereitgestellter Kapazitätseinheiten für bereitgestellte Lesevorgänge  |  Read Replicas  |  Read Replicas  |  Read Replicas. Unterstützt die automatische Skalierung von Read-Replica-Instances  |  Skaliert automatisch  |  Erhöhen bereitgestellter Kapazitätseinheiten für bereitgestellte Lesevorgänge  |  Skaliert automatisch zu dokumentierten Gleichzeitigkeitseinschränkungen hoch  | 
|  Skalieren von Schreibvorgängen  |  Erhöhen der Instance-Größe, Batching von Schreibvorgängen in der Anwendung oder Hinzufügen einer Warteschlange vor die Datenbank Horizontales Skalieren von mehreren Instances über Sharding auf Anwendungsebene  |  Erhöhen bereitgestellter Kapazitätseinheiten für bereitgestellte Schreibvorgänge Sicherstellen von optimalen Partitionsschlüsseln, um die Drosselung von Schreibvorgängen auf Partitionsebene zu verhindern  |  Erhöhen der primären Instance-Größe  |  Verwenden von Redis im Cluster-Modus, um Schreibvorgänge auf Shards zu verteilen  |  Erhöhen der Instance-Größe  |  Schreibanforderungen können beim Skalieren gedrosselt werden. Wenn Drosselungsausnahmen auftreten, senden Sie Daten weiterhin mit dem gleichen (oder höheren) Durchsatz, um automatisch zu skalieren. Batch-Schreibvorgänge, um gleichzeitige Schreibanforderungen zu verringern  |  Erhöhen bereitgestellter Kapazitätseinheiten für bereitgestellte Schreibvorgänge Sicherstellen von optimalen Partitionsschlüsseln, um die Drosselung von Schreibvorgängen auf Partitionsebene zu verhindern  |  Skaliert automatisch zu dokumentierten Gleichzeitigkeitseinschränkungen hoch  | 
|  Engine-Konfiguration  |  Parametergruppen  |  –  |  Parametergruppen  |  Parametergruppen  |  Parametergruppen  |  –  |  –  |  –  | 
|  Caching  |  In-Memory-Caching, über Parametergruppen konfigurierbar. Koppeln Sie mit einem dedizierten Cache wie ElastiCache für Redis, um Anforderungen für häufig genutzte Elemente auszulagern  |  DAX (DAX) vollständig verwalteter Cache verfügbar  |  In-Memory-Caching. Koppeln Sie optional mit einem dedizierten Cache wie ElastiCache für Redis, um Anforderungen für häufig genutzte Elemente auszulagern.  |  Die primäre Funktion ist das Caching  |  Verwenden Sie den Abfrageergebnis-Cache, um die Ergebnisse der Leseabfrage in den Cache zu speichern  |  Timestream hat zwei Speicherstufen; eine davon ist eine Hochleistungs-In-Memory-Stufe  |  Stellen Sie einen separaten dedizierten Cache wie ElastiCache für Redis bereit, um Anforderungen für häufig genutzte Elemente auszulagern  |  –  | 
|  Hohe Verfügbarkeit / Notfallwiederherstellung  |  Die empfohlene Konfiguration für Produktions-Workloads ist das Ausführen einer Standby-Instance in einer zweiten Availability Zone, um Stabilität innerhalb einer Region zu bieten.  Für die Resilienz in Regionen kann Aurora Global Database verwendet werden  |  Innerhalb einer Region hoch verfügbar. Tabellen können innerhalb von Regionen mithilfe von globalen DynamoDB-Tabellen repliziert werden.  |  Erstellen Sie für die Verfügbarkeit mehrere Instances in Availability Zones.  Schnappschüsse können in Regionen und Clustern mithilfe von DMS repliziert werden, um regionsübergreifende Replikation / Notfallwiederherstellung zu bieten  |  Die empfohlene Konfiguration für Produktions-Cluster ist, zumindest einen Knoten in einer sekundären Availability Zone zu erstellen.  Der ElastiCache Global Datastore kann verwendet werden, um Cluster in Regionen zu replizieren.  |  Read Replicas in anderen Availability Zones dienen als Failover-Ziele.  Snaphots können innerhalb von Regionen geteilt werden und Cluster können mithilfe von Neptune-Streams repliziert werden, um die Daten zwischen zwei Clustern in zwei unterschiedlichen Regionen zu replizieren.  |  Innerhalb einer Region hoch verfügbar, regionsübergreifende Replikation erfordert benutzerdefinierte Anwendungsentwicklung mithilfe des Timestream SDK.  |  Innerhalb einer Region hoch verfügbar.  Regionsübergreifende Replikation erfordert Anwendungslogik oder Tools von Drittanbietern.  |  Innerhalb einer Region hoch verfügbar.  Exportieren Sie zum regionsübergreifenden Replizieren den Inhalt des Amazon-QLDB-Journals zu einem S3-Bucket und konfigurieren Sie den Bucket für eine regionsübergreifende Replikation.  | 

 

 **Implementierungsschritte** 

1.  Welche Konfigurationsoptionen sind für die ausgewählten Datenbanken verfügbar? 

   1.  Mithilfe von Parametergruppen für Amazon RDS und Aurora können Sie gemeinsame Einstellungen auf Datenbank-Engine-Ebene anpassen, wie den dem Cache zugewiesenen Arbeitsspeicher oder das Einstellen der Zeitzone der Datenbank. 

   1.  Bei bereitgestellten Datenbankservices wie Amazon RDS, Aurora, Neptune Amazon DocumentDB und jenen, die auf Amazon EC2 bereitgestellt werden, können Sie den Instance-Typ und den bereitgestellten Speicher ändern sowie Read Replicas hinzufügen. 

   1.  Mithilfe von DynamoDB können Sie zwei Kapazitätsmodi angeben: On-Demand und bereitgestellt. Sie können zwischen diesen Modi wechseln und die zugewiesene Kapazität im bereitgestellten Modus jederzeit erhöhen, um unterschiedliche Workloads zu bewältigen. 

1.  Ist die Workload lese- oder schreiblastig?  

   1.  Welche Lösungen sind zum Auslagern von Lesevorgängen verfügbar (Read Replicas, Caching usw.)?  

      1.  Bei DynamoDB-Tabellen können Sie Lesevorgänge mithilfe von DAX für Caching auslagern. 

      1.  Sie können für relationale Datenbanken einen ElastiCache-for-Redis-Cluster erstellen und Ihre Anwendung so konfigurieren, dass sie zuerst aus dem Cache liest und dann auf die Datenbank zurückfällt, wenn das angeforderte Element nicht vorhanden ist. 

      1.  Relationale Datenbanken wie Amazon RDS und Aurora sowie bereitgestellte NoSQL-Datenbanken wie Neptune und Amazon DocumentDB unterstützen alle das Hinzufügen von Read Replicas, um die Lesevorgänge der Workload auszulagern. 

      1.  Serverless-Datenbanken wie DynamoDB skalieren automatisch. Stellen Sie sicher, dass Sie ausreichend Read Capacity Units (RCU) bereitstellen, um die Workload zu verarbeiten. 

   1.  Welche Lösungen sind zum Skalieren von Schreibvorgängen verfügbar (Partitionsschlüssel-Sharding, Einsetzen von Warteschlangen usw.)? 

      1.  Bei relationalen Datenbanken können Sie die Größe der Instance erhöhen, um eine erhöhte Workload zu bewältigen, oder die bereitgestellten IOPs erhöhen, um einen erhöhten Durchsatz in den zugrunde liegenden Speicher zu ermöglichen. 
         +  Sie können vor Ihrer Datenbank auch eine Warteschlange einrichten, anstatt direkt in die Datenbank zu schreiben. Mithilfe dieses Musters können Sie die Datenerfassung von der Datenbank entkoppeln und die Flow-Rate steuern, sodass die Datenbank nicht überwältigt wird.  
         +  Das Batching Ihrer Schreibanforderungen, anstatt mehrere kurzlebige Transaktionen zu erstellen, kann Ihnen dabei helfen, den Durchsatz bei relationalen Datenbanken mit hohem Schreibvolumen zu verbessern. 

      1.  Serverless-Datenbanken wie DynamoDB können den Schreibdurchsatz automatisch skalieren oder indem die bereitgestellten Kapazitätseinheiten für Schreibvorgänge (Write Capacity Units, WCU) abhängig vom Kapazitätsmodus angepasst werden.  
         +  Es können trotzdem Fehler mit einer *„Hot Partition“* auftreten, wenn Sie die Durchsatzgrenzen für einen bestimmten Partitionsschlüssel erreichen. Dies kann verhindert werden, indem Sie einen Partitionsschlüssel auswählen, der gleichmäßiger verteilt ist, oder indem Sie die Schreibvorgänge des Partitionsschlüssels in Shards aufteilen.  

1.  Was sind derzeit die erwarteten höchsten Transaktionen pro Sekunde (TPS)? Testen Sie mithilfe dieser Datenverkehrsmenge und dieser Menge \$1X%, um die Skalierungsmerkmale zu verstehen. 

   1.  Native Tools wie pg\$1bench for PostgreSQL können eingesetzt werden, um die Datenbank einem Stresstest zu unterziehen und Engpässe sowie Skalierungsmerkmale zu verstehen. 

   1.  Produktionsdatenverkehr sollte erfasst werden, sodass er wiedergegeben werden kann, um zusätzlich zu künstlichen Workloads auch echte Bedingungen zu simulieren. 

1.  Wenn Sie Serverless-Datenverarbeitung oder elastisch skalierbare Datenverarbeitung verwenden, testen Sie die Auswirkungen, wenn diese auf der Datenbank skaliert wird. Führen Sie Verbindungsverwaltung oder -Pooling ein, falls zutreffend, um die Auswirkungen auf die Datenbank zu verringern.  

   1.  RDS Proxy kann mit Amazon RDS und Aurora verwendet werden, um Verbindungen mit der Datenbank zu verwalten.  

   1.  Serverless-Datenbanken wie DynamoDB haben keine ihnen zugewiesenen Verbindungen, aber ziehen Sie die bereitgestellte Kapazität sowie automatische Skalierungsrichtlinien in Betracht, um Datenverkehrsspitzen zu bewältigen. 

1.  Ist die Last vorhersehbar, gibt es Lastspitzen und Inaktivitätsphasen? 

   1.  Wenn es Inaktivitätsphasen gibt, erwägen Sie während dieser Zeitspanne das Herunterskalieren der bereitgestellten Kapazität oder Instance-Größe. Aurora Serverless V2 skaliert auf Basis der Last automatisch hoch oder herunter. 

   1.  Bei Instances außerhalb der Produktionsumgebung erwägen Sie das Pausieren oder Stoppen dieser Instances in arbeitsfreien Zeiten. 

1.  Müssen Sie Ihre Datenmodelle basierend auf Zugriffsmustern und Datenmerkmalen segmentieren und verteilen? 

   1.  Erwägen Sie die Verwendung von AWS DMS oder AWS SCT, um Ihre Daten zu anderen Services zu verschieben. 

## Grad des Aufwands für den Implementierungsplan: 
<a name="level-of-effort-for-the-implementation-plan-to-establish-this-best-practice-you-must-be-aware-of-your-current-data-characteristics-and-metrics.-gathering-those-metrics-establishing-a-baseline-and-then-using-those-metrics-to-identify-the-ideal-database-configuration-options-is-a-low-to-moderate-level-of-effort.-this-is-best-validated-by-load-tests-and-experimentation."></a>

Sie müssen Ihre aktuellen Dateneigenschaften und -metriken kennen, um diese bewährten Methoden einzurichten. Das Erfassen dieser Metriken, Festlegen einer Basislinie und Verwenden von Metriken zum Ermitteln der idealen Datenbankkonfiguration stellt einen *niedrigen* bis *mittleren* Grad des Aufwands dar. Die Validierung erfolgt am besten über Lasttests und Experimentieren. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Cloud-Datenbanken mit AWS ](https://aws.amazon.com/products/databases/?ref=wellarchitected) 
+  [AWS-Datenbank-Caching ](https://aws.amazon.com/caching/database-caching/?ref=wellarchitected) 
+  [Amazon DynamoDB Accelerator ](https://aws.amazon.com/dynamodb/dax/?ref=wellarchitected) 
+  [Bewährte Methoden für Amazon Aurora ](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Aurora.BestPractices.html?ref=wellarchitected) 
+  [Amazon Redshift-Leistung ](https://docs.aws.amazon.com/redshift/latest/dg/c_challenges_achieving_high_performance_queries.html?ref=wellarchitected) 
+  [Die besten 10 Leistungstipps für Amazon Athena ](https://aws.amazon.com/blogs/big-data/top-10-performance-tuning-tips-for-amazon-athena/?ref=wellarchitected) 
+  [Bewährte Methoden für Amazon Redshift Spectrum ](https://aws.amazon.com/blogs/big-data/10-best-practices-for-amazon-redshift-spectrum/?ref=wellarchitected) 
+  [Bewährte MethodenAmazon DynamoDB](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/BestPractices.html?ref=wellarchitected) 

 

 **Relevante Videos:** 
+  [Speziell entwickelte AWS-Datenbanken (DAT209-L) ](https://www.youtube.com/watch?v=q81TVuV5u28)
+ [Verständliche Beschreibung des Amazon Aurora-Speichers: Funktionsweise (DAT309-R) ](https://www.youtube.com/watch?v=uaQEGLKtw54) 
+  [Ausführliche Beschreibung von Amazon DynamoDB: Erweiterte Entwurfsmuster (DAT403-R1) ](https://www.youtube.com/watch?v=6yqfmXiZTlM)

 **Zugehörige Beispiele:** 
+  [Amazon DynamoDB-Beispiele](https://github.com/aws-samples/aws-dynamodb-examples) 
+  [Beispiele von AWS-Datenbankmigration](https://github.com/aws-samples/aws-database-migration-samples) 
+  [Workshop für die Datenbankmodernisierung](https://github.com/aws-samples/amazon-rds-purpose-built-workshop) 
+  [Arbeiten mit Parametern auf Ihrem Amazon RDS für Postgress DB](https://github.com/awsdocs/amazon-rds-user-guide/blob/main/doc_source/Appendix.PostgreSQL.CommonDBATasks.Parameters.md) 

# PERF04-BP03 Erfassen und Aufzeichnen von Metriken zur Datenbankleistung
<a name="perf_right_database_solution_collect_metrics"></a>

 Es ist wichtig, relevante Metriken nachzuverfolgen, um zu verstehen, welche Leistung Ihre Datenverwaltungssysteme erbringen. Mithilfe dieser Metriken können Sie Ihre Datenverwaltungsressourcen optimieren, um sicherzustellen, dass Ihre Workload-Anforderungen erfüllt werden, und um eine klare Übersicht über die Workload-Leistung zu erhalten. Nutzen Sie Tools, Bibliotheken und Systeme zum Aufzeichnen von Messungen zur Datenbankleistung. 

 

 Diese Metriken beziehen sich auf das System, auf dem die Datenbank gehostet wird (beispielsweise CPU, Speicher, Arbeitsspeicher, IOPS), und es gibt Metriken für den Zugriff auf die eigentlichen Daten (beispielsweise Transaktionen pro Sekunde, Abfrageraten, Reaktionszeiten, Fehler). Support- oder Betriebsmitarbeiter sollten auf diese Metriken zugreifen können und über ausreichend historische Datensätze verfügen, um Tendenzen, Anomalien und Engpässe identifizieren zu können. 

 

 **Gewünschtes Ergebnis:** Um die Leistung Ihrer Datenbank-Workloads zu überwachen, müssen Sie mehrere Leistungsmetriken über einen bestimmten Zeitraum aufzeichnen. Auf diese Weise können Sie Anomalien erkennen und die Leistung anhand von Geschäftsmetriken messen, um sicherzustellen, dass Sie die Anforderungen Ihrer Workload erfüllen. 

 **Gängige Antimuster:** 
+  Sie suchen ausschließlich manuell mithilfe von Protokolldateien nach Metriken. 
+  Sie veröffentlichen Metriken nur in internen Tools, die von Ihrem Team verwendet werden, und Sie haben kein umfassendes Bild Ihrer Workload. 
+  Sie verwenden nur die Standardmetriken, die von der Überwachungssoftware Ihrer Wahl aufgezeichnet wurden. 
+  Sie überprüfen Metriken nur dann, wenn ein Problem vorliegt. 
+  Sie überwachen Metriken nur auf Systemebene und erfassen keine Datenzugriffs- und Nutzungsmetriken. 

 **Vorteile der Einführung dieser bewährten Methode:** Das Einrichten einer Leistungsbasislinie hilft dabei, normales Verhalten und die Anforderungen von Workloads zu verstehen. Abnorme Muster können schneller identifiziert und behoben werden, was die Leistung und Zuverlässigkeit der Datenbank erhöht. Die Datenbankkapazität kann konfiguriert werden, um die optimalen Kosten ohne Leistungseinschränkung sicherzustellen. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Hoch 
+  Wenn zwischen normalen und abnormalen Leistungsebenen nicht unterschieden wird, kann dies Schwierigkeiten bei der Fehlererkennung und Entscheidungsfindung verursachen. 
+  Potenzielle Kosteneinsparungen werden möglicherweise nicht erkannt. 
+  Wachstumsmuster werden nicht erkannt, was zur Verringerung von Zuverlässigkeit oder Leistung führen kann. 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Identifizieren, sammeln, aggregieren und korrelieren Sie Datenbankmetriken. Metriken sollten das zugrunde liegende System, das die Datenbank unterstützt, sowie die Datenbankmetriken enthalten. Die Metriken des zugrunde liegenden Systems können die CPU-Auslastung, den Arbeitsspeicher, den verfügbaren Festplattenspeicher, Festplatten-E/A und Metriken zum eingehenden und ausgehenden Netzwerkdatenverkehr umfassen, während die Datenbankmetriken die Transaktionen pro Sekunde, die häufigsten Abfragen, die durchschnittlichen Abfrageraten, Antwortzeiten, die Indexauslastung, Tabellenschlösser, Abfragezeitüberschreitungen und die Anzahl offener Verbindungen enthält. Diese Daten sind von entscheidender Bedeutung, um festzustellen, wie leistungsfähig die Workload ist und wie die Datenbanklösung genutzt wird. Nutzen Sie diese Kennzahlen im Rahmen eines datengestützten Ansatzes, der Ihnen die Feinabstimmung und Optimierung der vom Workload genutzten Ressourcen ermöglicht.  

 **Implementierungsschritte:** 

1.  Welche Datenbankmetriken sollten verfolgt werden? 

   1.  [Überwachungmetriken für Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Monitoring.html) 

   1.  [Überwachung mit Leistungserkenntnissen](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PerfInsights.html) 

   1.  [Erweiterte Überwachung](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_Monitoring.OS.overview.html) 

   1.  [DynamoDB-Metriken](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/metrics-dimensions.html) 

   1.  [Überwachung von DynamoDB DAX](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/DAX.Monitoring.html) 

   1.  [Überwachung von MemoryDB](https://docs.aws.amazon.com/memorydb/latest/devguide/monitoring-cloudwatch.html) 

   1.  [Überwachung von Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/mgmt/metrics.html) 

   1.  [Zeitreihenmetriken und -dimensionen](https://docs.aws.amazon.com/timestream/latest/developerguide/metrics-dimensions.html) 

   1.  [Cluster-Metriken für Aurora](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraMySQL.Monitoring.Metrics.html) 

   1.  [Überwachung von Amazon Keyspaces](https://docs.aws.amazon.com/keyspaces/latest/devguide/monitoring.html) 

   1.  [Überwachung von Amazon Neptune](https://docs.aws.amazon.com/neptune/latest/userguide/monitoring.html) 

1.  Würde die Datenbanküberwachung von einer Machine-Learning-Lösung profitieren, die Betriebsanomalien und Leistungsprobleme erkennt? 

   1.  [Amazon DevOps Guru for Amazon RDS](https://docs.aws.amazon.com/devops-guru/latest/userguide/working-with-rds.overview.how-it-works.html) ermöglicht einen Einblick in Leistungsprobleme und bietet Empfehlungen für Korrekturmaßnahmen. 

1.  Benötigen Sie Informationen über die SQL-Nutzung auf Anwendungsebene? 

   1.  [AWS X-Ray](https://docs.aws.amazon.com/xray/latest/devguide/xray-api-segmentdocuments.html#api-segmentdocuments-sql) kann in der Anwendung verwendet werden, um Erkenntnisse zu gewinnen und alle Datenpunkte für eine Abfrage zusammenzufassen. 

1.  Haben Sie derzeit eine genehmigte Protokollierungs- und Überwachungslösung? 

   1.  [Mithilfe von Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) lassen sich Kennzahlen aus sämtlichen Ressourcen Ihrer Architektur erfassen. Sie können auch benutzerdefinierte Kennzahlen erfassen und in Oberflächen-, Geschäfts- oder abgeleiteten Kennzahlen veröffentlichen. Richten Sie mit CloudWatch oder mit Lösungen von Drittanbietern Alarme ein, die auf das Überschreiten von Schwellenwerten hinweisen. 

1.  Haben Ihre Datenaufbewahrungsrichtlinien identifiziert und konfiguriert, sodass sie Ihren Sicherheits- und Betriebszielen entsprechen? 

   1.  [Standard-Datenaufbewahrung für CloudWatch-Metriken](https://aws.amazon.com/cloudwatch/faqs/#AWS_resource_.26_custom_metrics_monitoring) 

   1.  [Standard-Datenaufbewahrung für CloudWatch Logs](https://aws.amazon.com/cloudwatch/faqs/#Log_management) 

 **Grad des Aufwands für den Implementierungsplan: **Der Grad des Aufwands ist *mittel,* um Metriken von allen Datenbankressourcen zu identifizieren, nachzuverfolgen, zu erfassen, zu aggregieren und zu korrelieren. 

## Ressourcen
<a name="resources"></a>

 **Ähnliche Dokumente:** 
+ [AWS-Datenbank-Caching ](https://aws.amazon.com/caching/database-caching/) 
+ [ Die besten 10 Leistungstipps für Amazon Athena ](https://aws.amazon.com/blogs/big-data/top-10-performance-tuning-tips-for-amazon-athena/)
+ [ Bewährte Methoden für Amazon Aurora ](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Aurora.BestPractices.html)
+  [Amazon DynamoDB Accelerator ](https://aws.amazon.com/dynamodb/dax/)
+ [Bewährte MethodenAmazon DynamoDB ](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/BestPractices.html) 
+ [Bewährte Methoden für Amazon Redshift Spectrum ](https://aws.amazon.com/blogs/big-data/10-best-practices-for-amazon-redshift-spectrum/) 
+ [Amazon Redshift-Leistung ](https://docs.aws.amazon.com/redshift/latest/dg/c_challenges_achieving_high_performance_queries.html) 
+ [Cloud-Datenbanken mit AWS](https://aws.amazon.com/products/databases/) 
+  [Amazon RDS-Leistungserkenntnisse](https://aws.amazon.com/rds/performance-insights/) 

 **Ähnliche Videos:** 
+ [Speziell entwickelte AWS-Datenbanken (DAT209-L) ](https://www.youtube.com/watch?v=q81TVuV5u28) 
+  [Verständliche Beschreibung des Amazon Aurora-Speichers: Funktionsweise (DAT309-R) ](https://www.youtube.com/watch?v=uaQEGLKtw54)
+  [Ausführliche Beschreibung von Amazon DynamoDB: Erweiterte Entwurfsmuster (DAT403-R1) ](https://www.youtube.com/watch?v=6yqfmXiZTlM)

 **Ähnliche Beispiele:** 
+  [Level 100: Monitoring with CloudWatch Dashboards (Stufe 100: Überwachung mit Cloudwatch-Dashboards)](https://wellarchitectedlabs.com/performance-efficiency/100_labs/100_monitoring_with_cloudwatch_dashboards/) 
+  [AWS Dataset Ingestion Metrics Collection Framework (Framework zur AWS-Datenerfassung und Sammlung von Metriken)](https://github.com/awslabs/aws-dataset-ingestion-metrics-collection-framework) 
+  [Amazon RDS Monitoring Workshop (Workshop zur Überwachung von Amazon RDS)](https://www.workshops.aws/?tag=Enhanced%20Monitoring) 

# PERF04-BP04 Wählen des Datenspeichers nach Zugriffsmuster
<a name="perf_right_database_solution_access_patterns"></a>

Legen Sie anhand der Zugriffsmuster des Workloads und der Anforderungen der Anwendungen fest, welche Datenservices und Technologien am besten geeignet sind. 

 **Gewünschtes Ergebnis:** Der Datenspeicher wurde auf Basis von identifizierten und dokumentierten Datenzugriffsmustern ausgewählt. Hierzu gehören die gängigsten Lese-, Schreib und Löschabfragen, die Notwendigkeit von Kalkulationen und Aggregationen nach Bedarf, die Komplexität von Daten, die Abhängigkeiten zwischen Daten und die erforderlichen Konsistenzanforderungen. 

 **Typische Anti-Muster:** 
+ Sie wählen nur eine Datenbank-Engine aus, um die Betriebsverwaltung zu vereinfachen.
+  Sie gehen davon aus, dass Datenzugriffsmuster im Laufe der Zeit konsistent bleiben. 
+  Sie implementieren komplexe Transaktionen, Rollback und Konsistenzlogik in der Anwendung. 
+  Die Datenbank ist konfiguriert, um potenzielle Datenverkehrsspitzen zu unterstützen, was dazu führt, dass die Datenbankressourcen die meiste Zeit nicht genutzt werden. 
+  Es wird eine gemeinsame Datenbank für Transaktions- und Analysezwecke verwendet. 

 **Vorteile der Festlegung von bewährten Methoden:** Wenn Sie Ihren Datenspeicher auf der Grundlage von Zugriffsmustern auswählen und optimieren, hilft dies, die Entwicklungskomplexität zu verringern und Ihre Leistungsmöglichkeiten zu optimieren. Wenn Ihnen klar ist, wann Lesereplikate, globale Tabellen, Datenpartitionierung und Caching verwendet werden sollten, hilft Ihnen dies, den Betriebsaufwand zu verringern und basierend auf Ihren Workload-Anforderungen zu skalieren. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

Identifizieren und evaluieren Sie Ihre Datenzugriffsmuster, um die richtige Speicherkonfiguration auszuwählen. Jede Datenbanklösung bietet Optionen zur Konfigurierung und Optimierung Ihrer Speicherlösung. Verwenden Sie die erfassten Metriken und Protokolle und experimentieren Sie mit den Optionen, um die optimale Konfiguration zu finden. Verwenden Sie die nachfolgende Tabelle, um die Speicheroptionen nach Datenbankservice zu prüfen.


|  AWS Services  |  Amazon RDS  |  Amazon Aurora  |  Amazon DynamoDB  |  Amazon DocumentDB  |  Amazon ElastiCache  |  Amazon Neptune  |  Amazon Timestream  |  Amazon Keyspaces  |  Amazon QLDB  | 
| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | 
|  Scaling Storage  | Storage can be scaled up manually or configured to scale automatically to a maximum of 64 TiB based on engine types. Provisioned storage cannot be decreased. |  Storage scales automatically up to maximum of 128 TiB and decreases when data is removed. Maximum storage size also depends upon specific Aurora MySQL or Aurora Postgres engine versions.  | Storage automatically scales. Tables are unconstrained in terms of size. | Storage scales automatically up to maximum of 64 TiB. Starting Amazon DocumentDB 4.0 storage can decrease by comparable amounts for data removal through dropping a collection or index. With Amazon DocumentDB 3.6 allocated space remains same and free space is reused when data volume increases. |  Storage is in-memory, tied to instance type or count.  |  Storage scales automatically can grow up to 128 TiB (or 64 TiB in few Regions). Upon data removal from, total allocated space remains same and is reused in the future.  | Organizes your time series data to optimize query processing and reduce storage costs. Retention period can be configured through in-memory and magnetic tiers. | Scales table storage up and down automatically as your application writes, updates, and deletes data. | Storage automatically scales. Tables are unconstrained in terms of size. | 

 

 **Implementierungsschritte:** 

1.  Machen Sie sich die Anforderungen in Bezug auf Transaktionen, AKID-Compliance (Atomizität, Konsistenz, Isolation und Dauerhaftigkeit) und konsistente Lesevorgänge bewusst. Nicht jede Datenbank unterstützt dies und die meisten NoSQL-Datenbanken bieten ein Modell für eventuelle Konsistenz. 

1.  Berücksichtigen Sie die Datenverkehrsmuster, Latenz und Zugriffsanforderungen für eine global verteilte Anwendung, um die optimale Speicherlösung zu ermitteln. 

1.  Analysieren Sie Abfragemuster, zufällige Zugriffsmuster und einmalige Abfragen. Überlegungen zu hochspezialisierten Abfragefunktionen für die Verarbeitung von Text und natürlicher Sprache, Zeitreihendatenbanken und Diagrammen sollten ebenfalls in Betracht gezogen werden. 

1.  Ermitteln und dokumentieren Sie das antizipierte Wachstum von Daten und Datenverkehr. 

   1.  Amazon RDS und Aurora unterstützen eine automatische Speicherskalierung bis hin zu dokumentierten Grenzen. Erwägen Sie darüber hinaus, ältere Daten für die Archivierung an Amazon S3 zu übertragen, historische Daten für Analyseverfahren zu aggregieren oder unter Verwendung von Sharding horizontal zu skalieren. 

   1.  DynamoDB und Amazon S3 skalieren automatisch auf ein nahezu unbegrenztes Speichervolumen. 

   1.  Amazon RDS-Instances und Datenbanken, die auf EC2 ausgeführt werden, können manuell in ihrer Größe angepasst werden und zu EC2-Instances können später neue EBS-Volumes hinzugefügt werden, um zusätzlichen Speicher zu erhalten.  

   1.  Instance-Typen können auf Basis von Aktivitätsänderungen geändert werden. Sie können beispielsweise mit einer kleineren Instance starten, während Sie Tests durchführen, und die Instance dann skalieren, wenn allmählich Produktionsdatenverkehr im Service eingeht. Aurora Serverless V2 skaliert automatisch als Reaktion auf Lastveränderungen.  

1. Erstellen Sie eine Baseline der Anforderungen in Bezug auf normale Leistung und Spitzenleistung (Transaktionen pro Sekunde (TPS) und Abfragen pro Sekunde (QPS)) sowie Kohärenz (AKID und eventuelle Kohärenz).

1.  Dokumentieren Sie Bereitstellungsaspekte der Lösung und die Anforderungen an den Datenbankzugriff (wie z. B. globale Replikation, Multi-AZ, Lesereplikation und mehrere Schreibknoten). 

 **Grad des Aufwands für den Implementierungsplan:** niedrig Wenn Sie keine Protokolle oder Metriken für Ihre Datenverwaltungslösung haben, müssen Sie sich zunächst darum kümmern, bevor Sie Ihre Datenzugriffsmuster identifizieren und dokumentieren. Sobald Sie Ihr Datenzugriffsmuster verstanden haben, bedeutet es nur einen geringen Aufwand, Ihren Datenspeicher auszuwählen und zu konfigurieren. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+ [ Cloud-Datenbanken mit AWS](https://aws.amazon.com/products/databases/)
+ [Arbeiten mit Speicher für Amazon RDS-DB-Instances ](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PIOPS.StorageTypes.html)
+ [ Amazon DocumentDB-Speicherung ](https://docs.aws.amazon.com/documentdb/latest/developerguide/how-it-works.html#how-it-works.storage)
+ [AWS-Datenbank-Caching ](https://aws.amazon.com/caching/database-caching/)
+ [ Amazon Timestream-Speicherung ](https://docs.aws.amazon.com/timestream/latest/developerguide/storage.html)
+ [ Speicherung in Amazon Keyspaces ](https://docs.aws.amazon.com/keyspaces/latest/devguide/Storage.html)
+ [Häufig gestellte Fragen zu Amazon ElastiCache](https://aws.amazon.com/elasticache/faqs/)
+ [Speicherung, Zuverlässigkeit und Verfügbarkeit von Amazon Neptune ](https://docs.aws.amazon.com/neptune/latest/userguide/feature-overview-storage.html)
+ [Bewährte Methoden für Amazon Aurora](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Aurora.BestPractices.html) 
+ [Amazon DynamoDB-Accelerator ](https://aws.amazon.com/dynamodb/dax/) 
+ [Bewährte Methoden für Amazon DynamoDB](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/BestPractices.html) 
+  [Amazon RDS-Speichertypen](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Storage.html) 
+ [Hardware-Spezifikationen für Amazon RDS-Instance-Klassen ](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Concepts.DBInstanceClass.html#Concepts.DBInstanceClass.Types)
+ [ Aurora-Speicherlimits ](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/CHAP_Limits.html#RDS_Limits.FileSize.Aurora)

 **Zugehörige Videos:** 
+ [Speziell entwickelte AWS-Datenbanken (DAT209-L)](https://www.youtube.com/watch?v=q81TVuV5u28) 
+  [Verständliche Beschreibung des Amazon Aurora-Speichers: Funktionsweise (DAT309-R) ](https://www.youtube.com/watch?v=uaQEGLKtw54)
+ [ Ausführliche Beschreibung von Amazon DynamoDB: Erweiterte Entwurfsmuster (DAT403-R1) ](https://www.youtube.com/watch?v=6yqfmXiZTlM)

 **Zugehörige Beispiele:** 
+  [Experimentieren und Testen mit verteilten Lasttests auf AWS](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) 

# PERF04-BP05 Optimieren des Datenspeicher nach Zugriffsmuster und Metriken
<a name="perf_right_database_solution_optimize_metrics"></a>

 Optimieren Sie anhand der Leistungsmerkmale und Zugriffsmuster die Art und Weise, in der Daten gespeichert oder abgefragt werden. So lässt sich die bestmögliche Leistung erzielen. Messen Sie, wie sich Optimierungen, z. B. Indizierung, Schlüsselverteilung, Data Warehouse Design oder Caching-Strategien, auf die Systemleistung oder die allgemeine Effizienz auswirken. 

 **Gängige Antimuster:** 
+  Sie suchen ausschließlich manuell mithilfe von Protokolldateien nach Metriken. 
+  Sie veröffentlichen Metriken nur in internen Tools. 

 **Vorteile der Einführung dieser bewährten Methode:** Um sicherzustellen, dass Sie die für die Workload erforderlichen Metriken erfüllen, müssen Sie die Datenbank-Leistungsmetriken für Lese- und Schreibvorgänge überwachen. Sie können diese Daten verwenden, um neue Optimierungen für Lese- und Schreibvorgänge zur Datenspeicherebene hinzuzufügen. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Niedrig 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Speicher basierend auf Kennzahlen und Mustern optimieren: Verwenden Sie gemeldete Metriken, um Bereiche in Ihrer Workload zu identifizieren und Ihre Datenbankkomponenten zu optimieren. Für jedes Datenbanksystem müssen eigene Leistungsmerkmale in Betracht gezogen werden, etwa das Verfahren, mit dem Daten indiziert, in den Cache gelesen oder auf mehrere Systeme verteilt werden. Messen Sie die Auswirkungen Ihrer Optimierungen. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [AWS-Datenbank-Caching](https://aws.amazon.com/caching/database-caching/) 
+  [Die besten 10 Leistungstipps für Amazon Athena](https://aws.amazon.com/blogs/big-data/top-10-performance-tuning-tips-for-amazon-athena/) 
+  [Bewährte Methoden für Amazon Aurora](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Aurora.BestPractices.html) 
+  [Amazon DynamoDB Accelerator](https://aws.amazon.com/dynamodb/dax/) 
+  [Bewährte MethodenAmazon DynamoDB](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/BestPractices.html) 
+  [Bewährte Methoden für Amazon Redshift Spectrum](https://aws.amazon.com/blogs/big-data/10-best-practices-for-amazon-redshift-spectrum/) 
+  [Amazon Redshift-Leistung](https://docs.aws.amazon.com/redshift/latest/dg/c_challenges_achieving_high_performance_queries.html) 
+  [Cloud-Datenbanken mit AWS](https://aws.amazon.com/products/databases/) 
+  [Analysieren von Leistungsanomalien mit DevOps Guru für RDS](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/devops-guru-for-rds.html) 
+  [Lese-/Schreibmodus für DynamoDB](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/HowItWorks.ReadWriteCapacityMode.html) 

 **Relevante Videos:** 
+  [Speziell entwickelte AWS-Datenbanken (DAT209-L)](https://www.youtube.com/watch?v=q81TVuV5u28) 
+  [Verständliche Beschreibung des Amazon Aurora-Speichers: Funktionsweise (DAT309-R)](https://www.youtube.com/watch?v=uaQEGLKtw54) 
+  [Ausführliche Beschreibung von Amazon DynamoDB: Erweiterte Entwurfsmuster (DAT403-R1)](https://www.youtube.com/watch?v=6yqfmXiZTlM) 

 **Zugehörige Beispiele:** 
+  [Praktische Übungen für Amazon DynamoDB](https://amazon-dynamodb-labs.workshop.aws/hands-on-labs.html) 

# LEIST 5 Was ist beim Konfigurieren der Netzwerklösung zu beachten?
<a name="perf-05"></a>

 Welche Netzwerklösung für eine Workload optimal ist, richtet sich nach der Latenz, dem erforderlichen Durchsatz, dem Jitter und der Bandbreite. Die Standortoptionen sind von den physischen Einschränkungen abhängig, z. B. von Benutzer- oder lokalen Ressourcen. Diese Einschränkungen können durch Edge-Standorte oder die Ressourcenplatzierung wettgemacht werden. 

**Topics**
+ [PERF05-BP01 Verstehen der Auswirkungen des Netzwerks auf die Leistung](perf_select_network_understand_impact.md)
+ [PERF05-BP02 Evaluieren verfügbarer Netzwerkfunktionen](perf_select_network_evaluate_features.md)
+ [PERF05-BP03 Auswählen einer richtig ausgelegten dedizierten Konnektivität oder eines VPN für Hybrid-Workloads:](perf_select_network_hybrid.md)
+ [PERF05-BP04 Nutzen von Lastausgleich und Verschlüsselungsauslagerung](perf_select_network_encryption_offload.md)
+ [PERF05-BP05 Auswählen leistungsfördernder Netzwerkprotokolle](perf_select_network_protocols.md)
+ [PERF05-BP06 Auswählen des Workload-Standortes entsprechend den Netzwerkanforderungen](perf_select_network_location.md)
+ [PERF05-BP07 Optimieren der Netzwerkkonfiguration basierend auf Metriken](perf_select_network_optimize.md)

# PERF05-BP01 Verstehen der Auswirkungen des Netzwerks auf die Leistung
<a name="perf_select_network_understand_impact"></a>

 Analysieren Sie, wie sich Netzwerkentscheidungen auf die Leistung des Workloads auswirken. Das Netzwerk ist für die Verbindung zwischen Anwendungskomponenten, Cloud-Services, Edge-Netzwerken und On-Premises-Daten verantwortlich und kann daher die Workload-Leistung wesentlich beeinflussen. Die Benutzererfahrung wird nicht nur durch die Workload-Leistung, sondern auch durch die Netzwerklatenz, die Bandbreite, Protokolle, den Standort, Netzwerküberlastungen, Jitter, den Durchsatz und Routing-Regeln beeinträchtigt. 

 **Gewünschtes Ergebnis:** Sie haben eine dokumentierte Liste an Netzwerkanforderungen der Workload, einschließlich Latenz, Paketgröße, Routingregeln, Protokolle und unterstützender Datenverkehrsmuster. Sie überprüfen alle verfügbaren Netzwerklösungen und identifizieren, welcher Dienst den Netzwerkmerkmalen Ihrer Workload entspricht. Da cloudbasierte Netzwerke schnell geändert werden können, müssen Sie Ihre Netzwerkarchitektur im Laufe der Zeit weiterentwickeln, um die effiziente Leistung zu verbessern. 

 **Gängige Antimuster:** 
+  Jeglicher Datenverkehr fließt durch Ihre bestehenden Rechenzentren. 
+  Sie erstellen große Direct-Connect-Sitzungen, ohne die tatsächlichen Nutzungsanforderungen zu verstehen. 
+  Sie berücksichtigen beim Definieren Ihrer Netzwerklösungen die Workload-Eigenschaften und den Verschlüsselungsaufwand nicht. 
+  Sie verwenden On-Premises-Konzepte und -Strategien für Netzwerklösungen in der Cloud. 

 **Vorteile der Einführung dieser bewährten Methode:** Indem Sie verstehen, wie das Netzwerk die Workload-Leistung beeinflusst, können Sie potenzielle Engpässe erkennen, die Benutzererfahrung verbessern, die Zuverlässigkeit erhöhen und den Betriebsaufwand verringern, während sich die Workload verändert. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Identifizieren Sie wichtige Metriken der Netzwerkleistung für Ihre Workload und erfassen Sie ihre Netzwerkeigenschaften. Definieren und dokumentieren Sie Anforderungen im Rahmen eines datengestützten Ansatzes unter Einsatz von Benchmarking oder Lasttests. Ermitteln Sie anhand dieser Daten, an welcher Stelle die Netzwerklösung Defizite hat. Prüfen Sie anschließend die Konfigurationsoptionen, mit denen die der Workload verbessert werden könnte. Verstehen Sie die verfügbaren cloudnativen Netzwerkfunktionen und -optionen und wie diese Ihre Workload-Leistung basierend auf den Anforderungen beeinflussen können. Jede Netzwerkfunktion hat Vor- und Nachteile und kann konfiguriert werden, um Ihren Workload-Merkmalen zu entsprechen und basierend auf Ihren Anforderungen zu skalieren. 

 **Implementierungsschritte:** 

1.  Definieren und dokumentieren Sie die Anforderungen an die Netzwerkleistung: 

   1.  Schließen Sie Metriken wie Netzwerklatenz, Bandbreite, Protokolle, Standorte, Datenverkehrsmuster (Spitzen und Frequenz), Durchsatz, Verschlüsselung, Überprüfung und Routingregeln mit ein. 

1.  Erfassen Sie die Merkmale Ihres grundlegenden Netzwerks: 

   1.  [VPC Flow Logs ](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 

   1.  [Merkmale des AWS Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw/transit-gateway-cloudwatch-metrics.html) 

   1.  [AWS PrivateLink-Metriken](https://docs.aws.amazon.com/vpc/latest/privatelink/privatelink-cloudwatch-metrics.html) 

1.  Erfassen Sie die Merkmale Ihres Anwendungsnetzwerks: 

   1.  [Elastic Network Adapter](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/monitoring-network-performance-ena.html) 

   1.  [AWS-App Mesh-Metriken](https://docs.aws.amazon.com/app-mesh/latest/userguide/envoy-metrics.html) 

   1.  [Amazon API Gateway-Metriken](https://docs.aws.amazon.com/apigateway/latest/developerguide/api-gateway-metrics-and-dimensions.html) 

1.  Erfassen Sie die Merkmale Ihres Edge-Netzwerks: 

   1.  [Amazon CloudFront-Metriken](https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/viewing-cloudfront-metrics.html) 

   1.  [Amazon Route 53-Metriken](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/monitoring-cloudwatch.html) 

   1.  [AWS-Global Accelerator-Metriken](https://docs.aws.amazon.com/global-accelerator/latest/dg/cloudwatch-monitoring.html) 

1.  Erfassen Sie die Merkmale Ihres Hybridnetzwerks: 

   1.  [Direct-Connect-Metriken](https://docs.aws.amazon.com/directconnect/latest/UserGuide/monitoring-cloudwatch.html) 

   1.  [AWS-Site-to-Site-VPN-Metriken](https://docs.aws.amazon.com/vpn/latest/s2svpn/monitoring-cloudwatch-vpn.html) 

   1.  [AWS-Client-VPN-Metriken](https://docs.aws.amazon.com/vpn/latest/clientvpn-admin/monitoring-cloudwatch.html) 

   1.  [AWS Cloud-WAN-Metriken](https://docs.aws.amazon.com/vpc/latest/cloudwan/cloudwan-cloudwatch-metrics.html) 

1.  Erfassen Sie die Merkmale Ihres Sicherheitsnetzwerks: 

   1.  [AWS Shield, WAF und Netzwerk-Firewall-Metriken](https://docs.aws.amazon.com/waf/latest/developerguide/monitoring-cloudwatch.html) 

1.  Erfassen Sie End-to-End-Leistungsmetriken mit Tools zur Nachverfolgung: 

   1.  [AWS X-Ray](https://aws.amazon.com/xray/) 

   1.  [Amazon CloudWatch RUM](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-RUM.html) 

1.  Benchmarks für die Netzwerkleistung festlegen und testen: 

   1.  [Benchmark-](https://aws.amazon.com/premiumsupport/knowledge-center/network-throughput-benchmark-linux-ec2/) Netzwerkdurchsatz: Einige Faktoren, die EC2-Netzwerkleistung beeinflussen können, wenn sich die Instances in der gleichen VPC befinden. Messen Sie die Netzwerkbandbreite zwischen EC2-Linux-Instances in der gleichen VPC. 

   1.  Führen Sie [Lasttests](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) durch, um mit Netzwerklösungen und -optionen zu experimentieren 

 **Grad des Aufwands für den Implementierungsplan: **Der Grad des Aufwands ist *mittel,* um die Netzwerkanforderungen Ihrer Workload, die Optionen und die verfügbaren Lösungen zu dokumentieren. 

## Ressourcen
<a name="resources"></a>

 **Ähnliche Dokumente:** 
+ [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) 
+ [EC2: Enhanced Networking unter Linux ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html) 
+ [EC2: Enhanced Networking unter Windows ](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html) 
+ [EC2: Platzierungsgruppen ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) 
+ [Aktivieren von Enhanced Networking-Funktionen mit dem Elastic Network Adapter (ENA) in Linux-Instances](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) 
+ [Network Load Balancer ](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+ [Netzwerkprodukte mit AWS](https://aws.amazon.com/products/networking/) 
+  [Transit Gateway ](https://docs.aws.amazon.com/vpc/latest/tgw)
+ [Umstellung auf latenzbasiertes Routing in Amazon Route 53 ](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+ [VPC-Endpunkte ](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 
+ [VPC Flow Logs ](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 

 **Ähnliche Videos:** 
+ [Konnektivität mit AWS und AWS-Hybrid-Netzwerkarchitekturen (NET317-R1) ](https://www.youtube.com/watch?v=eqW6CPb58gs) 
+ [Optimieren der Netzwerkleistung für Amazon EC2-Instances (CMP308-R1) ](https://www.youtube.com/watch?v=DWiwuYtIgu0) 
+  [Improve Global Network Performance for Applications (Verbessern der Leistung von globalen Netzwerken für Anwendungen)](https://youtu.be/vNIALfLTW9M) 
+  [EC2 Instances and Performance Optimization Best Practices (Bewährte Methoden für EC2-Instances und Leistungsoptimierung)](https://youtu.be/W0PKclqP3U0) 
+  [Optimizing Network Performance for Amazon EC2-Instances (Optimieren der Netzwerkleistung für EC2-Instances)](https://youtu.be/DWiwuYtIgu0) 
+  [Networking best practices and tips with the Well-Architected Framework (Bewährte Methoden für Netzwerke und Tipps für das Well-Architected Framework)](https://youtu.be/wOMNpG49BeM) 
+  [AWS networking best practices in large-scale migrations (Bewährte Methoden für AWS-Netzwerke in umfangreichen Migrationen)](https://youtu.be/qCQvwLBjcbs) 

 **Ähnliche Beispiele:** 
+  [AWS Transit Gateway und skalierbare Sicherheitslösungen](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Workshops zu AWS-Netzwerken](https://networking.workshop.aws/) 

# PERF05-BP02 Evaluieren verfügbarer Netzwerkfunktionen
<a name="perf_select_network_evaluate_features"></a>

Prüfen Sie die Netzwerkfunktionen in der Cloud, mit denen die Leistung unter Umständen verbessert werden kann. Messen Sie die Auswirkungen der Funktionen anhand von Tests, Metriken und Analysen. Nutzen Sie beispielsweise die verfügbaren Funktionen auf Netzwerkebene, um die Latenz, den Paketverlust oder den Jitter zu reduzieren. 

Viele Services werden zur Verbesserung der Leistung entwickelt, andere bieten Funktionen zur Optimierung der Netzwerkleistung. Services wie AWS, Global Accelerator und Amazon CloudFront dienen der Leistungsverbesserung, während die meisten anderen Services über Produktfunktionen zur Optimierung des Netzwerkdatenverkehrs verfügen. Sehen Sie sich zur Verbesserung Ihrer Workload-Leistung Servicefunktionen wie EC2-Instance-Netzwerkfunktionen, erweiterte Netzwerk-Instance-Typen, für Amazon EBS optimierte Instances, Amazon S3 Transfer Acceleration sowie CloudFront an. 

**Gewünschtes Ergebnis:** Sie haben den Bestand an Komponenten in Ihrer Workload dokumentiert und ermittelt, welche Netzwerkkonfigurationen für die einzelnen Komponenten Ihnen helfen werden, Ihre Leistungsanforderungen zu erfüllen. Nach der Evaluierung der Netzwerkfunktionen haben Sie experimentiert und die Leistungsmetriken gemessen, um herauszufinden, wie Sie die Ihnen zur Verfügung stehenden Funktionen nutzen können. 

**Typische Anti-Muster:** 
+ Sie bringen alle Ihre Workloads in eine Ihrem Hauptsitz am nächsten liegende AWS-Region und nicht in eine AWS-Region in der Nähe Ihrer Endbenutzer. 
+ Sie versäumen es, ein Benchmarking Ihrer Workload-Leistung durchzuführen und Ihre Workload-Leistung kontinuierlich anhand dieser Benchmark zu bewerten.
+ Sie prüfen die Servicekonfigurationen nicht auf Optionen zur Leistungsverbesserung. 

**Vorteile der Nutzung dieser bewährten Methode:** Wenn Sie alle Servicefunktionen und Optionen evaluieren, kann dies die Workload-Leistung verbessern, die Infrastrukturkosten senken, den Verwaltungsaufwand für die Workload reduzieren und die allgemeine Sicherheit erhöhen. Dank der weltweiten Abdeckung von AWS können Sie Ihren Kunden stets das bestmögliche Netzwerkerlebnis bieten. 

**Risikostufe bei fehlender Befolgung dieser Best Practice:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

Sehen Sie sich die verfügbaren Konfigurationsoptionen für das Netzwerk an und finden Sie heraus, wie sich diese auf Ihre Workload auswirken. Für die Leistungsoptimierung ist es entscheidend, zu verstehen, wie diese Optionen mit Ihrer Architektur interagieren und welche Auswirkungen sie auf die gemessene Leistung und die von den Benutzern wahrgenommene Leistung haben. 

**Implementierungsschritte:** 

1. Erstellen Sie eine Liste der Workload-Komponenten. 

   1. Erstellen, verwalten und überwachen Sie das Netzwerk Ihres Unternehmens mithilfe von [AWS Cloud WAN](https://aws.amazon.com/cloud-wan/). 

   1. Erhalten Sie Einblicke in Ihr Netzwerk unter Verwendung von [Network Manager](https://docs.aws.amazon.com/vpc/latest/tgwnm/what-is-network-manager.html). Verwenden Sie ein vorhandenes Konfigurationsmanagementdatenbank-Tool (CMDB-Tool) oder eine Tool wie [AWS Config,](https://aws.amazon.com/config/) um eine Bestandsaufnahme Ihrer Workload und deren Konfiguration zu erstellen. 

1. Wenn es sich um einen bestehenden Workload handelt, ermitteln und dokumentieren Sie die Benchmark für Ihre Leistungsmetriken. Konzentrieren Sie sich dabei auf Engpässe und Bereiche mit Verbesserungspotenzial. Leistungsbezogene Netzwerkmetriken werden je nach geschäftlichen Anforderungen und Workload-Merkmalen für die einzelnen Workloads unterschiedlich sein. Für den Anfang könnte die Prüfung folgender Metriken für Ihre Workload wichtig sein: Bandbreite, Latenz, Paketverlust, Jitter und erneute Übertragungen. 

1. Bei einer neuen Workload sollten Sie [Lasttests](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) durchführen, um Leistungsengpässe zu identifizieren. 

1. Prüfen Sie für die ermittelten Leistungsengpässe die Konfigurationsoptionen Ihrer Lösungen, um Möglichkeiten zur Leistungsverbesserung zu finden. 

1. Wenn Sie Ihren Netzwerkpfad oder Ihre Netzwerkrouten nicht kennen, verwenden Sie [Network Access Analyzer,](https://docs.aws.amazon.com/vpc/latest/network-access-analyzer/what-is-vaa.html) um sie zu ermitteln. 

1. Prüfen Sie Ihre Netzwerkprotokolle, um die Latenz weiter zu reduzieren.
   + [PERF05-BP05 Auswählen leistungsfördernder Netzwerkprotokolle](perf_select_network_protocols.md) 

1. Wenn Sie ein AWS Site-to-Site VPN über mehrere Standorte hinweg verwenden, um eine Verbindung zu einer AWS-Region herzustellen, prüfen Sie [beschleunigte Site-to-Site VPN-Verbindungen](https://docs.aws.amazon.com/vpn/latest/s2svpn/accelerated-vpn.html) auf Möglichkeiten zur Verbesserung der Netzwerkleistung.

1. Wenn Ihr Workload-Datenverkehr über mehrere Konten verteilt ist, evaluieren Sie Ihre Netzwerktopologie und Ihre Services, um die Latenz zu verringern. 
   + Bewerten Sie Ihre betrieblichen und leistungsbezogenen Kompromisse zwischen [VPC Peering](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html) und [AWS Transit Gateway](https://aws.amazon.com/transit-gateway/) bei Verbindung mehrerer Konten. AWS Transit Gateway unterstützt die Skalierung eines AWS-Site-to-Site-VPN-Durchsatzes über eine einzelne [IPsec-Höchstgrenze](https://aws.amazon.com/blogs/networking-and-content-delivery/scaling-vpn-throughput-using-aws-transit-gateway/) hinaus durch die Verwendung von Multi-Path. Der Datenverkehr zwischen einer Amazon VPC und AWS Transit Gateway bleibt im privaten AWS-Netzwerk und erfolgt nicht über das Internet. AWS Transit Gateway vereinfacht die Verbindung zwischen allen Ihren VPCs, die Tausende von AWS-Konten umfassen und in On-Premises-Netzwerke hineinreichen können. Teilen Sie Ihr AWS Transit Gateway zwischen mehreren Konten mit [Resource Access Manager](https://aws.amazon.com/ram/). Wenn Sie einen Einblick in Ihren globalen Netzwerkdatenverkehr erhalten möchten, verwenden Sie [Network Manager,](https://aws.amazon.com/transit-gateway/network-manager/) um einen zentralen Überblick über Ihre Netzwerkmetriken zu erhalten. 

1. Prüfen Sie die Standorte Ihrer Benutzer und minimieren Sie die Distanz zwischen Ihren Benutzern und der Workload.

   1. [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/) ist ein Netzwerkservice, der die Leistung des Benutzerdatenverkehrs unter Verwendung der globalen Netzwerkinfrastruktur von Amazon Web Services um bis zu 60 % verbessert. Bei einer Überlastung des Internets optimiert AWS Global Accelerator den Weg zu Ihrer Anwendung, um Paketverluste, Jitter und Latenz konsistent niedrig zu halten. Der Service bietet auch statische IP-Adressen, die die Verschiebung von Endpunkten zwischen Availability Zones oder AWS-Regionen erleichtern, ohne dass Ihre DNS-Konfiguration aktualisiert werden muss oder kundenorientierte Anwendungen geändert werden müssen. 

   1. [Amazon CloudFront](https://aws.amazon.com/cloudfront/) kann die Leistung Ihrer Workload-Inhaltsbereitstellung und die Latenz global verbessern. CloudFront verfügt über 410 weltweit verteilte Points of Presence, die Ihre Inhalte zwischenspeichern und die Latenzzeit für den Endbenutzer verringern können. 

   1. Amazon Route 53 bietet Optionen für [latenzbasiertes Routing](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/routing-policy-latency.html), [Geolocation-Routing](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/routing-policy-geo.html), [Routing auf der Grundlage der geografischen Nähe](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/routing-policy-geoproximity.html)und [IP-basiertes Routing](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/routing-policy-ipbased.html) und trägt damit zur Leistungsverbesserung der Workload für eine globale Zielgruppe bei. Ermitteln Sie, welche Routing-Option Ihre Workload-Leistung optimieren würde. Prüfen Sie dazu Ihren Workload-Datenverkehr und den Benutzerstandort. 

1. Evaluieren Sie weitere Amazon S3-Funktionen zur Verbesserung der Speicher-IOPS. 

   1.  [Amazon S3 Transfer Acceleration](https://aws.amazon.com/s3/transfer-acceleration/) ist eine Funktion, mit deren Hilfe externe Benutzer beim Hochladen von Daten in Amazon S3 von den Netzwerkoptimierungen von CloudFront profitieren können. Dies erleichtert die Übertragung großer Datenmengen von Remote-Standorten ohne spezielle Konnektivität zur AWS Cloud. 

   1.  [Multi-Region-Zugriffspunkte in Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/MultiRegionAccessPoints.html) replizieren Inhalte in mehreren Regionen und vereinfachen die Workload durch die Bereitstellung eines Zugriffspunkts. Bei Verwendung eines Multi-Region-Zugriffspunkts können Sie Daten anfordern oder in Amazon S3 schreiben, wobei der Service den Bucket mit der geringsten Latenz ermittelt. 

1. Prüfen Sie die Netzwerkbandbreite Ihrer Computing-Ressource.

   1. Die von EC2-Instances, Containern und Lambda-Funktionen verwendeten Elastic-Network-Schnittstellen (ENA) sind pro Fluss begrenzt. Prüfen Sie Ihre Platzierungsgruppen, um Ihren [EC2-Netzwerkdurchsatz zu optimieren.](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-instance-network-bandwidth.html). Um Engpässe auf Pro-Fluss-Basis zu vermeiden, sollten Sie Ihre Anwendung so gestalten, dass mehrere Flüsse verwendet werden. Um Ihre datenverarbeitungsbezogenen Netzwerkmetriken zu überwachen und Einblicke in diese Metriken zu erhalten, verwenden Sie [CloudWatch Metrics](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/ec2-instance-network-bandwidth.html) und [https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/monitoring-network-performance-ena.html](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/monitoring-network-performance-ena.html). `ethtool` ist im ENA-Treiber enthalten und stellt zusätzliche netzwerkbezogene Metriken zur Verfügung, die als [benutzerdefinierte Metriken](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/publishingMetrics.html) in CloudWatch veröffentlicht werden können. 

   1. Neuere EC2-Instances können von Enhanced Networking profitieren. [EC2-Instances der N-Serie](https://aws.amazon.com/ec2/nitro/)wie z. B. `M5n` und `M5dn`nutzen die vierte Generation benutzerdefinierter Nitro-Karten, um einen Netzwerkdurchsatz von bis zu 100 Gbit/s zu einer einzelnen Instance zu bieten. Diese Instances bieten das Vierfache an Netzwerkbandbreite und Paketverarbeitung im Vergleich zu den einfachen `M5-` Instances und sind damit ideal für netzwerkintensive Anwendungen. 

   1. [Amazon Elastic Network Adapters](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) (ENA) ermöglichen eine weitere Optimierung, da sie einen besseren Durchsatz für Ihre Instances innerhalb einer [Cluster-Placement-Gruppe bieten](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-cluster%23placement-groups-limitations-cluster). 

   1. [Elastic Fabric Adapter](https://aws.amazon.com/hpc/efa/) (EFA) ist eine Netzwerkschnittstelle für Amazon EC2-Instances, mit der Sie Workloads, die ein hohes Maß an Kommunikation zwischen Knoten erfordern, in AWS bedarfsgesteuert ausführen können. Bei EFA kann für HPC-Anwendungen (High Performance Computing) mit Message Passing Interface (MPI) und für ML-Anwendungen (Machine Learning) mit NVIDIA Collective Communications Library (NCCL) eine Skalierung auf Tausende von CPUs oder GPUs durchgeführt werden. 

   1. [Amazon EBS-optimierte](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-optimized.html) Instances verwenden einen optimierten Konfigurations-Stack und stellen zusätzliche dedizierte Kapazität zur Erhöhung der Amazon EBS-I/O bereit. Sie können damit die Leistung Ihrer EBS-Volumes maximieren, indem Sie Konflikte zwischen Amazon Amazon EBS-I/O und anderem Datenverkehr von Ihrer Instance minimieren. 

**Aufwand für den Implementierungsplan: **

Um diese bewährte Methode einzuführen, müssen Sie die Optionen Ihrer aktuellen Workload-Komponenten kennen, die sich auf die Netzwerkleistung auswirken. Das Zusammentragen der Komponenten, die Bewertung der Optionen zur Netzwerkverbesserung, das Experimentieren, die Umsetzung und die Dokumentation dieser Verbesserung erfordern einen *geringen* bis *moderaten* Aufwand. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Amazon EBS – Optimierte Instances](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-optimized.html) 
+  [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) 
+  [Netzwerkbandbreite der Amazon EC2-Instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-instance-network-bandwidth.html) 
+  [EC2: Enhanced Networking unter Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html) 
+  [EC2: Enhanced Networking unter Windows](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html) 
+  [EC2: Platzierungsgruppen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) 
+  [Aktivieren von Enhanced Networking-Funktionen mit dem Elastic Network Adapter (ENA) in Linux-Instances](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) 
+  [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+  [Netzwerkprodukte mit AWS](https://aws.amazon.com/products/networking/) 
+  [AWS Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw) 
+  [Umstellung auf latenzbasiertes Routing in Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+  [VPC-Endpunkte](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 
+  [VPC Flow Logs](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 
+  [Entwicklung einer Cloud-CMDB](https://aws.amazon.com/blogs/mt/building-a-cloud-cmdb-on-aws-for-consistent-resource-configuration-in-hybrid-environments/) 
+  [Skalieren des VPN-Durchsatzes mithilfe von AWS Transit Gateway](https://aws.amazon.com/blogs/networking-and-content-delivery/scaling-vpn-throughput-using-aws-transit-gateway/) 

 **Zugehörige Videos:** 
+  [Konnektivität mit AWS und AWS-Hybrid-Netzwerkarchitekturen (NET317-R1)](https://www.youtube.com/watch?v=eqW6CPb58gs) 
+  [Optimieren der Netzwerkleistung für Amazon EC2-Instances (CMP308-R1)](https://www.youtube.com/watch?v=DWiwuYtIgu0) 
+  [AWS Global Accelerator](https://www.youtube.com/watch?v=lAOhr-5Urfk) 

 **Zugehörige Beispiele:** 
+  [AWS Transit Gateway und skalierbare Sicherheitslösungen](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Workshops zu AWS-Netzwerken](https://networking.workshop.aws/) 

# PERF05-BP03 Auswählen einer richtig ausgelegten dedizierten Konnektivität oder eines VPN für Hybrid-Workloads:
<a name="perf_select_network_hybrid"></a>

 Wenn ein gemeinsames Netzwerk erforderlich ist, um On-Premises- und Cloud-Ressourcen in AWS zu verbinden, vergewissern Sie sich, dass Sie über ausreichend Bandbreite verfügen, um Ihre Leistungsanforderungen zu erfüllen. Schätzen Sie, welche Anforderungen an die Bandbreite und Latenz für Ihre Hybrid-Workload bestehen. Diese Daten bestimmen die Größenanpassung für Ihre Konnektivitätsoptionen. 

 **Gewünschtes Ergebnis:** Wenn Sie einen Workload bereitstellen, für den hybride Netzwerke erforderlich sind, haben Sie mehrere Konfigurationsoptionen für die Konnektivität, z. B. eine dedizierte Verbindung oder ein virtuelles privates Netzwerk (VPN). Wählen Sie für jeden Workload den passenden Verbindungstyp aus und vergewissern Sie sich gleichzeitig, dass die Bandbreite und die Verschlüsselungsanforderungen zwischen Ihrem Standort und der Cloud ausreichend sind. 

 **Typische Anti-Muster:** 
+ Sie kennen oder identifizieren nicht alle Anforderungen des Workloads (Bandbreite, Latenz, Jitter, Verschlüsselung und Traffic-Anforderungen).
+  Sie evaluieren keine Optionen für Sicherung oder parallele Verbindungen. 

 **Vorteile der Nutzung dieser bewährten Methode:** Das Auswählen und Konfigurieren von Lösungen für hybride Netzwerke in angemessener Größenanpassung erhöht die Zuverlässigkeit Ihres Workloads und maximiert die Möglichkeiten der Leistung. Indem Sie die Workload-Anforderungen identifizieren, im Voraus planen und hybride Lösungen evaluieren, verringern Sie teure physische Netzwerkänderungen sowie den Betriebsaufwand und beschleunigen die Markteinführung. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

Entwickeln Sie eine hybride Netzwerkarchitektur entsprechend den Bandbreitenanforderungen. Schätzen Sie die Anforderungen an Bandbreite und Latenz für Ihre Hybridanwendungen ab. Ziehen Sie eine geeignete Konnektivitätsoption in Betracht, entweder eine dedizierte Netzwerkverbindung oder ein internetbasiertes VPN.

Eine dedizierte Verbindung stellt eine Netzwerkverbindung über private Verbindungen her. Sie ist geeignet, wenn Sie eine hohe Bandbreite und eine geringe Latenz bei gleichbleibender Leistung benötigen. Eine VPN-Verbindung stellt eine sichere Verbindung über das Internet her. Sie ist geeignet, wenn Sie eine verschlüsselte Verbindung über eine bestehende Internetverbindung benötigen.

Je nach Ihren Anforderungen an die Bandbreite reicht eine einzelne VPN-Verbindung oder eine dedizierte Verbindung möglicherweise nicht aus, und Sie müssen eine hybride Architektur aufbauen, um das Load-Balancing des Datenverkehrs über mehrere Verbindungen zu unterstützen. 

 **Implementierungsschritte** 

1.  Schätzen Sie die Anforderungen an Bandbreite und Latenz für Ihre Hybridanwendungen ab. 

   1.  Für bestehende Apps, die auf AWS umgestellt werden, nutzen Sie die Daten aus Ihren internen Systemen zur Überwachung des Netzwerks. 

   1.  Bei neuen Apps oder bestehenden Apps, für die Sie keine Monitoring-Daten haben, beraten Sie sich mit den Besitzern der Produkte, um angemessene Metriken für die Leistung abzuleiten und ein gutes Benutzererlebnis zu gewährleisten. 

1.  Wählen Sie eine dedizierte Verbindung oder ein VPN als Konnektivitätsoption aus. Je nach den Anforderungen des Workloads (Verschlüsselung, Bandbreite und Traffic-Bedarf) können Sie entweder AWS Direct Connect oder AWS Site-to-Site VPN (oder beides) auswählen. Das folgende Diagramm hilft Ihnen bei der Wahl der geeigneten Verbindungsart. 

   1.  Wenn Sie eine dedizierte Verbindung in Betracht ziehen, kann AWS Direct Connect erforderlich sein. Dieser Service bietet aufgrund der privaten Netzwerkkonnektivität eine besser vorhersehbare und konsistentere Leistung. AWS Direct Connect bietet eine dedizierte Konnektivität zur AWS-Umgebung, von 50 Mbit/s bis zu 100 Gbit/s, entweder über eine dedizierte Verbindung oder über eine gehostete Verbindung. So erhalten Sie eine verwaltete und kontrollierte Latenz und bereitgestellte Bandbreite, damit sich Ihr Workload effizient mit anderen Umgebungen verbinden kann. Mit einem AWS Direct Connect-Partner können Sie eine End-to-End-Konnektivität aus mehreren Umgebungen nutzen und so ein erweitertes Netzwerk mit konsistenter Leistung bereitstellen. AWS bietet eine Skalierung der Bandbreite für Direct Connect-Verbindungen entweder über native 100 Gbit/s, Link Aggregation Group (LAG) oder BGP Equal-Cost Multipath (ECMP). 

   1.  Wenn Sie eine VPN-Verbindung in Erwägung ziehen, ist ein AWS verwaltetes VPN die empfohlene Option. Das AWS Site-to-Site VPN bietet einen verwalteten VPN-Service, der das IPsec (Internet Protocol Security) unterstützt. Wenn eine VPN-Verbindung erstellt wird, besteht die VPN-Verbindung aus zwei Tunneln, um eine hohe Verfügbarkeit zu gewährleisten. Mit AWS Transit Gateway können Sie die Konnektivität zwischen mehreren VPCs vereinfachen und sich mit einer einzigen VPN-Verbindung auch mit jeder AWS Transit Gateway zugeordneten VPC verbinden. Mit AWS Transit Gateway können Sie außerdem über die Grenze des IPsec VPN-Durchsatzes von 1,25 Gbit/s hinaus skalieren, indem Sie den Support für ECMP-Routing (Equal Cost Multi-Path) über mehrere VPN-Tunnel aktivieren. 

![\[Ein Flussdiagramm, das die Optionen im Rahmen der Entscheidung zur Notwendigkeit einer deterministischen Leistung in Ihrem Netzwerk beschreibt.\]](http://docs.aws.amazon.com/de_de/wellarchitected/2023-04-10/framework/images/deterministic-performance-flowchart.png)


 

 **Grad des Aufwands für den Implementierungsplan:** hoch Die Bewertung des Workload-Bedarfs für hybride Netzwerke und die Implementierung von Lösungen für hybride Netzwerke ist mit erheblichem Aufwand verbunden. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+ [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+ [Netzwerkprodukte mit AWS](https://aws.amazon.com/products/networking/) 
+ [AWS Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw) 
+ [Umstellung auf latenzbasiertes Routing in Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+ [VPC-Endpunkte](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 
+ [VPC-Flow-Protokolle](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 
+  [AWS Site-to-Site VPN](https://docs.aws.amazon.com/vpn/latest/s2svpn/VPC_VPN.html) 
+  [Erstellen einer skalierbaren und sicheren Multi-VPC-AWS-Netzwerkinfrastruktur](https://docs.aws.amazon.com/whitepapers/latest/building-scalable-secure-multi-vpc-network-infrastructure/welcome.html) 
+  [AWS Direct Connect](https://docs.aws.amazon.com/directconnect/latest/UserGuide/Welcome.html) 
+  [Client-VPN](https://docs.aws.amazon.com/vpn/latest/clientvpn-admin/what-is.html) 

 **Zugehörige Videos:** 
+ [Konnektivität mit AWS und AWS-Hybrid-Netzwerkarchitekturen (NET317-R1) ](https://www.youtube.com/watch?v=eqW6CPb58gs) 
+ [Optimieren der Netzwerkleistung für Amazon EC2-Instances (CMP308-R1) ](https://www.youtube.com/watch?v=DWiwuYtIgu0) 
+  [AWS Global Accelerator](https://www.youtube.com/watch?v=lAOhr-5Urfk) 
+  [AWS Direct Connect](https://www.youtube.com/watch?v=DXFooR95BYc&t=6s) 
+  [Transit Gateway Connect](https://www.youtube.com/watch?v=_MPY_LHSKtM&t=491s) 
+  [VPN-Lösungen](https://www.youtube.com/watch?v=qmKkbuS9gRs) 
+  [Sicherheit mit VPN-Lösungen](https://www.youtube.com/watch?v=FrhVV9nG4UM) 

 **Zugehörige Beispiele:** 
+  [AWS Transit Gateway und skalierbare Sicherheitslösungen](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Workshops zu AWS-Netzwerken](https://networking.workshop.aws/) 

# PERF05-BP04 Nutzen von Lastausgleich und Verschlüsselungsauslagerung
<a name="perf_select_network_encryption_offload"></a>

Nutzen Sie Load-Balancer, um eine optimale Leistungseffizienz Ihrer Zielressourcen zu gewährleisten und die Reaktionsfähigkeit Ihres Systems zu verbessern.

 **Gewünschtes Ergebnis:** Reduzierung der Anzahl der Computing-Ressourcen zur Bewältigung Ihres Datenverkehrs. Vermeiden Sie eine ungleichmäßige Auslastung der Ressourcen in Ihren Zielen. Verlagern Sie rechenintensive Aufgaben auf den Load-Balancer. Nutzen Sie die Elastizität und Flexibilität der Cloud, um die Leistung zu verbessern und Ihre Architektur zu optimieren. 

 **Typische Anti-Muster:** 
+ Sie berücksichtigen bei der Wahl des Load-Balancer-Typs nicht die Anforderungen Ihres Workloads.
+ Sie nutzen die Funktionen des Load-Balancers nicht zur Optimierung der Leistung.
+  Der Workload ist direkt mit dem Internet verbunden, ohne dass ein Load-Balancer zum Einsatz kommt. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Load-Balancer fungieren als Eingangspunkt für Ihren Workload und verteilen den Datenverkehr von dort aus auf Ihre Backend-Ziele – wie Computing-Instances oder Container. Die Wahl des richtigen Load-Balancer-Typs ist der erste Schritt zur Optimierung Ihrer Architektur. 

 Starten Sie mit einer Auflistung Ihrer Workload-Merkmale wie Protokoll (z. B. TCP, HTTP, TLS oder WebSockets), Zieltyp (z. B. Instances, Container oder Serverless), Anwendungsanforderungen (z. B. langfristige Verbindungen, Benutzerauthentifizierung oder Stickiness) und Platzierung (z. B. Region, lokale Zone, Outposts oder Zonenisolierung). 

 Nachdem Sie sich für den richtigen Load-Balancer entschieden haben, können Sie damit beginnen, seine Funktionen zu nutzen, um die Belastung Ihres Backends durch den Datenverkehr zu verringern. 

 So können Sie beispielsweise sowohl mit Application Load Balancer (ALB) als auch mit Network Load Balancer (NLB) die SSL/TLS-Verschlüsselung auslagern, was die Möglichkeit bietet, den CPU-intensiven TLS-Handshake bei Ihren Zielen zu vermeiden und die Verwaltung der Zertifikate zu verbessern. 

 Wenn Sie SSL/TLS-Offloading in Ihrem Load-Balancer konfigurieren, übernimmt dieser die Verschlüsselung des Datenverkehrs von und zu den Clients. Er leitet den Datenverkehr dann unverschlüsselt an Ihre Backends weiter, wodurch Ihre Backend-Ressourcen entlastet werden und die Reaktionszeit für die Clients verbessert wird. 

 Application Load Balancer kann außerdem HTTP2-Datenverkehr ausliefern, ohne dass Sie ihn auf Ihren Zielen unterstützen müssen. Diese einfache Entscheidung kann die Reaktionszeit Ihrer Anwendung verbessern, da HTTP2 TCP-Verbindungen effizienter nutzt. 

 Load-Balancer können ebenfalls verwendet werden, um Ihre Architektur flexibler zu gestalten, indem der Datenverkehr auf verschiedene Backend-Typen wie Container und Serverless verteilt wird. Application Load Balancer kann beispielsweise mit [Listener-Regeln](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/listener-update-rules.html) konfiguriert werden, die den Datenverkehr auf der Grundlage der Anfrageparameter wie Header, Methode oder Muster an verschiedene Gruppen weiterleiten. 

 Bei der Definition der Architektur sollten Sie zudem die Anforderungen an die Latenz Ihres Workloads berücksichtigen. Wenn Sie beispielsweise eine latenzempfindliche Anwendung haben, können Sie sich für Network Load Balancer mit einer extrem niedrigen Latenz entscheiden. Alternativ können Sie Ihren Workload auch näher an Ihre Kunden heranbringen, indem Sie Application Load Balancer in [AWS Local Zones](https://aws.amazon.com/about-aws/global-infrastructure/localzones/) oder sogar [AWS Outposts](https://aws.amazon.com/outposts/rack/) einsetzen. 

 Eine weitere Überlegung für latenzempfindliche Workloads ist das zonenübergreifende Load-Balancing. Beim zonenübergreifenden Load-Balancing nimmt jeder Load-Balancer-Knoten eine Verteilung des Datenverkehrs auf die registrierten Ziele in allen aktivierten Availability Zones vor. Dies verbessert die Verfügbarkeit, kann aber die Latenz im einstelligen Millisekundenbereich erhöhen. 

 Schließlich bieten sowohl ALB als auch NLB Monitoring-Ressourcen wie Protokolle und Metriken. Wenn Sie das Monitoring richtig einrichten, können Sie Erkenntnisse über die Leistung Ihrer Anwendung gewinnen. So können Sie beispielsweise anhand von ALB-Zugriffsprotokollen feststellen, welche Anfragen länger brauchen, um beantwortet zu werden, oder welche Backend-Ziele Leistungsprobleme verursachen. 

 **Implementierungsschritte** 

1.  Wählen Sie den richtigen Load-Balancer für Ihren Workload aus. 

   1.  Verwenden Sie Application Load Balancer für HTTP/HTTPS Workloads. 

   1.  Verwenden Sie Network Load Balancer für Nicht-HTTP-Workloads, die TCP oder UDP nutzen. 

   1.  Verwenden Sie eine Kombination aus beiden ([ALB als Ziel von NLB](https://aws.amazon.com/blogs/networking-and-content-delivery/application-load-balancer-type-target-group-for-network-load-balancer/)) aus, wenn Sie die Funktionen beider Produkte nutzen möchten. Dies ist zum Beispiel möglich, wenn Sie die statischen IP-Adressen von NLB zusammen mit dem HTTP-Header-basierten Routing von ALB verwenden möchten oder wenn Sie Ihren HTTP-Workload an [AWS PrivateLink](https://docs.aws.amazon.com/vpc/latest/privatelink/privatelink-share-your-services.html) anbinden möchten. 

   1.  Einen vollständigen Vergleich von Load-Balancern finden Sie im [ELB-Produktvergleich](https://aws.amazon.com/elasticloadbalancing/features/). 

1.  Verwenden Sie SSL/TLS-Offloading. 

   1.  Konfigurieren Sie HTTPS/TLS-Listener, bei denen [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/create-https-listener.html) und [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/create-tls-listener.html) mit [AWS Certificate Manager](https://aws.amazon.com/certificate-manager/) integriert sind. 

   1.  Beachten Sie, dass einige Workloads aus Compliance-Gründen eine Ende-zu-Ende-Verschlüsselung benötigen können. In diesem Fall ist es erforderlich, die Verschlüsselung an den Zielen zu aktivieren. 

   1.  Bewährte Methoden für die Sicherheit finden Sie unter [SEC09-BP02 Erzwingen einer Verschlüsselung bei der Übertragung](https://docs.aws.amazon.com/wellarchitected/latest/security-pillar/sec_protect_data_transit_encrypt.html). 

1.  Wählen Sie den richtigen Routing-Algorithmus aus. 

   1.  Der Routing-Algorithmus kann einen entscheidenden Einfluss darauf haben, wie gut Ihre Backend-Ziele ausgelastet sind und wie sie die Leistung beeinflussen. ALB bietet zum Beispiel [zwei Optionen für Routing-Algorithmen](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/load-balancer-target-groups.html#modify-routing-algorithm): 

   1.  **Am wenigsten ausstehende Anfragen:** Verwenden Sie diese Option, um eine bessere Verteilung der Last auf Ihre Backend-Ziele zu erreichen, wenn die Anfragen für Ihre Anwendung unterschiedlich komplex sind oder Ihre Ziele unterschiedliche Kapazitäten für die Verarbeitung haben. 

   1.  **Round Robin:** Verwenden Sie diese Option, wenn die Anfragen und Ziele ähnlich sind oder wenn Sie die Anfragen gleichmäßig auf die Ziele verteilen müssen. 

1.  Ziehen Sie eine zonenübergreifende Verarbeitung oder Zonenisolierung in Betracht. 

   1.  Verwenden Sie die deaktivierte zonenübergreifende Isolierung (Zonenisolierung), um die Latenz zu verbessern und Domänen mit Zonenfehlern zu vermeiden. In NLB ist dies standardmäßig deaktiviert. In [ALB können Sie die Option pro Gruppe](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/disable-cross-zone.html) deaktivieren. 

   1.  Verwenden Sie die aktivierte zonenübergreifende Verarbeitung für eine höhere Verfügbarkeit und Flexibilität. Standardmäßig ist die zonenübergreifende Verarbeitung für ALB aktiviert. In [NLB können Sie sie pro Gruppe](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/target-group-cross-zone.html) aktivieren. 

1.  Aktivieren Sie HTTP-Keep-Alives für Ihre HTTP-Workloads. 

   1.  Aktivieren Sie bei HTTP-Workloads die HTTP-Keep-Alive-Funktion in den Einstellungen des Webservers für Ihre Backend-Ziele. Mit dieser Funktion kann der Load-Balancer Backend-Verbindungen wiederverwenden, bis die Keep-Alive-Zeit abgelaufen ist, wodurch sich Ihre HTTP-Anfrage- und Reaktionszeiten verbessern und die Auslastung der Ressourcen auf Ihren Backend-Zielen reduziert wird. Details zu dieser Funktion für Apache und Nginx finden Sie unter [What are the optimal settings for using Apache or NGINX as a backend server for ELB?](https://aws.amazon.com/premiumsupport/knowledge-center/apache-backend-elb/) (Was sind die optimalen Einstellungen für die Verwendung von Apache oder NGINX als Backend-Server für ELB?). 

1.  Verwenden Sie die Elastic Load Balancing-Integration für eine bessere Orchestrierung von Computing-Ressourcen. 

   1.  Verwenden Sie die Auto Scaling-Integration für Ihren Load-Balancer. Einer der Schlüssel für ein leistungsfähiges System ist die richtige Größenanpassung Ihrer Backend-Ressourcen. Zu diesem Zweck können Sie Load-Balancer-Integrationen für Backend-Zielressourcen nutzen. Mithilfe der Load-Balancer-Integration mit Auto Scaling-Gruppen werden Ziele je nach Bedarf als Reaktion auf den eingehenden Datenverkehr zum Load-Balancer hinzugefügt oder aus ihm entfernt. 

   1.  Load-Balancer können für containerisierte Workloads außerdem mit Amazon ECS und Amazon EKS integriert werden. 
      + [ Um den Datenverkehr über die Instances in Ihrer Auto Scaling-Gruppe zu verteilen, verwenden Sie Elastic Load Balancing ](https://docs.aws.amazon.com/autoscaling/ec2/userguide/autoscaling-load-balancer.html)
      + [ Amazon ECS – Service-Load Balancing ](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/service-load-balancing.html)
      + [ Anwendungs-Load-Balancing auf Amazon EKS ](https://docs.aws.amazon.com/eks/latest/userguide/alb-ingress.html)
      + [ Application Load Balancing auf Amazon EKS ](https://docs.aws.amazon.com/eks/latest/userguide/network-load-balancing.html)

1.  Überwachen Sie Ihren Load-Balancer, um Leistungsengpässe zu finden. 

   1.  Aktivieren Sie die Zugriffsprotokolle für Ihre [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/enable-access-logging.html) und [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/load-balancer-access-logs.html). 

   1.  Die wichtigsten zu berücksichtigenden Elemente für ALB sind `request_processing_time`, `request_processing_time`und `response_processing_time`. 

   1.  Die wichtigsten Elemente für NLB sind `connection_time` und `tls_handshake_time`. 

   1.  Bereiten Sie sich darauf vor, die Protokolle bei Bedarf abfragen zu können. Sie können Amazon Athena verwenden, um sowohl [ALB-Protokolle](https://docs.aws.amazon.com/athena/latest/ug/application-load-balancer-logs.html) als auch [NLB-Protokolle](https://docs.aws.amazon.com/athena/latest/ug/networkloadbalancer-classic-logs.html) abzufragen. 

   1.  Erstellen Sie Warnungen für leistungsbezogene Metriken wie [`TargetResponseTime` für ALB](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/load-balancer-cloudwatch-metrics.html). 

## Ressourcen
<a name="resources"></a>

 **Zugehörige bewährte Methoden:** 
+  [SEC09-BP02 Durchsetzen einer Verschlüsselung bei der Übertragung](https://docs.aws.amazon.com/wellarchitected/latest/security-pillar/sec_protect_data_transit_encrypt.html) 

 **Zugehörige Dokumente:** 
+ [ ELB-Produktvergleich ](https://aws.amazon.com/elasticloadbalancing/features/)
+ [ Globale AWS-Infrastruktur ](https://aws.amazon.com/about-aws/global-infrastructure/)
+ [ Improving Performance and Reducing Cost Using Availability Zone Affinity ](https://aws.amazon.com/blogs/architecture/improving-performance-and-reducing-cost-using-availability-zone-affinity/) (Verbesserung der Leistung und Senkung der Kosten durch Availability Zone-Affinität)
+ [ Step by step for Log Analysis with Amazon Athena ](https://github.com/aws/elastic-load-balancing-tools/tree/master/amazon-athena-for-elb) (Schritt für Schritt zur Protokollanalyse mit Amazon Athena)
+ [ Abfragen von Application Load Balancer-Protokollen ](https://docs.aws.amazon.com/athena/latest/ug/application-load-balancer-logs.html)
+ [ Monitor your Application Load Balancers ](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/load-balancer-monitoring.html) (Überwachen Ihrer Application Load Balancer)
+ [ Monitor your Network Load Balancers ](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/load-balancer-monitoring.html) (Überwachen Ihrer Network Load Balancer)

 **Zugehörige Videos:** 
+ [AWS re:Invent 2018: [REPEAT 1] Elastic Load Balancing: Deep Dive and Best Practices (NET404-R1) ](https://www.youtube.com/watch?v=VIgAT7vjol8) (AWS re:Invent 2018: [WIEDERHOLUNG 1] Elastic Load Balancing: Vertiefung und bewährte Methoden (NET404-R1))
+ [AWS re:Invent 2021 – How to choose the right load balancer for your AWS workloads ](https://www.youtube.com/watch?v=p0YZBF03r5A) (AWS re:Invent 2021 – So wählen Sie den richtigen Load Balancer für Ihre AWS-Workloads aus)
+ [AWS re:Inforce 2022 – How to use Elastic Load Balancing to enhance your security posture at scale (NIS203) ](https://www.youtube.com/watch?v=YhNc5VSzOGQ) (AWS re:Inforce 2022 – So verbessen Sie mit Elastic Load Balancing Ihren Sicherheitsstatus im großen Umfang (NIS203))
+ [AWS re:Invent 2019: Get the most from Elastic Load Balancing for different workloads (NET407-R2) ](https://www.youtube.com/watch?v=HKh54BkaOK0) (AWS re:Invent 2019: Holen Sie das Beste aus Elastic Load Balancing für verschiedene Workloads heraus (NET407-R2))

 **Zugehörige Beispiele:** 
+ [ CDK and CloudFormation samples for Log Analysis with Amazon Athena ](https://github.com/aws/elastic-load-balancing-tools/tree/master/log-analysis-elb-cdk-cf-template) (CDK und CloudFormation-Beispiele für die Protokollanalyse mit Amazon Athena)

# PERF05-BP05 Auswählen leistungsfördernder Netzwerkprotokolle
<a name="perf_select_network_protocols"></a>

Bewerten Sie die Leistungsanforderungen für Ihren Workload und wählen Sie die Netzwerkprotokolle aus, die die Gesamtleistung Ihres Workloads optimieren.

In Bezug auf die Erzielung eines höheren Durchsatzes besteht eine Beziehung zwischen der Latenz und der Bandbreite. Wenn Ihre Dateiübertragung beispielsweise über TCP (Transmission Control Protocol) erfolgt, verringern höhere Latenzen den gesamten Durchsatz. Es gibt Ansätze, dies mit der TCP-Optimierung und optimierten Übertragungsprotokollen zu lösen (einige Ansätze verwenden das User Datagram Protocol (UDP)).

 Das SRD-Protokoll ([Scalable Reliable Datagram](https://ieeexplore.ieee.org/document/9167399)) ist ein von AWS für Elastic Fabric-Adapter entwickeltes Netzwerktransportprotokoll, das eine zuverlässige Zustellung von Datenpaketen ermöglicht. Im Gegensatz zum TCP-Protokoll kann SRD Pakete neu anordnen und sie ungeordnet zustellen. Dieser Mechanismus der ungeordneten Zustellung von SRD sendet Pakete parallel über alternative Pfade und erhöht so den Durchsatz. 

 **Typische Anti-Muster:** 
+  Nutzung von TCP für alle Workloads unabhängig von den Leistungsanforderungen. 

 **Vorteile der Nutzung dieser bewährten Methode:** 
+  Die Auswahl des richtigen Protokolls für die Kommunikation zwischen Workload-Komponenten gewährleistet die bestmögliche Leistung für die jeweilige Workload. 
+  Wenn Sie sicherstellen, dass ein geeignetes Protokoll für die Kommunikation zwischen Benutzern und Workload-Komponenten verwendet wird, können Sie das Benutzererlebnis für Ihre Anwendungen insgesamt verbessern. Indem Sie beispielsweise TCP und UDP verwenden, können VDI-Workloads die Zuverlässigkeit von TCP für kritische Daten und die Geschwindigkeit von UDP für Echtzeitdaten nutzen. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** mittel (Die Verwendung eines ungeeigneten Netzwerkprotokolls kann zu einer schlechten Leistung führen – z. B. zu langsamen Reaktionszeiten, einer hohen Latenz und einer schlechteren Skalierbarkeit) 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

Um die Leistung Ihres Workloads zu verbessern, sollten Sie in erster Linie die Anforderungen an die Latenz und den Durchsatz kennen und dann Netzwerkprotokolle auswählen, die die Leistung optimieren. 

 **Wann sollten Sie TCP verwenden** 

 TCP bietet eine zuverlässige Zustellung von Daten und kann für die Kommunikation zwischen Workload-Komponenten verwendet werden, bei denen die Zuverlässigkeit und die garantierte Zustellung von Daten wichtig sind. Viele webbasierte Anwendungen verlassen sich auf TCP-basierte Protokolle wie HTTP und HTTPS, um TCP-Sockets für die Kommunikation mit AWS-Servern zu öffnen. E-Mail und die Übertragung von Dateien sind gängige Anwendungen, die ebenfalls auf TCP zurückgreifen, da TCP in der Lage ist, die Geschwindigkeit des Datenaustauschs und die Netzwerklast zu steuern. Die Verwendung von TLS mit TCP kann zu einem gewissen Overhead bei der Kommunikation führen, was eine erhöhte Latenz und einen verringerten Durchsatz zur Folge haben kann. Der Overhead entsteht vor allem durch den zusätzlichen Aufwand des Handshake-Prozesses, der mehrere Roundtrips in Anspruch nehmen kann. Sobald der Handshake abgeschlossen ist, ist der Overhead für die Ver- und Entschlüsselung der Daten relativ gering. 

 **Wann sollten Sie UDP verwenden** 

 UDP ist ein verbindungsloses Protokoll und eignet sich daher für Anwendungen, die eine schnelle, effiziente Übertragung benötigen, wie z. B. die Protokollierung, die Überwachung und VoIP-Daten. Ziehen Sie die Verwendung von UDP auch in Betracht, wenn Sie Workload-Komponenten haben, die auf kleine Abfragen von einer großen Anzahl von Clients reagieren, um eine optimale Leistung des Workloads zu gewährleisten. Datagram Transport Layer Security (DTLS) ist die UDP-Entsprechung von TLS. Bei der Verwendung von DTLS mit UDP entsteht der Overhead durch die Verschlüsselung und Entschlüsselung der Daten, da der Handshake-Prozess vereinfacht ist. DTLS fügt den UDP-Paketen außerdem einen geringen Overhead hinzu, da es zusätzliche Felder zur Angabe der Sicherheitsparameter und zur Erkennung von Manipulationen umfasst. 

 **Wann sollten Sie SRD verwenden** 

 Scalable Reliable Datagram (SRD) ist ein Netzwerktransportprotokoll, das für Workloads mit hohem Durchsatz optimiert ist, da es in der Lage ist, den Datenverkehr über mehrere Pfade zu verteilen und sich schnell von Paketverlusten oder Verbindungsfehlern zu erholen. SRD eignet sich daher am besten für HPC-Workloads (High Performance Computing), die einen hohen Durchsatz und eine geringe Latenz bei der Kommunikation zwischen Computing-Knoten erfordern. Dazu gehören z. B. parallele Verarbeitungsaufgaben wie Simulationen, Modellierung und Datenanalyse, bei denen eine große Menge an Daten zwischen den Knoten übertragen werden muss. 

 **Implementierungsschritte** 

1.  Verwenden Sie die [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/)- und [AWS Transfer Family](https://aws.amazon.com/aws-transfer-family/)-Services, um den Durchsatz Ihrer Anwendungen für die Onlineübertragung von Dateien zu verbessern. Der AWS Global Accelerator-Service hilft Ihnen, die Latenz zwischen Ihren Client-Geräten und Ihrem Workload auf AWS zu verringern. Mit AWS Transfer Family können Sie TCP-basierte Protokolle wie Secure Shell File Transfer Protocol (SFTP) und File Transfer Protocol over SSL (FTPS) verwenden, um Ihre Dateiübertragungen zu AWS-Speicherdiensten sicher zu skalieren und zu verwalten. 

1.  Bestimmen Sie anhand der Netzwerklatenz, ob TCP für die Kommunikation zwischen Workload-Komponenten geeignet ist. Wenn die Netzwerklatenz zwischen Ihrer Client-Anwendung und dem Server hoch ist, kann der TCP-Drei-Wege-Handshake einige Zeit in Anspruch nehmen, was sich auf die Reaktionsfähigkeit Ihrer Anwendung auswirkt. Metriken wie Time to First Byte (TTFB) und Round-Trip Time (RTT) können zur Messung der Netzwerklatenz verwendet werden. Wenn Ihr Workload dynamische Inhalte für Benutzer bereitstellt, sollten Sie die Verwendung von [Amazon CloudFront](https://aws.amazon.com/cloudfront/) in Betracht ziehen. So wird eine dauerhafte Verbindung zu jeder Quelle für dynamische Inhalte hergestellt, um die Zeit für den Verbindungsaufbau zu vermeiden, die sonst jede Client-Anfrage verlangsamen würde. 

1.  Die Verwendung von TLS mit TCP oder UDP kann aufgrund der Auswirkungen der Ver- und Entschlüsselung zu einer erhöhten Latenz und einem reduzierten Durchsatz für Ihren Workload führen. Ziehen Sie für solche Workloads das SSL/TLS-Offloading von [Elastic Load Balancing](https://aws.amazon.com/elasticloadbalancing/) in Betracht, um die Leistung des Workloads zu verbessern, indem Sie den Load-Balancer die SSL/TLS-Verschlüsselung und -Entschlüsselung übernehmen lassen, anstatt dies den Backend-Instances zu überlassen. Dies kann dazu beitragen, die CPU-Auslastung der Backend-Instances zu reduzieren, was die Leistung verbessern und die Kapazität erhöhen kann. 

1.  Verwenden Sie den [Network Load Balancer (NLB)](https://aws.amazon.com/elasticloadbalancing/network-load-balancer/), um Services bereitzustellen, die auf dem UDP-Protokoll basieren (wie die Authentifizierung und Autorisierung, die Protokollierung, DNS, IoT und das Streamen von Medien), um die Leistung und Zuverlässigkeit Ihres Workloads zu verbessern. Der NLB verteilt den eingehenden UDP-Datenverkehr auf mehrere Ziele, sodass Sie Ihren Workload horizontal skalieren, die Kapazität erhöhen und den Overhead eines einzelnen Ziels reduzieren können. 

1.  Für Ihre HPC-Workloads (High Performance Computing) sollten Sie die [Elastic Network Adapter (ENA) Express](https://aws.amazon.com/about-aws/whats-new/2022/11/elastic-network-adapter-ena-express-amazon-ec2-instances/)-Funktionalität in Betracht ziehen, die das SRD-Protokoll nutzt, um die Leistung des Netzwerks zu verbessern, indem sie eine höhere Bandbreite für einen einzelnen Datenfluss (25 Gbit/s) und eine niedrigere Latenz (99,9 Perzentil) für den Netzwerkverkehr zwischen EC2-Instances bietet. 

1.  Verwenden Sie den [Application Load Balancer (ALB)](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html), um Ihren gRPC-Datenverkehr (Remote Procedure Calls) zwischen Workload-Komponenten oder zwischen gRPC-fähigen Clients und Services zu routen und ein Load-Balancing durchzuführen. gRPC verwendet das TCP-basierte HTTP/2-Protokoll für den Transport und bietet Vorteile in Bezug auf die Leistung, wie z. B. einen geringeren Netzwerk-Footprint, Komprimierung, effiziente binäre Serialisierung, Unterstützung zahlreicher Sprachen und bidirektionales Streaming. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Amazon EBS – Optimierte Instances](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-optimized.html) 
+  [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) 
+  [EC2: Enhanced Networking unter Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html) 
+  [EC2: Enhanced Networking unter Windows](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html) 
+  [EC2: Platzierungsgruppen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) 
+  [Aktivieren von Enhanced Networking-Funktionen mit dem Elastic Network Adapter (ENA) in Linux-Instances](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) 
+  [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+  [Netzwerkprodukte mit AWS](https://aws.amazon.com/products/networking/) 
+  [Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw) 
+  [Umstellung auf latenzbasiertes Routing in Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+  [VPC-Endpunkte](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 
+  [VPC-Flow-Protokolle](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 

 **Zugehörige Videos:** 
+  [Konnektivität mit AWS und AWS-Hybrid-Netzwerkarchitekturen (NET317-R1)](https://www.youtube.com/watch?v=eqW6CPb58gs) 
+  [Optimieren der Netzwerkleistung für Amazon EC2-Instances (CMP308-R1)](https://www.youtube.com/watch?v=DWiwuYtIgu0) 
+ [ Tuning Your Cloud: Improve Global Network Performance for Application ](https://www.youtube.com/watch?v=00ukhVcgWrs) (Optimierung Ihrer Cloud: Verbessern der globalen Netzwerkleistung für Anwendungen)
+ [ Application Scaling with EFA and SRD ](https://pages.awscloud.com/HPC-Application-Scaling-with-Elastic-Fabric-Adapter-EFA-and-Scalable-Reliable-Datagram-SRD_2020_0004-CMP_OD.html) (Anwendung skalieren mit EFA und SRD)

 **Zugehörige Beispiele:** 
+  [AWS Transit Gateway und skalierbare Sicherheitslösungen](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Workshops zu AWS-Netzwerken](https://networking.workshop.aws/) 

# PERF05-BP06 Auswählen des Workload-Standortes entsprechend den Netzwerkanforderungen
<a name="perf_select_network_location"></a>

Evaluieren Sie Optionen für die Platzierung von Ressourcen, um die Latenz im Netzwerk zu verringern und den Durchsatz zu verbessern und so ein optimales Benutzererlebnis durch kürzere Seitenlade- und Datentransferzeiten zu gewährleisten.

 **Risikostufe, falls diese bewährte Methode nicht eingeführt wird:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

Ressourcen wie Amazon EC2-Instances werden in Availability Zones innerhalb von [AWS-Regionen](https://aws.amazon.com/about-aws/global-infrastructure/regions_az/), [AWS Local Zones](https://aws.amazon.com/about-aws/global-infrastructure/localzones/), [https://aws.amazon.com/outposts/](https://aws.amazon.com/outposts/) oder -Zonen platziert. Die Auswahl dieses Standorts beeinflusst die Latenz des Netzwerks und den Durchsatz vom Standort des Benutzers aus. Edge-Services wie [Amazon CloudFront](https://aws.amazon.com/cloudfront/) und [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/) können ebenfalls zur Verbesserung der Netzwerkleistung eingesetzt werden, indem sie entweder Inhalte an Edge-Standorten zwischenspeichern oder den Benutzern einen optimalen Pfad zum Workload durch das globale Netzwerk von AWS bereitstellen.

 **Implementierungsschritte** 

1.  Wählen Sie die geeignete AWS-Region oder Regionen für Ihre Bereitstellung auf Basis der folgenden Schlüsselelemente aus: 

   1.  **Standort Ihrer Benutzer:** Wählen Sie eine Region in der Nähe der Benutzer Ihres Workloads aus, um eine geringe Latenz zu gewährleisten, wenn diese den Workload nutzen. 

   1.  **Speicherort Ihrer Daten:** Bei datenintensiven Anwendungen ist der größte Engpass bei der Datenübertragung die Latenz. Anwendungscode sollte möglichst nah bei den Daten ausgeführt werden. 

   1.  **Andere Einschränkungen:** Berücksichtigen Sie Einschränkungen wie die Sicherheit und Compliance (z. B. Anforderungen an die Speicherung von Daten). 

1.  Wenn eine Komponente für einen bestimmten Workload aus einer Gruppe voneinander abhängiger Amazon EC2-Instances besteht, die eine niedrige Latenz benötigen, sollten Sie [Cluster-Placement-Gruppen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) verwenden, um die Platzierung dieser Instances so zu beeinflussen, dass sie den Anforderungen des Workloads entsprechen. Instances in derselben Cluster-Placement-Gruppe profitieren von einem höheren Pro-Flow-Durchsatz-Limit für TCP/IP-Datenverkehr und werden in demselben Netzwerksegment mit hoher Bandbreite platziert. Cluster-Placement-Gruppen werden für Anwendungen empfohlen, die von einer niedrigen Netzwerklatenz, einem hohen Netzwerkdurchsatz oder beidem profitieren. 

1.  Für einen standortabhängigen Workload, z. B. mit Anforderungen wie einer niedrigen Latenz oder zur Datenspeicherung, können Sie [AWS Local Zones](https://aws.amazon.com/about-aws/global-infrastructure/localzones/) oder [AWS Outposts](https://aws.amazon.com/outposts/) einsetzen. 

   1.  AWS Local Zones stellen eine Infrastrukturbereitstellung dar, bei der Computing, Speicher, Datenbanken und andere ausgewählte AWS-Services in der Nähe von großen Bevölkerungs- und Industriezentren platziert werden. 

   1.  AWS Outposts ist eine Familie vollständig verwalteter Lösungen, die AWS-Infrastruktur und -Services für praktisch jeden On-Premises- oder Edge-Standort bereitstellen und so eine wirklich konsistente Hybridumgebung ermöglichen. 

1.  Anwendungen wie hochauflösendes Live-Video-Streaming, High-Fidelity-Audio und Augmented Reality/Virtual Reality (AR/VR) erfordern extrem niedrige Latenzen für 5G-Geräte. Ziehen Sie für solche Anwendungen [AWS Wavelength](https://aws.amazon.com/wavelength/) in Betracht. AWS Wavelength bettet AWS-Computing- und Speicher-Services in 5G-Netzwerke ein und bietet eine mobile Edge-Computing-Infrastruktur für die Entwicklung, Bereitstellung und Skalierung von Anwendungen mit extrem niedriger Latenz. 

1.  Bei geografisch verteilten Benutzern kann ein Content Distribution Network (CDN) eingesetzt werden, um die Verteilung von statischen und dynamischen Webinhalten zu beschleunigen, indem Daten über weltweit verteilte Points of Presence (PoPs) geliefert werden. CDNs bieten in der Regel außerdem Edge-Computing-Funktionen und führen latenzsensitive Operationen wie HTTP-Header-Manipulation und URL-Rewrites und -Redirects in großem Umfang im Edge-Bereich durch. [Amazon CloudFront](https://aws.amazon.com/cloudfront/) ist ein Webservice, der die Verteilung Ihrer statischen und dynamischen Webinhalte beschleunigt. Zu den Anwendungsfällen für CloudFront gehören die Beschleunigung der Content-Bereitstellung bei statischen Webseiten und die Bereitstellung von Video-on-demand oder Live-Streaming-Video. CloudFront kann außerdem verwendet werden, um die Inhalte und das Benutzererlebnis bei reduzierter Latenz anzupassen. 

1.  Einige Anwendungen benötigen feste Zugangspunkte oder eine höhere Leistung. Bei diesen müssen First-Byte-Latenz der Jitter verringert und der Durchsatz erhöht werden. Diese Anwendungen können von Netzwerk-Services profitieren, die statische Anycast-IP-Adressen und eine TCP-Terminierung an Edge-Standorten bieten. [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/) kann die Leistung Ihrer Anwendungen um bis zu 60 % verbessern und bietet ein schnelles Failover für Architekturen mit mehreren Regionen. AWS Global Accelerator stellt Ihnen statische Anycast-IP-Adressen zur Verfügung, die als fester Zugangspunkt für Ihre Anwendungen dienen, die in einer oder mehreren AWS-Regionen gehostet werden. Diese IP-Adressen sorgen dafür, dass Datenverkehr so nah wie möglich an Ihren Benutzern in das globale AWS-Netzwerk eingebunden wird. AWS Global Accelerator reduziert die Zeit für den anfänglichen Verbindungsaufbau, indem eine TCP-Verbindung zwischen dem Client und dem AWS-Edge-Standort hergestellt wird, der dem Client am nächsten liegt. Prüfen Sie die Verwendung von AWS Global Accelerator, um die Leistung Ihrer TCP/UDP-Workloads zu verbessern und einen schnellen Failover für Architekturen mit mehreren Regionen zu ermöglichen. 

1.  Wenn Sie mit On-Premises-Anwendungen oder -Benutzern arbeiten, können Sie von einer dedizierten Netzwerkverbindung zwischen Ihrem Netzwerk und der Cloud profitieren. Eine dedizierte Netzwerkverbindung kann das Risiko von Engpässen oder unerwarteten Latenzzunahmen verringern. [AWS Direct Connect](https://aws.amazon.com/directconnect/) kann die Leistung von Anwendungen verbessern, indem es Ihr Netzwerk direkt mit AWS verbindet und das öffentliche Internet umgeht. Wenn Sie eine neue Verbindung erstellen, können Sie eine von einem AWS Direct Connect-Delivery-Partner gehostete Verbindung oder eine dedizierte Verbindung von AWS nutzen und eine Bereitstellung an über 100 AWS Direct Connect-Standorten rund um den Globus durchführen. Sie können außerdem die Netzwerkkosten mit niedrigen Datenübertragungsraten aus AWS reduzieren und optional ein Site-to-Site VPN für den Failover konfigurieren. 

1.  Wenn Sie ein [Site-to-Site VPN](https://aws.amazon.com/vpn/site-to-site-vpn/) für die Verbindung zu Ihren Ressourcen innerhalb von AWS konfigurieren, können Sie optional die Beschleunigung aktivieren. Eine beschleunigte Site-to-Site VPN-Verbindung verwendet AWS Global Accelerator, um den Datenverkehr von Ihrem On-Premises-Netzwerk zu einem AWS-Edge-Standort zu routen, der Ihrem Kunden-Gateway-Gerät am nächsten ist. 

1.  Ermitteln Sie, welche DNS-Routing-Option die Leistung Ihres Workloads optimieren würde, indem Sie Ihren Workload-Datenverkehr und den Standort des Benutzers prüfen. [Amazon Route 53](https://aws.amazon.com/route53) bietet [latenzbasiertes Routing](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/routing-policy-latency.html), [Geolocation-Routing](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/routing-policy-geo.html), [Geoproximity-Routing](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/routing-policy-geoproximity.html) und IP-basiertes Routing, um die Leistung Ihres Workloads für eine globale Zielgruppe zu verbessern. 

   1.  Route 53 bietet außerdem eine geringe Abfragelatenz für Ihre Endbenutzer. Mit einem globalen Anycast-Netzwerk von DNS-Servern auf der ganzen Welt ist Route 53 darauf ausgelegt, Abfragen je nach den Netzwerkbedingungen automatisch vom optimalen Standort aus zu beantworten. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige bewährte Methoden:** 
+ [COST07-BP02 Implementieren von Regionen auf Basis der Kosten](https://docs.aws.amazon.com/wellarchitected/latest/framework/cost_pricing_model_region_cost.html)
+ [ COST08-BP03 Implementieren von Services zur Senkung der Datenübertragungskosten ](https://docs.aws.amazon.com/wellarchitected/latest/framework/cost_data_transfer_implement_services.html)
+ [ REL10-BP01 Bereitstellen des Workloads an mehreren Standorten ](https://docs.aws.amazon.com/wellarchitected/latest/framework/rel_fault_isolation_multiaz_region_system.html)
+ [ REL10-BP02 Auswählen der geeigneten Standorte für Ihre Multi-Standort-Bereitstellung ](https://docs.aws.amazon.com/wellarchitected/latest/framework/rel_fault_isolation_select_location.html)
+ [ SUS01-BP01 Auswählen von Regionen in der Nähe von Amazon-Projekten für erneuerbare Energien. Es sollte sich um Regionen handeln, in denen das Stromnetz nachweislich geringere Kohlendioxidemissionen generiert als andere Standorte (oder Regionen). ](https://docs.aws.amazon.com/wellarchitected/latest/framework/sus_sus_region_a2.html)
+ [SUS02-BP04 Optimieren der geografischen Platzierung von Workloads für Benutzerstandorte](https://docs.aws.amazon.com/wellarchitected/latest/framework/sus_sus_user_a5.html)
+ [ SUS04-BP07 Minimieren von Datenübertragungen zwischen Netzwerken ](https://docs.aws.amazon.com/wellarchitected/latest/framework/sus_sus_data_a8.html)

 **Zugehörige Dokumente:** 
+ [ Globale AWS-Infrastruktur ](https://aws.amazon.com/about-aws/global-infrastructure/)
+ [AWS Local Zones and AWS Outposts, choosing the right technology for your edge workload ](https://aws.amazon.com/blogs/compute/aws-local-zones-and-aws-outposts-choosing-the-right-technology-for-your-edge-workload/) (AWS Local Zones und AWS Outposts: Die Auswahl der richtigen Technologie für Ihren Edge-Workload)
+  [Platzierungsgruppen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) 
+  [AWS Local Zones](https://aws.amazon.com/about-aws/global-infrastructure/localzones/) 
+  [AWS Outposts](https://aws.amazon.com/outposts/) 
+  [AWS Wavelength](https://aws.amazon.com/wavelength/) 
+  [Amazon CloudFront](https://aws.amazon.com/cloudfront/) 
+  [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/) 
+  [AWS Direct Connect](https://aws.amazon.com/directconnect/) 
+  [Site-to-Site VPN](https://aws.amazon.com/vpn/site-to-site-vpn/) 
+  [Amazon Route 53](https://aws.amazon.com/route53) 

 **Zugehörige Videos:** 
+ [AWS Local Zones Explainer Video ](https://www.youtube.com/watch?v=JHt-D4_zh7w) (Erklärungsvideo zu AWS Local Zones)
+ [AWS Outposts: Overview and How It Works ](https://www.youtube.com/watch?v=ppG2FFB0mMQ) (AWS Outposts: Übersicht und Funktionsweise)
+ [AWS re:Invent 2021 – AWS Outposts: Bringing the AWS experience on premises ](https://www.youtube.com/watch?v=FxVF6A22498) (AWS re:Invent 2021 – AWS Outposts: Das AWS Erlebnis on-premises)
+ [AWS re:Invent 2020: AWS Wavelength: Run apps with ultra-low latency at 5G edge ](https://www.youtube.com/watch?v=AQ-GbAFDvpM) (AWS re:Invent 2020: AWS Wavelenght: Apps mit ultraniedriger Latenz am 5G-Edge ausführen)
+ [AWS re:Invent 2022 – AWS Local Zones: Building applications for a distributed edge ](https://www.youtube.com/watch?v=bDnh_d-slhw) (AWS re:Invent 2022 – AWS Local Zones: Entwickeln von Anwendungen für einen verteilten Edge)
+ [AWS re:Invent 2021 – Building low-latency websites with Amazon CloudFront ](https://www.youtube.com/watch?v=9npcOZ1PP_c) (AWS re:Invent 2021 – Entwicklung von Websites mit niedriger Latenz mit Amazon CloudFront)
+ [AWS re:Invent 2022 – Improve performance and availability with AWS Global Accelerator](https://www.youtube.com/watch?v=s5sjsdDC0Lg) (AWS re:Invent 2022 – Verbessern der Leistung und Verfügbarkeit mit AWS Global Accelerator)
+ [AWS re:Invent 2022 – Build your global wide area network using AWS](https://www.youtube.com/watch?v=flBieylTwvI) (AWS re:Invent 2022 – Aufbau Ihres globalen Wide Area Networks mit AWS)
+ [AWS re:Invent 2020: Global traffic management with Amazon Route 53 ](https://www.youtube.com/watch?v=E33dA6n9O7I) (AWS re:Invent 2020: Globales Datenverkehrsmanagement mit AWS)

 **Zugehörige Beispiele:** 
+ [AWS Global Accelerator-Workshop ](https://catalog.us-east-1.prod.workshops.aws/workshops/effb1517-b193-4c59-8da5-ce2abdb0b656/en-US)
+ [ Handling Rewrites and Redirects using Edge Functions ](https://catalog.us-east-1.prod.workshops.aws/workshops/814dcdac-c2ad-4386-98d5-27d37bb77766/en-US) (Verarbeitung von Rewrites und Redirects mit Edge-Funktionen)

# PERF05-BP07 Optimieren der Netzwerkkonfiguration basierend auf Metriken
<a name="perf_select_network_optimize"></a>

Eine unsachgemäße Netzwerkkonfiguration wirkt sich oft auf die Leistung, die Effizienz und die Kosten des Netzwerks aus. In üblichen Netzwerkumgebungen wird, um die Bereitstellung in der Anfangsphase schnell abschließen zu können, die richtige Netzwerkkonfiguration im Hinblick auf die Leistung des Netzwerks nicht vollständig berücksichtigt. Um Ihre Netzwerkkonfiguration zu optimieren, müssen Sie zunächst über Erkenntnisse und Daten über Ihre Netzwerkumgebung verfügen.

Um die Leistung Ihrer Netzwerkressourcen zu verstehen, sollten Sie Daten sammeln und analysieren, damit Sie fundierte Entscheidungen zur Optimierung Ihrer Netzwerkkonfiguration treffen können. Messen Sie die Auswirkungen dieser Änderungen und treffen Sie künftige Entscheidungen auf Grundlage dieser Ergebnisse. 

 **Gewünschtes Ergebnis:** Verwenden von Metriken und Tools zur Überwachung des Netzwerks, um die Netzwerkkonfiguration entsprechend den sich entwickelnden Workloads zu optimieren. Cloudbasierte Netzwerke können schnell optimiert werden. Daher ist es notwendig, Ihre Netzwerkarchitektur im Laufe der Zeit weiterzuentwickeln, um die Leistung effizient zu halten. 

 **Typische Anti-Muster:** 
+  Sie gehen davon aus, dass alle leistungsbezogenen Probleme auf Anwendungen zurückzuführen sind. 
+  Sie testen die Netzwerkleistung ausschließlich an einem Standort nahe der Stelle, an der Sie die Workload bereitgestellt haben. 
+  Sie verwenden Standardkonfigurationen für alle Netzwerk-Services. 
+  Sie führen eine Überdimensionierung der Netzwerkressourcen durch, um eine ausreichende Kapazität zu gewährleisten. 

 **Vorteile der Nutzung dieser bewährten Methode:** Das Sammeln der erforderlichen Metriken Ihres AWS-Netzwerks und die Implementierung von Tools zur Überwachung des Netzwerks bieten Ihnen die Möglichkeit, die Leistung des Netzwerks zu ermitteln und die Netzwerkkonfigurationen zu optimieren. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Die Überwachung des Datenverkehrs von und zu VPCs, Subnetzen oder Netzwerkschnittstellen ist für das Verständnis der Nutzung von AWS-Netzwerkressourcen und zur Optimierung von Netzwerkkonfigurationen entscheidend. Mit den folgenden Tools können Sie Informationen über die Nutzung des Datenverkehrs, den Netzwerkzugriff und die Protokolle genauer untersuchen. 

 **Implementierungsschritte** 

1.  Nutzen Sie [Amazon VPC IP Address Manager](https://docs.aws.amazon.com/vpc/latest/ipam/what-it-is-ipam.html). Mit IPAM können Sie IP-Adressen für Ihre AWS- und On-Premises-Workloads planen, nachverfolgen und überwachen. Dies ist die bewährte Methode zur Optimierung der Nutzung und Zuweisung von IP-Adressen. 

1.  Aktivieren Sie [VPC Flow Logs](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html). Nutzen Sie VPC Flow Logs, um detaillierte Informationen über den Datenverkehr zu und von den Netzwerkschnittstellen in Ihren VPCs zu protokollieren. Mit VPC Flow Logs können Sie zu restriktive oder zu freizügige Regeln für Sicherheitsgruppen diagnostizieren und die Richtung des Datenverkehrs zu und von den Netzwerkschnittstellen ermitteln. Für die Erfassung von Daten und die Archivierung von Protokollen fallen Gebühren an, wenn Sie Flow-Protokolle veröffentlichen. 

1.  Aktivieren Sie die [DNS-Abfrageprotokollierung](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/query-logs.html). Sie können Amazon Route 53 so konfigurieren, dass Informationen über öffentliche oder private DNS-Abfragen protokolliert werden, die bei Route 53 eingehen. Mit DNS-Protokollen können Sie DNS-Konfigurationen optimieren, indem Sie die angefragte Domäne oder Subdomäne bzw. die Route 53-Edge-Standorte, die auf DNS-Abfragen geantwortet haben, nachvollziehen. 

1.  Nutzen Sie [Reachability Analyzer](https://docs.aws.amazon.com/vpc/latest/reachability/what-is-reachability-analyzer.html), um die Erreichbarkeit des Netzwerks zu analysieren und zu debuggen. Reachability Analyzer ist ein Konfigurationsanalyse-Tool, mit dem Sie die Konnektivität zwischen einer Quelle und einer Zielressource in Ihren VPCs testen können. Mit diesem Tool können Sie überprüfen, ob Ihre Netzwerkkonfiguration der geplanten Konnektivität entspricht. 

1.  Nutzen Sie [Network Access Analyzer](https://docs.aws.amazon.com/vpc/latest/network-access-analyzer/what-is-network-access-analyzer.html), um den Netzwerkzugriff auf Ihre Ressourcen nachzuvollziehen. Mit Network Access Analyzer können Sie Ihre Anforderungen an den Netzwerkzugriff spezifizieren und potenzielle Netzwerkpfade identifizieren, die Ihren Anforderungen nicht entsprechen. Indem Sie Ihre entsprechende Netzwerkkonfiguration optimieren, können Sie den Zustand Ihres Netzwerks nachvollziehen und überprüfen und belegen, dass Ihr AWS-Netzwerk Ihre Compliance-Anforderungen erfüllt. 

1.  Nutzen Sie [Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) und aktivieren Sie geeignete Metriken für Netzwerkoptionen. Stellen Sie sicher, dass Sie die richtige Netzwerk-Metrik für Ihren Workload auswählen. Sie können zum Beispiel Metriken für die VPC-Netzwerkadressennutzung, VPC-NAT-Gateways, AWS Transit Gateway, VPN-Tunnel, AWS Network Firewall, Elastic Load Balancing und AWS Direct Connect aktivieren. Die kontinuierliche Überwachung von Metriken ist eine gute Vorgehensweise, um den Status und die Nutzung Ihres Netzwerks zu beobachten und nachzuvollziehen. Sie hilft Ihnen, die Netzwerkkonfiguration auf der Basis Ihrer Beobachtungen zu optimieren. 

 **Grad des Aufwands für den Implementierungsplan:** mittel 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [VPC-Flow-Protokolle](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 
+ [ Öffentliche DNS-Abfrageprotokollierung ](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/query-logs.html)
+ [ Was ist IPAM? ](https://docs.aws.amazon.com/vpc/latest/ipam/what-it-is-ipam.html)
+  [Was ist Reachability Analyzer?](https://docs.aws.amazon.com/vpc/latest/reachability/what-is-reachability-analyzer.html) 
+ [ What is Network Access Analyzer? ](https://docs.aws.amazon.com/vpc/latest/network-access-analyzer/what-is-network-access-analyzer.html) (Was ist Network Access Analyzer?)
+ [ CloudWatch-Metriken für Ihre VPCs ](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-cloudwatch.html)
+ [ Optimize performance and reduce costs for network analytics with VPC Flow Logs in Apache Parquet format ](https://aws.amazon.com/blogs/big-data/optimize-performance-and-reduce-costs-for-network-analytics-with-vpc-flow-logs-in-apache-parquet-format/) (Optimieren der Leistung und Reduzieren der Kosten für die Netzwerk-Analytik mit VPC Flow Logs im Apache Parquet-Format)
+  [Monitoring your global and core networks with Amazon Cloudwatch metrics](https://docs.aws.amazon.com/vpc/latest/tgwnm/monitoring-cloudwatch-metrics.html) (Überwachen von globalen und Kernnetzwerken mit Amazon-Cloudwatch-Metriken) 
+  [Continuously monitor network traffic and resources](https://docs.aws.amazon.com/whitepapers/latest/security-best-practices-for-manufacturing-ot/continuously-monitor-network-traffic-and-resources.html) (Kontinuierliches Überwachen von Netzwerkdatenverkehr und -ressourcen) 

 **Zugehörige Videos:** 
+ [ Networking best practices and tips with the Well-Architected Framework ](https://www.youtube.com/watch?v=wOMNpG49BeM) (Bewährte Methoden für Netzwerke und Tipps für das Well-Architected Framework)
+ [ Monitoring and troubleshooting network traffic ](https://www.youtube.com/watch?v=Ed09ReWRQXc) (Überwachen des Netzwerkdatenverkehrs und Fehlerbehebung)

 **Zugehörige Beispiele:** 
+  [Workshops zu AWS-Netzwerken](https://networking.workshop.aws/) 
+  [AWS-Netzwerküberwachung](https://github.com/aws-samples/monitor-vpc-network-patterns) 