

# Computer und Hardware
<a name="a-compute-hardware"></a>

# LEIST 2. Wie wählen und nutzen Sie Computing-Ressourcen für Ihren Workload?
<a name="perf-02"></a>

 Die optimale Datenverarbeitungsoption für einen bestimmten Workload kann sich je nach Anwendungsdesign, Nutzungsmustern und Konfigurationseinstellungen unterscheiden. Architekturen können verschiedene Computing-Optionen für verschiedene Komponenten verwenden und verschiedene Funktionen zur Verbesserung der Leistung bieten. Die Wahl der falschen Datenverarbeitungslösung für eine Architektur kann die Leistungseffizienz schmälern. 

**Topics**
+ [

# PERF02-BP01 Auswählen der besten Datenverarbeitungsoptionen für den Workload
](perf_compute_hardware_select_best_compute_options.md)
+ [

# PERF02-BP02 Verstehen verfügbarer Konfigurationen und Features für die Datenverarbeitung
](perf_compute_hardware_understand_compute_configuration_features.md)
+ [

# PERF02-BP03 Erfassen von Datenverarbeitungsmetriken
](perf_compute_hardware_collect_compute_related_metrics.md)
+ [

# PERF02-BP04 Konfigurieren und richtiges Dimensionieren von Datenverarbeitungsressourcen
](perf_compute_hardware_configure_and_right_size_compute_resources.md)
+ [

# PERF02-BP05 Dynamisches Skalieren von Datenverarbeitungsressourcen
](perf_compute_hardware_scale_compute_resources_dynamically.md)
+ [

# PERF02-BP06 Verwenden von optimierten hardwarebasierten Datenverarbeitungsbeschleunigern
](perf_compute_hardware_compute_accelerators.md)

# PERF02-BP01 Auswählen der besten Datenverarbeitungsoptionen für den Workload
<a name="perf_compute_hardware_select_best_compute_options"></a>

 Wenn Sie die für den Workload am besten geeignete Computing-Option auswählen, können Sie die Leistung verbessern, unnötige Infrastrukturkosten reduzieren und den Betriebsaufwand für die Aufrechterhaltung des Workloads senken. 

 **Typische Anti-Muster:** 
+  Sie verwenden dieselbe Option für die Datenverarbeitung, die on-premises verwendet wurde. 
+  Ihnen fehlt es an Bewusstsein für Cloud-Datenverarbeitungsoptionen, -funktionen und -lösungen und wie diese Lösungen die Datenverarbeitungsleistung verbessern können. 
+  Sie stellen eine bestehende Datenverarbeitungsoption zu viel bereit, um Skalierungs- oder Leistungsanforderungen zu erfüllen, wenn eine alternative Datenverarbeitungsoption den Workload-Merkmalen besser entsprechen würde. 

 **Vorteile der Nutzung dieser bewährten Methode:** Durch die Ermittlung der Anforderungen an die Datenverarbeitung und deren Bewertung anhand der verfügbaren Optionen können Sie den Workload ressourceneffizienter gestalten. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Zur Optimierung der Cloud-Workloads im Hinblick auf Leistungseffizienz ist es wichtig, die am besten geeigneten Datenverarbeitungsoptionen für Ihren Anwendungsfall und Ihre Leistungsanforderungen auszuwählen. AWS bietet eine Vielzahl von Datenverarbeitungsoptionen, die auf unterschiedliche Workloads in der Cloud zugeschnitten sind. Sie können beispielsweise [Amazon EC2](https://docs.aws.amazon.com/ec2/) verwenden, um virtuelle Server zu starten und zu verwalten, [AWS Lambda](https://docs.aws.amazon.com/lambda/?icmpid=docs_homepage_featuredsvcs), um Code auszuführen, ohne Server bereitstellen oder verwalten zu müssen, [Amazon ECS](https://aws.amazon.com/ecs/) oder [Amazon EKS](https://aws.amazon.com/eks/), um Container auszuführen und zu verwalten, oder [AWS Batch](https://aws.amazon.com/batch/), um große Datenmengen parallel zu verarbeiten. Basierend auf Ihren Skalierungs- und Datenverarbeitungsanforderungen sollten Sie die optimale Datenverarbeitungslösung für Ihre Situation auswählen und konfigurieren. Sie können auch erwägen, mehrere Arten von Datenverarbeitungslösungen in einem einzigen Workload zu verwenden, da jede ihre eigenen Vor- und Nachteile hat. 

 Die folgenden Schritte führen Sie durch die Auswahl der richtigen Datenverarbeitungsoptionen, die Ihren Workload-Eigenschaften und Leistungsanforderungen entsprechen. 

## Implementierungsschritte
<a name="implementation-steps"></a>
+  Verstehen Sie Ihre Workload-Datenverarbeitungsanforderungen. Die zu berücksichtigenden wesentlichen Anforderungen umfassen Anforderungen an Datenverarbeitung, Datenverkehrsmuster, Datenzugriffsmuster, Skalierung und Latenz. 
+  Erfahren Sie mehr über die verschiedenen Datenverarbeitungsoptionen, die für Ihren Workload in AWS verfügbar sind (wie unter [PERF01-BP01 Informieren über verfügbare Cloud-Services und -Features](perf_architecture_understand_cloud_services_and_features.md) beschrieben). Hier finden Sie einige wichtige AWS-Datenverarbeitungsoptionen, ihre Eigenschaften und gängige Anwendungsfälle:     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/2024-06-27/framework/perf_compute_hardware_select_best_compute_options.html)
+  Bewerten Sie die Kosten (wie stündliche Gebühr oder Datenübertragung) und den Verwaltungsaufwand (wie Patching und Skalierung), die mit jeder Datenverarbeitungsoption verbunden sind. 
+  Führen Sie Experimente und Benchmarking in einer Nicht-Produktionsumgebung durch, um herauszufinden, welche Datenverarbeitungsoption Ihre Workload-Anforderungen am besten erfüllt. 
+  Nachdem Sie experimentiert und die neue Datenverarbeitungslösung ermittelt haben, planen Sie die Migration und überprüfen Sie die Leistungsmetriken. 
+  Verwenden Sie AWS-Überwachungstools wie [Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) und Optimierungsservices wie [AWS Compute Optimizer](https://aws.amazon.com/compute-optimizer/), um die Computing-Ressourcen kontinuierlich auf der Grundlage realer Nutzungsmuster zu optimieren. 

 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Cloud Computing mit AWS](https://aws.amazon.com/products/compute/?ref=wellarchitected) 
+  [Amazon EC2-Instance-Typen ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html?ref=wellarchitected) 
+  [Amazon EKS-Container: Amazon EKS-Worker-Knoten ](https://docs.aws.amazon.com/eks/latest/userguide/worker.html?ref=wellarchitected) 
+  [Amazon ECS-Container: Amazon ECS-Container-Instances ](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html?ref=wellarchitected) 
+  [Funktionen: Lambda-Funktionskonfiguration](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html?ref=wellarchitected#function-configuration) 
+ [Präskriptive Anleitung für Container](https://aws.amazon.com/prescriptive-guidance/?apg-all-cards.sort-by=item.additionalFields.sortText&apg-all-cards.sort-order=desc&awsf.apg-new-filter=*all&awsf.apg-content-type-filter=*all&awsf.apg-code-filter=*all&awsf.apg-category-filter=categories%23containers&awsf.apg-rtype-filter=*all&awsf.apg-isv-filter=*all&awsf.apg-product-filter=*all&awsf.apg-env-filter=*all) 
+  [Präskriptive Anleitung für Serverless](https://aws.amazon.com/prescriptive-guidance/?apg-all-cards.sort-by=item.additionalFields.sortText&apg-all-cards.sort-order=desc&awsf.apg-new-filter=*all&awsf.apg-content-type-filter=*all&awsf.apg-code-filter=*all&awsf.apg-category-filter=categories%23serverless&awsf.apg-rtype-filter=*all&awsf.apg-isv-filter=*all&awsf.apg-product-filter=*all&awsf.apg-env-filter=*all) 

 **Zugehörige Videos:** 
+  [AWS re:Invent 2023 – AWS Graviton: Das beste Preis-Leistungs-Verhältnis für Ihre AWS-Workloads](https://www.youtube.com/watch?v=T_hMIjKtSr4&ab_channel=AWSEvents) 
+  [AWS re:Invent 2023 – Neue generative KI-Funktionen vonAmazon Elastic Compute Cloud in AMS](https://www.youtube.com/watch?v=sSpJ8tWCEiA) 
+  [AWS re:Invent 2023 – Neuerungen bei Amazon Elastic Compute Cloud](https://www.youtube.com/watch?v=mjHw_wgJJ5g) 
+  [AWS re:Invent 2023 – Intelligentes Sparen: Amazon Elastic Compute Cloud-Strategien zur Kostenoptimierung](https://www.youtube.com/watch?v=_AHPbxzIGV0) 
+  [AWS re:Invent 2021 – Amazon Elastic Compute Cloud der nächsten Generation: Ausführliche Beschreibung des Nitro System](https://www.youtube.com/watch?v=2uc1vaEsPXU) 
+  [AWS re:Invent 2019 – Optimieren von Leistung und Kosten für Ihr AWS-Compuntung](https://www.youtube.com/watch?v=zt6jYJLK8sg) 
+  [AWS re:Invent 2019 – Amazon Elastic Compute Cloud-Grundlagen](https://www.youtube.com/watch?v=kMMybKqC2Y0) 
+  [AWS re:Invent 2022 – ML-Modelle für Inferenz mit hoher Leistung und niedrigen Kosten bereitstellen](https://www.youtube.com/watch?v=4FqHt5bmS2o) 
+  [AWS re:Invent 2019 – Optimieren von Leistung und Kosten für Ihr AWS-Computing](https://www.youtube.com/watch?v=zt6jYJLK8sg) 
+  [Amazon EC2-Grundlagen](https://www.youtube.com/watch?v=kMMybKqC2Y0) 
+  [ML-Modelle für Inferenz mit hoher Leistung und niedrigen Kosten bereitstellen](https://www.youtube.com/watch?v=4FqHt5bmS2o) 

 **Zugehörige Beispiele:** 
+  [Migration der Webanwendung zu Containern](https://application-migration-with-aws.workshop.aws/en/container-migration.html) 
+  [Ausführen eines Serverless-„Hello World“](https://aws.amazon.com/getting-started/hands-on/run-serverless-code/) 
+  [Amazon EKS-Workshop](https://www.eksworkshop.com/) 
+  [Amazon EC2-Workshop](https://ec2spotworkshops.com/) 
+  [Effiziente und belastbare Workloads mit Amazon Elastic Compute Cloud Auto Scaling](https://catalog.us-east-1.prod.workshops.aws/workshops/20c57d32-162e-4ad5-86a6-dff1f8de4b3c/en-US) 
+  [Migration zu AWS Graviton mit Container Services](https://catalog.us-east-1.prod.workshops.aws/workshops/dcab7555-32fc-42d2-97e5-2b7a35cd008f/en-US/) 

# PERF02-BP02 Verstehen verfügbarer Konfigurationen und Features für die Datenverarbeitung
<a name="perf_compute_hardware_understand_compute_configuration_features"></a>

 Informieren Sie sich über die verfügbaren Konfigurationsoptionen und Features für den Datenverarbeitungsservice, damit Sie die richtige Menge an Ressourcen bereitstellen und die Leistungseffizienz verbessern können. 

 **Typische Anti-Muster:** 
+  Sie bewerten keine Datenverarbeitungsoptionen oder verfügbaren Instance-Familien anhand der Workload-Merkmale. 
+  Sie stellen zu viele Datenverarbeitungsressourcen bereit, um Anforderungen von Nachfragespitzen zu erfüllen. 

** Vorteile der Nutzung dieser bewährten Methode:** Machen Sie sich mit den AWS-Features und -Konfigurationen für die Datenverarbeitung vertraut, sodass Sie eine Datenverarbeitungslösung verwenden können, die für die Workload-Merkmale und -Anforderungen optimiert ist.

 **Risikostufe bei fehlender Befolgung dieser bewährten Methode:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Jede Datenverarbeitungslösung verfügt über einzigartige Konfigurationen und Features, um unterschiedliche Workload-Merkmale und -Anforderungen zu unterstützen. Erfahren Sie, wie diese Optionen den Workload ergänzen, und finden Sie heraus, welche Konfigurationsoptionen am besten für Ihre Anwendung geeignet sind. Beispiele für diese Optionen sind Instance-Familien, Größen, Features (GPU, E/A), Bursting, Zeitüberschreitungen, Funktionsgrößen, Container-Instances und Gleichzeitigkeit. Wenn Ihre Workload die gleiche Rechenoption für mehr als vier Wochen verwendet hat und sie davon ausgehen, dass die Eigenschaften in Zukunft gleich bleiben, können Sie mithilfe von [AWS Compute Optimizer](https://aws.amazon.com/compute-optimizer/)  herausfinden, ob Ihre aktuelle Datenverarbeitungsoption aus CPU- und Speicherebene für die Workloads geeignet ist. 

## Implementierungsschritte
<a name="implementation-steps"></a>

1.  Verstehen Sie die Workload-Anforderungen (wie CPU-Bedarf, Arbeitsspeicher und Latenz). 

1.  Lesen Sie die AWS-Dokumentation und die bewährten Methoden, um mehr über empfohlene Konfigurationsoptionen zu erfahren, mit denen Sie die Rechenleistung verbessern können. Hier finden Sie einige wichtige Konfigurationsoptionen, die Sie in Betracht ziehen sollten:     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/2024-06-27/framework/perf_compute_hardware_understand_compute_configuration_features.html)

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Cloud Computing mit AWS ](https://aws.amazon.com/products/compute/?ref=wellarchitected) 
+  [Amazon EC2-Instance-Typen ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html?ref=wellarchitected) 
+  [Steuerung des Prozessorzustands für Ihre Amazon EC2-Instance ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/processor_state_control.html?ref=wellarchitected) 
+  [Amazon EKS-Container: Amazon EKS-Worker-Knoten ](https://docs.aws.amazon.com/eks/latest/userguide/worker.html?ref=wellarchitected) 
+  [Amazon ECS-Container: Amazon ECS-Container-Instances ](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html?ref=wellarchitected) 
+  [Funktionen: Lambda-Funktionskonfiguration](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html?ref=wellarchitected#function-configuration) 

 **Zugehörige Videos:** 
+  [AWS re:Invent 2023 – AWS Graviton: Das beste Preis-Leistungs-Verhältnis für Ihre AWS-Workloads](https://www.youtube.com/watch?v=T_hMIjKtSr4) 
+  [AWS re:Invent 2023 – Neue generative KI-Funktionen von Amazon EC2 in AWS-Managementkonsole](https://www.youtube.com/watch?v=sSpJ8tWCEiA) 
+  [AWS re:Invent 2023 – Neuerungen bei Amazon EC2](https://www.youtube.com/watch?v=mjHw_wgJJ5g) 
+  [AWS re:Invent 2023 – Intelligentes Sparen: Amazon EC2-Strategien zur Kostenoptimierung](https://www.youtube.com/watch?v=_AHPbxzIGV0) 
+  [AWS re:Invent 2021 – Amazon EC2 der neuesten Generation: Ausführliche Beschreibung des Nitro System](https://www.youtube.com/watch?v=2uc1vaEsPXU) 
+  [AWS re:Invent 2019 – Amazon EC2-Grundlagen](https://www.youtube.com/watch?v=kMMybKqC2Y0) 
+  [AWS re:INVENT 2022 – https://www.youtube.com/watch?v=5B4-s\$1ivn1o](https://www.youtube.com/watch?v=5B4-s_ivn1o) 

 **Zugehörige Beispiele:** 
+  [Compute Optimizer-Demo-Code](https://github.com/awslabs/ec2-spot-labs/tree/master/aws-compute-optimizer) 
+  [Workshop zu Amazon EC2 Spot Instances](https://ec2spotworkshops.com/) 
+  [Effiziente und belastbare Workloads mit Amazon EC2 AWS Auto Scaling](https://catalog.us-east-1.prod.workshops.aws/workshops/20c57d32-162e-4ad5-86a6-dff1f8de4b3c/en-US) 
+  [Workshop für Graviton-Entwickler](https://catalog.us-east-1.prod.workshops.aws/workshops/dcab7555-32fc-42d2-97e5-2b7a35cd008f/en-US/) 
+  [AWS für Microsoft-Workloads Immersion Day](https://catalog.us-east-1.prod.workshops.aws/workshops/d6c7ecdc-c75f-4ad1-910f-fdd994cc4aed/en-US) 
+  [AWS für Linux-Workloads Immersion Day](https://catalog.us-east-1.prod.workshops.aws/workshops/a8e9c6a6-0ba9-48a7-a90d-378a440ab8ba/en-US) 
+  [AWS Compute Optimizer-Demo-Code](https://github.com/awslabs/ec2-spot-labs/tree/master/aws-compute-optimizer) 
+  [Amazon EKS-Workshop](https://www.eksworkshop.com/) 

  

# PERF02-BP03 Erfassen von Datenverarbeitungsmetriken
<a name="perf_compute_hardware_collect_compute_related_metrics"></a>

 Erfassen und verfolgen Sie Datenverarbeitungsmetriken, um die Leistung der Rechenressourcen besser zu verstehen und deren Leistung und Auslastung zu verbessern. 

 **Typische Anti-Muster:** 
+  Sie suchen ausschließlich manuell mithilfe von Protokolldateien nach Metriken.  
+  Sie verwenden nur die Standardmetriken, die von der Überwachungssoftware aufgezeichnet wurden. 
+  Sie überprüfen Metriken nur dann, wenn ein Problem vorliegt. 

 **Vorteile der Nutzung dieser bewährten Methode:** Die Erfassung von Leistungsmetriken hilft Ihnen dabei, die Anwendungsleistung an den Geschäftsanforderungen auszurichten, um sicherzustellen, dass Sie Ihre Workload-Anforderungen erfüllen. Es kann Ihnen auch dabei helfen, die Ressourcenleistung und -nutzung im Workload kontinuierlich zu verbessern. 

 **Risikostufe bei fehlender Befolgung dieser bewährten Methode:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Cloud-Workloads können große Mengen an Daten generieren, wie Metriken, Protokolle und Ereignisse. In der AWS Cloud ist die Erfassung von Metriken ein entscheidender Schritt zur Verbesserung von Sicherheit, Kosteneffizienz, Leistung und Nachhaltigkeit. AWS stellt eine Vielzahl von Leistungsmetriken bereit und nutzt dazu Überwachungsservices wie [Amazon CloudWatch,](https://aws.amazon.com/cloudwatch/) um Ihnen wertvolle Einblicke zu bieten. Metriken wie CPU-Nutzung, Arbeitsspeicherauslastung, Datenträger-E/A sowie eingehender und ausgehender Netzwerkverkehr können Einblick in die Nutzung bzw. in Leistungsengpässe bieten. Nutzen Sie diese Metriken im Rahmen eines datengestützten Ansatzes, der Ihnen die aktive Feinabstimmung und Optimierung der vom Workload genutzten Ressourcen ermöglicht.  Im Idealfall sollten Sie alle Metriken zu Ihren Datenverarbeitungsressourcen auf einer einzigen Plattform erfassen und Aufbewahrungsrichtlinien implementieren, um Kosten- und Betriebsziele zu unterstützen. 

## Implementierungsschritte
<a name="implementation-steps"></a>

1.  Identifizieren Sie, welche Leistungsmetriken für den Workload relevant sind. Sie sollten Metriken zur Ressourcennutzung und zum Betrieb des Cloud-Workloads (wie Reaktionszeit und Durchsatz) erfassen. 

   1.  [Amazon EC2-Standardmetriken](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/viewing_metrics_with_cloudwatch.html) 

   1.  [Amazon ECS-Standardmetriken](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/cloudwatch-metrics.html) 

   1.  [Amazon EKS-Standardmetriken](https://docs.aws.amazon.com/prescriptive-guidance/latest/implementing-logging-monitoring-cloudwatch/kubernetes-eks-metrics.html) 

   1.  [Lambda-Standardmetriken](https://docs.aws.amazon.com/lambda/latest/dg/monitoring-functions-access-metrics.html) 

   1.  [Amazon EC2-Arbeitsspeicher- und -Datenträgermetriken](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/mon-scripts.html) 

1.  Wählen Sie die richtige Protokollierungs- und Überwachungslösung für den Workload aus und richten Sie sie ein. 

   1.  [AWS-native Beobachtbarkeit](https://catalog.workshops.aws/observability/en-US/aws-native) 

   1.  [AWS Distro for OpenTelemetry](https://aws.amazon.com/otel/) 

   1.  [Amazon Managed Service for Prometheus](https://docs.aws.amazon.com/grafana/latest/userguide/prometheus-data-source.html) 

1.  Definieren Sie den erforderlichen Filter und die erforderliche Aggregation für die Metriken auf der Grundlage Ihrer Workload-Anforderungen. 

   1.  [Quantifizieren benutzerdefinierter Anwendungsmetriken mit Amazon CloudWatch Logs und Metrikfiltern](https://aws.amazon.com/blogs/mt/quantify-custom-application-metrics-with-amazon-cloudwatch-logs-and-metric-filters/) 

   1.  [Erfassen benutzerdefinierter Metriken mit Amazon CloudWatch und strategischer Markierung](https://aws.amazon.com/blogs/infrastructure-and-automation/collect-custom-metrics-with-amazon-cloudwatch-strategic-tagging/) 

1.  Konfigurieren Sie Richtlinien zur Datenaufbewahrung für Ihre Metriken so, dass sie Ihren Sicherheits- und Betriebszielen entsprechen. 

   1.  [Standard-Datenaufbewahrung für CloudWatch-Metriken](https://aws.amazon.com/cloudwatch/faqs/#AWS_resource_.26_custom_metrics_monitoring) 

   1.  [Standard-Datenaufbewahrung für CloudWatch Logs](https://aws.amazon.com/cloudwatch/faqs/#Log_management) 

1.  Erstellen Sie bei Bedarf Alarme und Benachrichtigungen für Ihre Metriken, damit Sie proaktiv auf leistungsbezogene Probleme reagieren können. 

   1.  [Alarme für benutzerdefinierte Metriken mit der Amazon CloudWatch-Erkennung von Unregelmäßigkeiten erstellen](https://docs.aws.amazon.com/prescriptive-guidance/latest/patterns/create-alarms-for-custom-metrics-using-amazon-cloudwatch-anomaly-detection.html) 

   1.  [Metriken und Alarmen für bestimmte Webseiten mit Amazon CloudWatch RUM erstellen](https://aws.amazon.com/blogs/mt/create-metrics-and-alarms-for-specific-web-pages-amazon-cloudwatch-rum/) 

1.  Verwenden Sie die Automatisierung, um die Kundendienstmitarbeiter für die Metrik- und Protokollaggregation einzusetzen. 

   1.  [AWS Systems Manager-Automatisierung](https://docs.aws.amazon.com/systems-manager/latest/userguide/systems-manager-automation.html?ref=wellarchitected) 

   1.  [OpenTelemetry Collector](https://aws-otel.github.io/docs/getting-started/collector) 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Überwachung und Beobachtbarkeit](https://aws.amazon.com/cloudops/monitoring-and-observability/) 
+  [Bewährte Methoden: Implementierung der Beobachtbarkeit mit AWS](https://aws.amazon.com/blogs/mt/best-practices-implementing-observability-with-aws/) 
+  [Amazon CloudWatch-Dokumentation](https://docs.aws.amazon.com/cloudwatch/index.html?ref=wellarchitected) 
+  [Erfassen von Metriken und Protokollen aus Amazon EC2-Instances und On-Premises-Servern mit dem CloudWatch Agent](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html?ref=wellarchitected) 
+  [Zugriff auf Amazon CloudWatch Logs für AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/monitoring-functions-logs.html?ref=wellarchitected) 
+  [Verwenden von CloudWatch Logs mit Container-Instances](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/using_cloudwatch_logs.html?ref=wellarchitected) 
+  [Veröffentlichen von benutzerdefinierten Metriken](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/publishingMetrics.html?ref=wellarchitected) 
+  [AWS Answers: Zentralisierte Protokollierung](https://aws.amazon.com/answers/logging/centralized-logging/?ref=wellarchitected) 
+  [CloudWatch-Services, die AWS-Metriken veröffentlichen](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CW_Support_For_AWS.html?ref=wellarchitected) 
+  [Überwachen von Amazon EKS auf AWS Fargate](https://aws.amazon.com/blogs/containers/monitoring-amazon-eks-on-aws-fargate-using-prometheus-and-grafana/) 

 **Zugehörige Videos:** 
+  [AWS re:Invent 2023 – [LAUNCH] Anwendungsüberwachung für moderne Workloads](https://www.youtube.com/watch?v=T2TovTLje8w) 
+  [AWS re:Invent 2023 – Implementierung der Anwendungsbeobachtbarkeit](https://www.youtube.com/watch?v=IcTcwUSwIs4) 
+  [AWS re:Invent 2023 – Aufbau einer effektiven Beobachtbarkeitsstrategie](https://www.youtube.com/watch?v=7PQv9eYCJW8) 
+  [AWS re:Invent 2023 – Nahtlose Beobachtbarkeit mit AWS Distro for OpenTelemetry](https://www.youtube.com/watch?v=S4GfA2R0N_A) 
+  [Verwaltung der Anwendungsleistung in AWS](https://www.youtube.com/watch?v=5T4stR-HFas&ref=wellarchitected) 

 **Zugehörige Beispiele:** 
+  [AWS für Linux-Workloads Immersion Day – Amazon CloudWatch](https://catalog.us-east-1.prod.workshops.aws/workshops/a8e9c6a6-0ba9-48a7-a90d-378a440ab8ba/en-US/300-cloudwatch) 
+  [Überwachung von Clustern und Containern in Amazon ECS](https://ecsworkshop.com/monitoring/) 
+  [Überwachung mit Amazon CloudWatch-Dashboards](https://catalog.workshops.aws/well-architected-performance-efficiency/en-US/3-monitoring/monitoring-with-cloudwatch-dashboards) 
+  [Amazon EKS-Workshop](https://www.eksworkshop.com/) 

# PERF02-BP04 Konfigurieren und richtiges Dimensionieren von Datenverarbeitungsressourcen
<a name="perf_compute_hardware_configure_and_right_size_compute_resources"></a>

 Konfigurieren und passen Sie die Größe der Datenverarbeitungsressourcen so an, dass sie den Leistungsanforderungen des Workloads entsprechen, und vermeiden Sie zu wenig oder zu stark ausgelastete Ressourcen. 

 **Typische Anti-Muster:** 
+  Sie ignorieren Ihre Workload-Leistungsanforderungen, was zu über- oder unterdimensionierten Datenverarbeitungsressourcen führt. 
+  Sie wählen nur die größte oder kleinste verfügbare Instance für alle Workloads aus. 
+  Sie verwenden nur eine Instance-Familie, um die Verwaltung zu vereinfachen. 
+  Sie ignorieren Empfehlungen von AWS Cost Explorer oder Compute Optimizer zur richtigen Dimensionierung. 
+  Sie bewerten den Workload nicht erneut auf die Eignung neuer Instance-Typen. 
+  Sie zertifizieren nur eine kleine Anzahl von Instance-Konfigurationen für Ihre Organisation. 

 **Vorteile der Nutzung dieser bewährten Methode:** Die richtige Dimensionierung der Datenverarbeitungsressourcen gewährleistet einen optimalen Betrieb in der Cloud, indem eine Über- und Unterdimensionierung von Ressourcen vermieden wird. Die richtige Dimensionierung der Datenverarbeitungsressourcen führt in der Regel zu einer besseren Leistung und einem besseren Kundenerlebnis bei gleichzeitiger Senkung der Kosten. 

 **Risikostufe bei fehlender Befolgung dieser bewährten Methode:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Die richtige Dimensionierung ermöglicht es Organisationen, ihre Cloud-Infrastruktur effizient und kostengünstig zu betreiben und gleichzeitig ihre Geschäftsanforderungen zu erfüllen. Eine zu hohe Bereitstellung von Cloud-Ressourcen kann zu zusätzlichen Kosten führen, während eine unzureichende Bereitstellung zu einer schlechten Leistung und einem negativen Kundenerlebnis führen kann. AWS bietet Tools wie [AWS Compute Optimizer](https://aws.amazon.com/compute-optimizer/) und [AWS Trusted Advisor,](https://aws.amazon.com/premiumsupport/technology/trusted-advisor/) die historische Daten verwenden, um Empfehlungen zur richtigen Dimensionierung Ihrer Rechenressourcen abzugeben. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Wählen Sie eine Instance, die am besten zu Ihren Anforderungen passt: 
  +  [Wie wähle ich einen geeigneten Amazon EC2-Instance-Typ für meinen Workload aus?](https://aws.amazon.com/premiumsupport/knowledge-center/ec2-instance-choose-type-for-workload/) 
  +  [Attributbasierte Auswahl des Instance-Typs für die Amazon EC2 Flotte](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-fleet-attribute-based-instance-type-selection.html) 
  +  [Erstellen Sie eine Auto Scaling-Gruppe unter Verwendung einer attributbasierten Auswahl des Instance-Typs.](https://docs.aws.amazon.com/autoscaling/ec2/userguide/create-asg-instance-type-requirements.html) 
  +  [Optimieren Ihrer Kubernetes-Datenverarbeitungskosten mit der Karpenter-Konsolidierung](https://aws.amazon.com/blogs/containers/optimizing-your-kubernetes-compute-costs-with-karpenter-consolidation/) 
+  Analysieren Sie die verschiedenen Leistungsmerkmale Ihrer Workload und bewerten Sie, wie sich diese auf Arbeitsspeicher, Netzwerk und CPU-Auslastung auswirken. Wählen Sie anhand dieser Daten die für das Profil und die Leistungsziele des Workloads am besten geeigneten Ressourcen aus. 
+  Überwachen Sie Ihren Ressourcenverbrauch mithilfe von AWS-Überwachungstools wie Amazon CloudWatch. 
+  Wählen Sie die richtige Konfiguration für die Datenverarbeitungsressource aus. 
  +  Prüfen Sie für kurz andauernde Workloads [Amazon CloudWatch-Instance-Metriken](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/viewing_metrics_with_cloudwatch.html) wie die `CPUUtilization` um festzustellen, ob die Instance zu wenig oder zu stark ausgelastet ist. 
  +  Prüfen Sie für stabile Workloads in regelmäßigen Intervallen AWS-Dimensionierungstools wie etwa AWS Compute Optimizer und AWS Trusted Advisor, um Möglichkeiten zur Optimierung und zur korrekten Dimensionierung der Datenverarbeitungsressource zu erkennen. 
+  Testen Sie Konfigurationsänderungen in einer Nicht-Produktionsumgebung, bevor Sie sie in einer Live-Umgebung implementieren. 
+  Bewerten Sie neue Datenverarbeitungsangebote und vergleichen Sie sie mit den Anforderungen Ihres Workloads. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Cloud Computing mit AWS](https://aws.amazon.com/products/compute/) 
+  [Amazon EC2-Instance-Typen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html) 
+  [Amazon ECS-Container: Amazon ECS-Container-Instances](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html) 
+  [Amazon EKS-Container: Amazon EKS-Worker-Knoten](https://docs.aws.amazon.com/eks/latest/userguide/worker.html) 
+  [Funktionen: Lambda-Funktionskonfiguration](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html#function-configuration) 
+  [Steuerung des Prozessorzustands für Ihre Amazon EC2-Instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/processor_state_control.html) 

 **Zugehörige Videos:** 
+  [Amazon EC2-Grundlagen](https://www.youtube.com/watch?v=kMMybKqC2Y0) 
+  [AWS re:Invent 2023 – AWS Graviton: Das beste Preis-Leistungs-Verhältnis für Ihre AWS-Workloads](https://www.youtube.com/watch?v=T_hMIjKtSr4) 
+  [AWS re:Invent 2023 – Neue generative KI-Funktionen von Amazon EC2 in AWS-Managementkonsole](https://www.youtube.com/watch?v=sSpJ8tWCEiA) 
+  [AWS re:Invent 2023 – Neuerungen bei Amazon EC2](https://www.youtube.com/watch?v=mjHw_wgJJ5g) 
+  [AWS re:Invent 2023 – Intelligentes Sparen: Amazon EC2-Strategien zur Kostenoptimierung](https://www.youtube.com/watch?v=_AHPbxzIGV0) 
+  [AWS re:Invent 2021 – Amazon EC2 der neuesten Generation: Ausführliche Beschreibung des Nitro System](https://www.youtube.com/watch?v=2uc1vaEsPXU) 
+  [AWS re:Invent 2019 – Amazon EC2-Grundlagen](https://www.youtube.com/watch?v=kMMybKqC2Y0) 

 **Zugehörige Beispiele:** 
+  [AWS Compute Optimizer-Demo-Code](https://github.com/awslabs/ec2-spot-labs/tree/master/aws-compute-optimizer) 
+  [Amazon EKS-Workshop ](https://www.eksworkshop.com/) 
+  [Empfehlungen zur Dimensionierung](https://catalog.workshops.aws/well-architected-cost-optimization/en-US/3-cost-effective-resources/40-rightsizing-recommendations-100) 

# PERF02-BP05 Dynamisches Skalieren von Datenverarbeitungsressourcen
<a name="perf_compute_hardware_scale_compute_resources_dynamically"></a>

 Nutzen Sie die Elastizität der Cloud, um die Datenverarbeitungsressourcen dynamisch nach oben oder unten zu skalieren, um Ihren Bedürfnissen zu entsprechen und eine Über- oder Unterdimensionierung von Kapazitäten für den Workload zu vermeiden. 

 **Typische Anti-Muster:** 
+  Sie reagieren auf Alarme, indem Sie die Kapazität manuell erhöhen. 
+  Sie verwenden dieselben Dimensionierungsrichtlinien (in der Regel statische Infrastruktur) wie bei On-Premises. 
+  Sie belassen die erhöhte Kapazität nach dem Hochskalieren, anstatt wieder herunterzuskalieren. 

 **Vorteile der Nutzung dieser bewährten Methode:** Durch das Konfigurieren und Testen der Elastizität von Rechenressourcen können Sie Geld sparen, Leistungsbenchmarks einhalten und die Zuverlässigkeit verbessern, wenn sich der Datenverkehr ändert. 

 **Risikostufe bei fehlender Befolgung dieser bewährten Methode:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 AWS bietet Ihnen die Flexibilität, Ressourcen dynamisch durch verschiedene Skalierungsmechanismen nach oben oder unten zu skalieren, um Bedarfsänderungen gerecht zu werden. In Kombination mit Datenverarbeitungsmetriken ermöglicht eine dynamische Skalierung Workloads, automatisch auf Änderungen zu reagieren und die optimalen Datenverarbeitungsressourcen zu nutzen, um die Zielvorgabe zu erreichen. 

 Sie können verschiedene Ansätze nutzen, um das Angebot an Ressourcen auf die Nachfrage abzustimmen. 
+  **Ansatz zur Zielverfolgung**: Überwachen Sie Ihre Skalierungsmetriken und erhöhen oder verringern Sie die Kapazität automatisch Ihrem Bedarf entsprechend. 
+  **Vorausschauende Skalierung**: Skalieren Sie in Erwartung täglicher und wöchentlicher Trends. 
+  **Zeitplanbasierter Ansatz**: Legen Sie Ihren eigenen Skalierungszeitplan entsprechend vorhersehbaren Laständerungen fest. 
+  **Skalierung von Services**: Wählen Sie Services (wie Serverless), die auf automatische Skalierung ausgelegt sind. 

 Sie müssen sicherstellen, dass Workload-Bereitstellungen sowohl Hoch- als auch Herunterskalierungsereignisse verarbeiten können. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Datenverarbeitungs-Instances, Container und Funktionen bieten Mechanismen für Elastizität, sei es in Kombination mit AutoScaling oder als Merkmal des Service. Hier finden Sie einige Beispiele für automatische Skalierungsmechanismen:     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/2024-06-27/framework/perf_compute_hardware_scale_compute_resources_dynamically.html)
+  Das Skalieren wird häufig im Zusammenhang mit Datenverarbeitungsservices wie Amazon EC2-Instances oder AWS Lambda-Funktionen genannt. Denken Sie auch daran, die Konfiguration von nicht Daten verarbeitenden Services in Betracht zu ziehen, z. B. [AWS Glue,](https://docs.aws.amazon.com/glue/latest/dg/auto-scaling.html) um die Nachfrage zu decken. 
+  Stellen Sie sicher, dass die Metriken für die Skalierung den Merkmalen des bereitgestellten Workloads entsprechen. Wenn Sie eine Anwendung zur Video-Transkodierung bereitstellen, wird eine CPU-Auslastung von 100 % erwartet, weshalb dies nicht die Hauptmetrik sein sollte. Verwenden Sie stattdessen die Tiefe der Aufgabenwarteschlange für die Transkodierung. Sie können eine [benutzerdefinierte Metrik](https://aws.amazon.com/blogs/mt/create-amazon-ec2-auto-scaling-policy-memory-utilization-metric-linux/) für Ihre Skalierungsrichtlinie verwenden, falls erforderlich. Beachten Sie zur Auswahl der geeigneten Metriken die folgenden Hinweise zu Amazon EC2: 
  +  Es sollte sich um eine gültige Nutzungsmetrik handeln, die beschreibt, wie stark eine Instance genutzt wird. 
  +  Der Metrikwert muss proportional zur Anzahl der Instances in der Auto Scaling-Gruppe steigen oder sinken. 
+  Vergewissern Sie sich, dass Sie [dynamische Skalierung](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scale-based-on-demand.html) anstelle von [manueller Skalierung](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-manual-scaling.html) für Ihre Auto Scaling-Gruppe verwenden. Weiterhin empfehlen wir, dass Sie [Zielverfolgungs-Skalierungsrichtlinien](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scaling-target-tracking.html) für Ihre dynamische Skalierung verwenden. 
+  Prüfen Sie, ob Workload-Bereitstellungen mit beiden Skalierungen (nach oben und unten) umgehen können. Beispielsweise können Sie [den Aktivitätsverlauf](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-verify-scaling-activity.html) verwenden, um eine Skalierungsaktivität für eine Auto Scaling-Gruppe zu verifizieren. 
+  Evaluieren Sie Ihren Workload auf vorhersagbare Muster und skalieren Sie proaktiv, wenn Sie vorhergesagte und geplante Änderungen der Nachfrage erwarten. Mit der prädiktiven Skalierung können Sie die Notwendigkeit einer Überbereitstellung von Kapazität vermeiden. Weitere Details finden Sie unter [Vorausschauende Skalierung mit Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/). 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Cloud Computing mit AWS](https://aws.amazon.com/products/compute/) 
+  [Amazon EC2-Instance-Typen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html) 
+  [Amazon ECS-Container: Amazon ECS-Container-Instances](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html) 
+  [Amazon EKS-Container: Amazon EKS-Worker-Knoten](https://docs.aws.amazon.com/eks/latest/userguide/worker.html) 
+  [Funktionen: Lambda-Funktionskonfiguration](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html#function-configuration) 
+  [Steuerung des Prozessorzustands für Ihre Amazon EC2-Instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/processor_state_control.html) 
+  [Ausführliche Beschreibung von Amazon ECS Cluster Auto Scaling](https://aws.amazon.com/blogs/containers/deep-dive-on-amazon-ecs-cluster-auto-scaling/) 
+  [Vorstellung von Karpenter – Open-Source-Kubernetes-Cluster-Autoscaler mit hoher Leistung](https://aws.amazon.com/blogs/aws/introducing-karpenter-an-open-source-high-performance-kubernetes-cluster-autoscaler/) 

 **Zugehörige Videos:** 
+  [AWS re:Invent 2023 – AWS Graviton: Das beste Preis-Leistungs-Verhältnis für Ihre AWS-Workloads](https://www.youtube.com/watch?v=T_hMIjKtSr4) 
+  [AWS re:Invent 2023 – Neue generative KI-Funktionen von Amazon EC2 in der AWS-Managementkonsole](https://www.youtube.com/watch?v=sSpJ8tWCEiA) 
+  [AWS re:Invent 2023 – Neuerungen bei Amazon EC2](https://www.youtube.com/watch?v=mjHw_wgJJ5g) 
+  [AWS re:Invent 2023 – Intelligentes Sparen: Amazon EC2-Strategien zur Kostenoptimierung](https://www.youtube.com/watch?v=_AHPbxzIGV0) 
+  [AWS re:Invent 2021 – Amazon EC2 der neuesten Generation: Ausführliche Beschreibung des Nitro System](https://www.youtube.com/watch?v=2uc1vaEsPXU) 
+  [AWS re:Invent 2019 – Amazon EC2-Grundlagen](https://www.youtube.com/watch?v=kMMybKqC2Y0) 

 **Zugehörige Beispiele:** 
+  [Amazon EC2 Auto Scaling-Gruppenbeispiele](https://github.com/aws-samples/amazon-ec2-auto-scaling-group-examples) 
+  [Amazon EKS-Workshop](https://www.eksworkshop.com/) 
+  [Skalieren von Amazon EKS-Workloads, durch die Ausführung auf IPv6](https://catalog.us-east-1.prod.workshops.aws/workshops/3b06259f-8e17-4f2f-811a-75c9b06a2807/en-US) 

# PERF02-BP06 Verwenden von optimierten hardwarebasierten Datenverarbeitungsbeschleunigern
<a name="perf_compute_hardware_compute_accelerators"></a>

 Verwenden Sie Hardwarebeschleuniger, um bestimmte Funktionen effizienter auszuführen als CPU-basierte Alternativen. 

 **Typische Anti-Muster:** 
+  Sie haben im Workload keine Benchmark einer universellen Instance verglichen mit einer speziell entwickelten Instance durchgeführt, die eine höhere Leistung und niedrigere Kosten bieten kann. 
+  Sie verwenden hardwarebasierte Datenverarbeitungsbeschleuniger für Aufgaben, die mithilfe von CPU-basierten Alternativen effizienter sein können. 
+  Sie überwachen die GPU-Nutzung nicht. 

**Vorteile der Nutzung dieser bewährten Methode:** Durch die Verwendung hardwarebasierter Beschleuniger wie Grafikprozessoren (GPUs) und Field Programmable Gate Arrays (FPGAs) können Sie bestimmte Verarbeitungsfunktionen effizienter ausführen. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Beschleunigte Computing-Instances bieten Zugriff auf hardwarebasierte Datenverarbeitungsbeschleuniger wie GPUs und FPGAs. Diese Hardwarebeschleuniger führen bestimmte Funktionen wie die Grafikverarbeitung oder Datenmusterzuordnung effizienter aus als CPU-basierte Alternativen. Viele beschleunigte Workloads, wie Rendering, Transcodierung und Machine Learning, sind sehr variabel im Bezug auf die Ressourcennutzung. Betreiben Sie diese Hardware nur so lange wie nötig und nehmen Sie sie automatisch außer Betrieb, wenn sie nicht mehr benötigt wird, um die allgemeine Leistungseffizienz zu verbessern. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  Ermitteln Sie, welche [beschleunigten Computing-Instances](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html) für Ihre Anforderungen geeignet sind. 
+  Nutzen Sie für Machine-Learning-Workloads spezielle Hardware, die auf Ihren Workload abgestimmt ist, z. B. [AWS Trainium](https://aws.amazon.com/machine-learning/trainium/), [AWS Inferentia](https://aws.amazon.com/machine-learning/inferentia/) oder [Amazon EC2 DL1](https://aws.amazon.com/ec2/instance-types/dl1/). AWS-Inferentia-Instances wie Inf2-Instances [bieten eine um bis zu 50 % bessere Leistung/Watt als vergleichbare Amazon EC2-Instances](https://aws.amazon.com/machine-learning/inferentia/). 
+  Erfassen Sie Nutzungsmetriken für Ihre beschleunigten Computing-Instances. Sie können z. B. den CloudWatch Agent verwenden, um Metriken wie `utilization_gpu` und `utilization_memory` für Ihre GPUs zu erfassen. Dies wird im [Artikel zum Erfassen von NVIDIA GPU-Metriken mit Amazon CloudWatch](https://docs.aws.amazon.com/Amazon/latest/monitoring/-Agent-NVIDIA-GPU.html) genauer beschrieben. 
+  Optimieren Sie Code, Netzwerkbetrieb und die Einstellungen von Hardwarebeschleunigern, um sicherzustellen, dass die zugrunde liegende Hardware optimal genutzt wird. 
  +  [Optimieren der GPU-Einstellungen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/optimize_gpu.html) 
  +  [GPU-Überwachung und -Optimierung](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-gpu.html) 
  +  [Optimieren von E/A für die GPU-Leistungsoptimierung von Deep Learning-Training in Amazon SageMaker AI](https://aws.amazon.com/blogs/machine-learning/optimizing-i-o-for-gpu-performance-tuning-of-deep-learning-training-in-amazon-sagemaker/) 
+  Verwenden Sie die aktuellen leistungsstarken Bibliotheken und GPU-Treiber. 
+  Automatisieren Sie die Freigabe nicht genutzter GPU-Instances. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Arbeiten mit GPUs in Amazon Elastic Container Service](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ecs-gpu.html) 
+  [GPU-Instances](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html#gpu-instances) 
+  [Instances mit AWS Trainium](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html#aws-trainium-instances) 
+  [Instances mit AWS Inferentia](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html#aws-inferentia-instances) 
+  [Let’s Architect\$1 Erstellen von Architekturen mit benutzerdefinierten Chips und Beschleunigern](https://aws.amazon.com/blogs/architecture/lets-architect-custom-chips-and-accelerators/) 
+  [Accelerated Computing](https://aws.amazon.com/ec2/instance-types/#Accelerated_Computing) 
+  [Amazon EC2 VT1-Instances](https://aws.amazon.com/ec2/instance-types/vt1/) 
+  [Wie wähle ich einen geeigneten Amazon EC2 Instance-Typ für meinen Workload aus?](https://aws.amazon.com/premiumsupport/knowledge-center/ec2-instance-choose-type-for-workload/) 
+  [Auswählen des besten KI-Beschleunigers und der Modellkompilierung für Computer Vision Inference mit Amazon SageMaker AI](https://aws.amazon.com/blogs/machine-learning/choose-the-best-ai-accelerator-and-model-compilation-for-computer-vision-inference-with-amazon-sagemaker/) 

 **Zugehörige Videos:** 
+  AWS re:Invent 2021 – [Auswählen von Amazon Elastic Compute Cloud-GPU-Instances für Deep Learning](https://www.youtube.com/watch?v=4bVrIbgGWEA&ab_channel=AWSEvents) 
+  [AWS re:Invent 2022 – [NEUER LAUNCH] Einführung von AWS-Inferentia2-basierten Amazon EC2-Inf2-Instances](https://www.youtube.com/watch?v=jpqiG02Y2H4&ab_channel=AWSEvents) 
+  [AWS re:Invent 2022 – Beschleunigung von Deep Learning und schnellere Innovationen mit AWS Trainium](https://www.youtube.com/watch?v=YRqvfNwqUIA&ab_channel=AWSEvents) 
+  [AWS re:Invent 2022 – Deep Learning in AWS mit NVIDIA: Vom Training bis zur Bereitstellung](https://www.youtube.com/watch?v=l8AFfaCkp0E&ab_channel=AWSEvents) 

 **Zugehörige Beispiele:** 
+  [Amazon SageMaker AI und NVIDIA GPU Cloud (NGC)](https://github.com/aws-samples/amazon-sagemaker-nvidia-ngc-examples) 
+  [Verwendung von SageMaker AI mit Trainium und Inferentia für optimierte Deep-Learning-Trainings- und Inferenz-Workloads](https://github.com/aws-samples/sagemaker-trainium-inferentia) 
+  [Optimierung von NLP-Modellen mit Amazon Elastic Compute Cloud-Inf1-Instances in Amazon SageMaker AI](https://github.com/aws-samples/aws-inferentia-huggingface-workshop) 