

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Skalierungsrichtlinien für die Ziel-Nachverfolgung für Amazon EC2 Auto Scaling
<a name="as-scaling-target-tracking"></a>

Eine Skalierungsrichtlinie für die Zielverfolgung skaliert automatisch die Kapazität Ihrer Auto Scaling Scaling-Gruppe auf der Grundlage eines Zielmetrikwerts. Sie passt sich automatisch an die individuellen Nutzungsmuster Ihrer individuellen Anwendungen an. Auf diese Weise kann Ihre Anwendung die optimale Leistung und hohe Auslastung Ihrer EC2-Instances aufrechterhalten und so die Kosteneffizienz verbessern, ohne dass manuelles Eingreifen erforderlich ist.

Bei der Ziel-Nachverfolgung wählen Sie eine Metrik und einen Zielwert aus, der die ideale durchschnittliche Auslastung oder den idealen Durchsatz für Ihre Anwendung darstellt. Amazon EC2 Auto Scaling erstellt und verwaltet die CloudWatch Alarme, die Skalierungsereignisse auslösen, wenn die Metrik vom Ziel abweicht. Dies ähnelt beispielsweise der Art und Weise, wie ein Thermostat eine Zieltemperatur beibehält.

Ein Beispiel: Angenommen, Sie verfügen über eine Webanwendung, die derzeit in zwei Instances ausgeführt wird, und Sie möchten, dass die CPU-Auslastung der Auto-Scaling-Gruppe bei etwa 50 Prozent bleibt, wenn sich die Last der Anwendung ändert. Auf diese Weise erlangen Sie zusätzliche Kapazität für Datenverkehrsspitzen, ohne übermäßig viele Ressourcen im Leerlauf zu verwalten. 

Hierzu können Sie eine Skalierungsrichtlinie für die Zielverfolgung erstellen, die eine durchschnittliche CPU-Auslastung von 50 Prozent vorsieht. Dann skaliert Ihre Auto Scaling Scaling-Gruppe die Kapazität oder erhöht die Kapazität, wenn die CPU 50 Prozent überschreitet, um die erhöhte Last zu bewältigen. Die Kapazität wird erhöht oder verringert, wenn die CPU unter 50 Prozent fällt, um die Kosten in Zeiten geringer Auslastung zu optimieren.

**Topics**
+ [

## Mehrere Skalierungsrichtlinien für die Zielverfolgung
](#target-tracking-multiple-policies)
+ [

## Auswahl von Metriken
](#target-tracking-choose-metrics)
+ [

## Definieren des Zielwerts
](#target-tracking-define-target-value)
+ [

## Definieren Sie die Aufwärmzeit der Instanz
](#as-target-tracking-scaling-warmup)
+ [

## Überlegungen
](#target-tracking-considerations)
+ [

# Erstellen einer Zielverfolgungs-Skalierungsrichtlinie
](policy_creating.md)
+ [

# Erstellen Sie eine Richtlinie zur Zielverfolgung mit hochauflösenden Metriken für eine schnellere Reaktion
](policy-creating-high-resolution-metrics.md)
+ [

# Erstellen Sie mithilfe metrischer Mathematik eine Skalierungsrichtlinie für die Zielverfolgung
](ec2-auto-scaling-target-tracking-metric-math.md)

## Mehrere Skalierungsrichtlinien für die Zielverfolgung
<a name="target-tracking-multiple-policies"></a>

Zur Optimierung der Skalierung können mehrere Skalierungsrichtlinien für die Zielverfolgung miteinander kombiniert werden. Diese müssen allerdings jeweils eine andere Metrik verwenden. Auslastung und Durchsatz können sich beispielsweise gegenseitig beeinflussen. Wenn sich eine dieser Metriken ändert, bedeutet das in der Regel, dass auch andere Metriken betroffen sind. Die Verwendung mehrerer Metriken liefert daher zusätzliche Informationen über die Last, unter der Ihre Auto Scaling Scaling-Gruppe steht. Dies kann Amazon EC2 Auto Scaling dabei helfen, fundiertere Entscheidungen zu treffen, wenn es darum geht, wie viel Kapazität zu Ihrer Gruppe hinzugefügt werden soll. 

Die Absicht von Amazon EC2 Auto Scaling besteht darin, der Verfügbarkeit immer Priorität einzuräumen. Es wird die Auto Scaling-Gruppe skalieren, wenn eine der Zielverfolgungsrichtlinien für die Skalierung bereit ist. Die Skalierung erfolgt nur, wenn alle Richtlinien zur Zielverfolgung (wobei die Skalierung in Teilen aktiviert ist) für die Skalierung bereit sind.

## Auswahl von Metriken
<a name="target-tracking-choose-metrics"></a>

Sie können Skalierungsrichtlinien zur Zielverfolgung mit vordefinierten oder benutzerdefinierten Metriken erstellen. Vordefinierte Metriken bieten Ihnen einfacheren Zugriff auf die am häufigsten verwendeten Metriken für die Skalierung. Mit benutzerdefinierten Metriken können Sie auf andere verfügbare CloudWatch Metriken skalieren, einschließlich [hochauflösender Metriken](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/cloudwatch_concepts.html#Resolution_definition), die in kürzeren Intervallen in der Größenordnung von wenigen Sekunden veröffentlicht werden. Sie können Ihre eigenen hochauflösenden Metriken oder Metriken, die von anderen AWS Diensten veröffentlicht werden, veröffentlichen.

Weitere Informationen zum Erstellen von Richtlinien zur Zielverfolgung mithilfe hochauflösender Metriken finden Sie unter[Erstellen Sie eine Richtlinie zur Zielverfolgung mit hochauflösenden Metriken für eine schnellere Reaktion](policy-creating-high-resolution-metrics.md).

Target Tracking unterstützt die folgenden vordefinierten Metriken:
+ `ASGAverageCPUUtilization` – Durchschnittliche CPU-Nutzung der Auto-Scaling-Gruppe.
+ `ASGAverageNetworkIn` – Durchschnittliche Anzahl der von der Auto-Scaling-Gruppe auf allen Netzwerkschnittstellen empfangenen Bytes.
+ `ASGAverageNetworkOut` – Durchschnittliche Anzahl der von der Auto-Scaling-Gruppe auf allen Netzwerkschnittstellen gesendeten Bytes.
+ `ALBRequestCountPerTarget` – Durchschnittliche Anzahl der Application Load Balancer-Anforderungen pro Ziel für Ihre Auto-Scaling-Gruppe.

**Wichtig**  
Weitere wertvolle Informationen zu den Metriken für CPU-Auslastung, Netzwerk-I/O und Anzahl der Application Load Balancer-Anforderungen pro Ziel finden Sie im Thema [Verfügbare CloudWatch Metriken für Ihre Instances auflisten](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/viewing_metrics_with_cloudwatch.html) im *Amazon EC2 EC2-Benutzerhandbuch* bzw. die [CloudWatch Metriken für Ihren Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/load-balancer-cloudwatch-metrics.html) im *Benutzerhandbuch für Application Load Balancers*.

Sie können andere verfügbare CloudWatch Metriken oder Ihre eigenen Metriken auswählen, CloudWatch indem Sie eine benutzerdefinierte Metrik angeben. Ein Beispiel, das eine benutzerdefinierte Metrikspezifikation für eine Skalierungsrichtlinie zur Zielverfolgung mithilfe von spezifiziert AWS CLI, finden Sie unter[Beispiel für Skalierungsrichtlinien für AWS CLI](examples-scaling-policies.md).

Berücksichtigen Sie die folgenden Aspekte, wenn Sie eine Metrik auswählen:
+ Wir empfehlen, nur Messwerte zu verwenden, die in Intervallen von einer Minute oder weniger verfügbar sind, damit Sie schneller auf Nutzungsänderungen reagieren können. Metriken, die in kürzeren Intervallen veröffentlicht werden, ermöglichen es der Zielverfolgungsrichtlinie, Änderungen in der Auslastung Ihrer Auto Scaling Scaling-Gruppe schneller zu erkennen und darauf zu reagieren.
+ Wenn Sie vordefinierte Metriken wählen, die von Amazon EC2 veröffentlicht werden, wie z. B. die CPU-Auslastung, empfehlen wir Ihnen, eine detaillierte Überwachung zu aktivieren. Standardmäßig werden alle Amazon EC2-Metriken in Intervallen von fünf Minuten veröffentlicht, sie können jedoch auf ein niedrigeres Intervall von einer Minute konfiguriert werden, indem eine detaillierte Überwachung aktiviert wird. Informationen zur Aktivierung der detaillierten Überwachung finden Sie unter. [Überwachung für Auto-Scaling-Instances konfigurieren](enable-as-instance-metrics.md)
+ Nicht alle benutzerdefinierten Metriken funktionieren für die Zielverfolgung. Die Metrik muss eine gültige Auslastungsmetrik sein und beschreiben, wie ausgelastet eine Instance ist. Der Wert der Metrik muss sich proportional zur Anzahl der Instances in der Auto-Scaling-Gruppe erhöhen oder verringern. Das muss so sein, damit die Metrikdaten verwendet werden können, um die Anzahl der Instances proportional zu skalieren. Beispielsweise funktioniert die CPU-Auslastung einer Auto-Scaling-Gruppe (d. h. die Amazon EC2-Metrik `CPUUtilization` mit der Metrikdimension `AutoScalingGroupName`), wenn die Last auf der Auto-Scaling-Gruppe auf die Instances verteilt ist. 
+ Die folgenden Metriken funktionieren nicht für die Ziel-Nachverfolgung:
  + Die Anzahl der Anfragen, die vom Load Balancer empfangen werden, der der Auto-Scaling-Gruppe gegenüber liegt (d. h. die Elastic Load Balancing-Metrik `RequestCount`). Die Anzahl der Anfragen, die vom Load Balancer empfangen werden, ändert sich nicht basierend auf der Auslastung der Auto-Scaling-Gruppe.
  + Load Balancer-Anfragelatenz (d. h. die Elastic Load Balancing-Metrik `Latency`). Die Anfragelatenz kann aufgrund der zunehmenden Nutzung zunehmen, ändert sich aber nicht notwendigerweise proportional.
  + Die CloudWatch Amazon SQS SQS-Warteschlangenmetrik`ApproximateNumberOfMessagesVisible`. Die Anzahl der Nachrichten in einer Warteschlange ändert sich möglicherweise nicht proportional zur Größe der Auto-Scaling-Gruppe, die Nachrichten aus der Warteschlange verarbeitet. Eine benutzerdefinierte Metrik, welche die Anzahl der Nachrichten in der Warteschlange pro EC2-Instance in der Auto-Scaling-Gruppe misst, kann jedoch auch funktionieren. Weitere Informationen finden Sie unter [Skalierungsrichtlinie basierend auf Amazon SQS](as-using-sqs-queue.md).
+ Um die Metrik `ALBRequestCountPerTarget` zu verwenden, müssen Sie den Parameter `ResourceLabel` angeben, um die Load Balancer-Zielgruppe zu identifizieren, die der Metrik zugeordnet ist. Ein Beispiel, das den `ResourceLabel` Parameter für eine Skalierungsrichtlinie für die Zielverfolgung mithilfe von spezifiziert AWS CLI, finden Sie unter[Beispiel für Skalierungsrichtlinien für AWS CLI](examples-scaling-policies.md).
+ Wenn eine Metrik echte Werte von 0 ausgibt CloudWatch (z. B.`ALBRequestCountPerTarget`), kann eine Auto Scaling Scaling-Gruppe auf 0 skalieren, wenn über einen längeren Zeitraum kein Datenverkehr zu Ihrer Anwendung erfolgt. Damit Ihre Auto-Scaling-Gruppe auf 0 abskaliert werden kann, wenn keine Anfragen an sie weitergeleitet werden, muss die Mindestkapazität der Gruppe auf 0 festgelegt sein.
+ Anstatt neue Metriken zur Verwendung in Ihrer Skalierungsrichtlinie zu veröffentlichen, können Sie mit metrischer Mathematik bestehende Metriken kombinieren. Weitere Informationen finden Sie unter [Erstellen Sie mithilfe metrischer Mathematik eine Skalierungsrichtlinie für die Zielverfolgung](ec2-auto-scaling-target-tracking-metric-math.md).

## Definieren des Zielwerts
<a name="target-tracking-define-target-value"></a>

Wenn Sie eine Skalierungsrichtlinie für die Zielverfolgung erstellen, müssen Sie einen Zielwert angeben. Der Zielwert stellt die optimale durchschnittliche Auslastung oder den idealen durchschnittlichen Durchsatz für die Auto-Scaling-Gruppe dar. Für eine kosteneffiziente Ressourcennutzung sollte der Zielwert auf einen möglichst hohen Wert mit einem angemessenen Puffer für unerwartete Datenverkehrserhöhungen festgelegt werden. Wenn Ihre Anwendung optimal für einen normalen Datenverkehrsfluss aufskaliert wird, sollte der tatsächliche Metrikwert dem Zielwert entsprechen oder knapp darunter liegen. 

Wenn eine Skalierungsrichtlinie auf dem Durchsatz basiert, z. B. der Anzahl der Anfragen pro Ziel für einen Application Load Balancer, dem Netzwerk-E/A oder anderen Zählmetriken, stellt der Zielwert den optimalen durchschnittlichen Durchsatz einer einzelnen Instance für einen Zeitraum von einer Minute dar.

## Definieren Sie die Aufwärmzeit der Instanz
<a name="as-target-tracking-scaling-warmup"></a>

Sie können optional angeben, wie viele Sekunden die Vorbereitung einer neu gestarteten Instance dauert. Bis die angegebene Aufwärmphase abgelaufen ist, wird eine Instance nicht in den aggregierten Metriken der EC2-Instance der Auto-Scaling-Gruppe berücksichtigt.

Während sich die Instances in der Aufwärmphase befinden, werden Ihre Skalierungsrichtlinien nur dann skaliert, wenn der Metrikwert von Instances, die sich nicht in der Warmlaufphase befinden, größer ist als die Zielauslastung der Policy.

Wenn die Gruppe erneut skaliert wird, werden die Instances, die noch vorbereitet werden, als Teil der gewünschten Kapazität für die nächste Aufskalieraktivität gezählt. Der Zweck ist eine kontinuierliche (jedoch nicht exzessive) Erweiterung.

Während der Scale-Out-Aktivität werden alle Skalierungsaktivitäten, die durch Skalierungsrichtlinien initiiert wurden, blockiert, bis die Instances vollständig warmlaufen. Wenn die Instances mit dem Warmlaufen fertig sind und eine Skalierung eintritt, werden alle Instances, die gerade beendet werden, bei der Berechnung der neuen gewünschten Kapazität auf die aktuelle Kapazität der Gruppe angerechnet. Deshalb entfernen wir nicht mehr Instances aus der Auto-Scaling-Gruppe als nötig.

**Standardwert**  
Wenn kein Wert festgelegt ist, verwendet die Skalierungsrichtlinie den Standardwert, bei dem es sich um den Wert für das für die Gruppe definierte [Standardinstanz-Warmup](ec2-auto-scaling-default-instance-warmup.md) handelt. Wenn das Standard-Aufwärmen der Instanz Null ist, wird auf den Wert der [Standard-Abklingzeit](ec2-auto-scaling-scaling-cooldowns.md#set-default-cooldown) zurückgegriffen. Wir empfehlen, den Standard-Instance-Warmup zu verwenden, um die Aktualisierung aller Skalierungsrichtlinien zu vereinfachen, wenn sich die Aufwärmzeit ändert.

## Überlegungen
<a name="target-tracking-considerations"></a>

Bei der Arbeit mit Skalierungsrichtlinien für die Zielverfolgung ist Folgendes zu beachten:
+ Erstellen, bearbeiten oder löschen Sie keine CloudWatch Alarme, die mit einer Skalierungsrichtlinie für die Zielverfolgung verwendet werden. Amazon EC2 Auto Scaling erstellt und verwaltet die CloudWatch Alarme, die Ihren Ziel-Tracking-Skalierungsrichtlinien zugeordnet sind, und kann sie bei Bedarf bearbeiten, ersetzen oder löschen, um das Skalierungserlebnis für Ihre Anwendungen und deren sich ändernde Nutzungsmuster anzupassen. 
+ Eine Skalierungsrichtlinie für die Zielverfolgung priorisiert die Verfügbarkeit bei Datenverkehrsschwankungen durch langsameres Abskalieren bei nachlassendem Datenverkehr. Wenn Sie mehr Kontrolle wünschen, ist eine Richtlinie zur schrittweisen Skalierung möglicherweise die bessere Option. Sie können den Scale-In-Teil einer Richtlinie zur Zielverfolgung vorübergehend deaktivieren. Dies trägt dazu bei, eine Mindestanzahl von Instanzen für erfolgreiche Bereitstellungen aufrechtzuerhalten. 
+ Wenn der Metrik Datenpunkte fehlen, führt dies dazu, dass der CloudWatch Alarmstatus auf `INSUFFICIENT_DATA` geändert wird. Amazon EC2 Auto Scaling kann Ihre Gruppe dann erst wieder skalieren, wenn neue Datenpunkte gefunden wurden.
+ Wenn die Metrik konstruktionsbedingt nur spärlich gemeldet wird, kann metrische Mathematik hilfreich sein. Um beispielsweise die neuesten Werte zu verwenden, verwenden Sie die Funktion `FILL(m1,REPEAT)`, wobei `m1` die Metrik ist.
+ Möglicherweise werden Lücken zwischen den Datenpunkten für den Zielwert und die aktuelle Metrik angezeigt. Der Grund hierfür ist, dass wir konservativ agieren, indem beim Ermitteln der hinzuzufügenden oder zu entfernenden Instances Auf- oder Abrundungen vorgenommen werden. Dies hindert uns daran, eine unzureichende Anzahl von Instances hinzufügen oder zu viele Instances zu entfernen. Bei kleineren Auto-Scaling-Gruppen mit weniger Instances scheint die Auslastung der Gruppe jedoch weit vom Zielwert entfernt zu sein.

  Nehmen wir beispielsweise an, Sie legen einen Zielwert von 50 Prozent für die CPU-Auslastung fest und Ihre Auto Scaling Scaling-Gruppe überschreitet dann das Ziel. Wir könnten bestimmen, dass durch das Hinzufügen von 1,5 Instances die CPU-Auslastung auf beinahe 50 Prozent sinkt. Da es nicht möglich ist, 1,5 Instances hinzuzufügen, runden wir diesen Wert auf und fügen zwei Instances hinzu. Dadurch wird die CPU-Auslastung möglicherweise auf einen Wert unter 50 Prozent verringert, es wird jedoch sichergestellt, dass Ihre Anwendung über genügend Ressourcen verfügt, um dies zu unterstützen. Wenn wir feststellen, dass das Entfernen von 0,5 Instances Ihre CPU-Auslastung auf über 50 Prozent erhöht, entscheiden wir uns ebenfalls dafür, erst dann zu skalieren, wenn die Metrik so niedrig ist, dass wir glauben, dass die Skalierung keine Schwankungen verursacht. 

  Bei größeren Auto-Scaling-Gruppen mit mehr Instances wird die Auslastung auf eine größere Anzahl von Instances verteilt, wobei durch das Hinzufügen oder Entfernen von Instances eine kleinere Lücke zwischen dem Zielwert und den tatsächlichen metrischen Datenpunkten entsteht.
+ Eine Skalierungsrichtlinie für die Ziel-Nachverfolgung geht davon aus, dass Ihre Auto-Scaling-Gruppe aufskaliert werden soll, wenn die angegebene Metrik über dem Zielwert liegt. Sie können keine Skalierungsrichtlinie für die Ziel-Nachverfolgung verwenden, um Ihre Auto-Scaling-Gruppe zu aufzuskalieren, wenn die angegebene Metrik unter dem Zielwert liegt.

# Erstellen einer Zielverfolgungs-Skalierungsrichtlinie
<a name="policy_creating"></a>

Verwenden Sie eine der folgenden Methoden, um eine Skalierungsrichtlinie für die Zielverfolgung für Ihre Auto Scaling Scaling-Gruppe zu erstellen. 

Bevor Sie beginnen, stellen Sie sicher, dass Ihre bevorzugte Metrik in Intervallen von 1 Minute verfügbar ist (im Vergleich zum Standardintervall von 5 Minuten für Amazon-EC2-Metriken).

------
#### [ Console ]

**So erstellen Sie eine Skalierungsrichtlinie für die Ziel-Nachverfolgung für eine neue Auto-Scaling-Gruppe**

1. Öffnen Sie die Amazon EC2 EC2-Konsole unter [https://console.aws.amazon.com/ec2/](https://console.aws.amazon.com/ec2/)und wählen Sie im Navigationsbereich **Auto Scaling Groups** aus.

1. Wählen Sie **Erstellen einer Auto-Scaling-Gruppe** aus.

1. Wählen Sie in den Schritten 1, 2 und 3 die gewünschten Optionen aus, und fahren Sie mit **Schritt 4: Konfigurieren von Gruppengrößen- und Skalierungsrichtlinien** fort.

1. Geben Sie unter **Skalierung** den Bereich an, zwischen dem Sie skalieren möchten, indem Sie die **minimale gewünschte Kapazität** und **maximale gewünschte Kapazität** aktualisieren. Mit diesen beiden Einstellungen kann die Auto-Scaling-Gruppe dynamisch skaliert werden. Weitere Informationen finden Sie unter [Festlegen von Skalierungslimits für Ihre Auto-Scaling-Gruppe](asg-capacity-limits.md).

1. Wählen Sie unter **Automatische Skalierung** **Skalierungsrichtlinie für die Zielnachverfolgung** aus.

1. Gehen Sie wie folgt vor, um eine Richtlinie zu definieren:

   1. Geben Sie einen Namen für die Richtlinie an.

   1. Wählen Sie unter **Metriktyp** einen Metriktyp aus. 

      Wenn Sie **Anzahl der Application Load Balancer pro Ziel** auswählen, wählen Sie anschließend in **Zielgruppe** eine Zielgruppe aus.

   1. Geben Sie einen **Target value** für die Metrik an.

   1. (Optional) Aktualisieren Sie bei **Instance-Warmup** den Instance-Warmup-Wert nach Bedarf.

   1. (Optional) Wählen Sie **Disable scale in to create only a scale-out policy (Abwärtsskalierung deaktivieren, um nur eine Richtlinie für die Aufwärtsskalierung zu erstellen)**. Auf diese Weise können Sie bei Bedarf eine separate Richtlinie für die horizontale Skalierung nach unten erstellen, die einen anderen Typ aufweist.

1. Fahren Sie mit dem Erstellen der Auto-Scaling-Gruppe fort. Ihre Skalierungsrichtlinie wird erstellt, nachdem die Auto-Scaling-Gruppe erstellt wurde. 

**So erstellen Sie eine Skalierungsrichtlinie für die Ziel-Nachverfolgung für eine vorhandene Auto-Scaling-Gruppe**

1. Öffnen Sie die Amazon EC2 EC2-Konsole unter [https://console.aws.amazon.com/ec2/](https://console.aws.amazon.com/ec2/)und wählen Sie im Navigationsbereich **Auto Scaling Groups** aus.

1. Aktivieren Sie das Kontrollkästchen neben Ihrer Auto-Scaling-Gruppe.

   Im unteren Teil der Seite wird ein geteilter Bereich geöffnet. 

1. Stellen Sie sicher, dass die Skalierungslimits entsprechend festgelegt sind. Wenn die gewünschte Kapazität der Gruppe z. B. bereits erreicht ist, müssen Sie ein neues Maximum angeben, um eine Aufskalierung durchführen zu können. Weitere Informationen finden Sie unter [Festlegen von Skalierungslimits für Ihre Auto-Scaling-Gruppe](asg-capacity-limits.md).

1. Wählen Sie auf der Registerkarte **Automatic scaling (Automatische Skalierung)** unter **Dynamic scaling policies (Dynamische Skalierungsrichtlinien)** die Option **Create dynamic scaling policy (Richtlinie für die dynamische Skalierung erstellen)** aus.

1. Gehen Sie wie folgt vor, um eine Richtlinie zu definieren:

   1. Für den **Richtlinientyp** behalten Sie die Standardeinstellung für **Zielverfolgungsskalierung** bei. 

   1. Geben Sie einen Namen für die Richtlinie an.

   1. Wählen Sie unter **Metriktyp** einen Metriktyp aus. Sie können nur einen Metriktyp auswählen. Um mehr als eine Metrik zu verwenden, erstellen Sie mehrere Richtlinien.

      Wenn Sie **Anzahl der Application Load Balancer pro Ziel** auswählen, wählen Sie anschließend in **Zielgruppe** eine Zielgruppe aus.

   1. Geben Sie einen **Target value** für die Metrik an.

   1. (Optional) Aktualisieren Sie bei **Instance-Warmup** den Instance-Warmup-Wert nach Bedarf.

   1. (Optional) Wählen Sie **Disable scale in to create only a scale-out policy (Abwärtsskalierung deaktivieren, um nur eine Richtlinie für die Aufwärtsskalierung zu erstellen)**. Auf diese Weise können Sie bei Bedarf eine separate Richtlinie für die horizontale Skalierung nach unten erstellen, die einen anderen Typ aufweist.

1. Wählen Sie **Erstellen** aus.

------
#### [ AWS CLI ]

Um eine Skalierungsrichtlinie für die Zielverfolgung zu erstellen, können Sie das folgende Beispiel verwenden, um Ihnen den Einstieg zu erleichtern. Ersetzen Sie jeden *user input placeholder* durch Ihre Informationen.

**Anmerkung**  
Weitere Beispiele finden Sie unter [Beispiel für Skalierungsrichtlinien für AWS CLI](examples-scaling-policies.md).

**So erstellen Sie eine Skalierungsrichtlinie für die Ziel-Nachverfolgung (AWS CLI)**

1. Verwenden Sie den folgenden `cat` Befehl, um einen Zielwert für Ihre Skalierungsrichtlinie und eine vordefinierte Metrikspezifikation in einer JSON-Datei mit dem Namen `config.json` in Ihrem Home-Verzeichnis zu speichern. Im Folgenden finden Sie ein Beispiel für eine Konfiguration zur Zielverfolgung, mit der die durchschnittliche CPU-Auslastung bei 50 Prozent gehalten wird.

   ```
   $ cat ~/config.json
   {
     "TargetValue": 50.0,
     "PredefinedMetricSpecification": 
       {
         "PredefinedMetricType": "ASGAverageCPUUtilization"
       }
   }
   ```

   Weitere Informationen finden Sie [PredefinedMetricSpecification](https://docs.aws.amazon.com/autoscaling/ec2/APIReference/API_PredefinedMetricSpecification.html)in der *Amazon EC2 Auto Scaling API-Referenz.*

1. Verwenden Sie den [put-scaling-policy](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/autoscaling/put-scaling-policy.html)-Befehl zusammen mit der Datei `config.json`, die Sie im vorherigen Schritt erstellt haben, um Ihre Skalierungsrichtlinie zu erstellen:

   ```
   aws autoscaling put-scaling-policy --policy-name cpu50-target-tracking-scaling-policy \
     --auto-scaling-group-name my-asg --policy-type TargetTrackingScaling \
     --target-tracking-configuration file://config.json
   ```

   Bei Erfolg gibt dieser Befehl die Namen ARNs und der beiden CloudWatch Alarme zurück, die in Ihrem Namen erstellt wurden.

   ```
   {
       "PolicyARN": "arn:aws:autoscaling:us-west-2:123456789012:scalingPolicy:228f02c2-c665-4bfd-aaac-8b04080bea3c:autoScalingGroupName/my-asg:policyName/cpu50-target-tracking-scaling-policy",
       "Alarms": [
           {
               "AlarmARN": "arn:aws:cloudwatch:us-west-2:123456789012:alarm:TargetTracking-my-asg-AlarmHigh-fc0e4183-23ac-497e-9992-691c9980c38e",
               "AlarmName": "TargetTracking-my-asg-AlarmHigh-fc0e4183-23ac-497e-9992-691c9980c38e"
           },
           {
               "AlarmARN": "arn:aws:cloudwatch:us-west-2:123456789012:alarm:TargetTracking-my-asg-AlarmLow-61a39305-ed0c-47af-bd9e-471a352ee1a2",
               "AlarmName": "TargetTracking-my-asg-AlarmLow-61a39305-ed0c-47af-bd9e-471a352ee1a2"
           }
       ]
   }
   ```

------

# Erstellen Sie eine Richtlinie zur Zielverfolgung mit hochauflösenden Metriken für eine schnellere Reaktion
<a name="policy-creating-high-resolution-metrics"></a>

Target Tracking unterstützt hochauflösende CloudWatch Metriken mit Datenpunkten auf Sekundenebene, die in kürzeren Intervallen als einer Minute veröffentlicht werden. Konfigurieren Sie Target-Tracking-Richtlinien, um die Auslastung anhand hochauflösender CloudWatch Metriken für Anwendungen mit volatilen Nachfragemustern zu überwachen, z. B. Client-APIs, Live-Streaming-Dienste, E-Commerce-Websites und Datenverarbeitung auf Abruf. Um eine höhere Präzision bei der Abstimmung von Kapazität und Nachfrage zu erreichen, nutzt Target Tracking diese detaillierte Überwachung, um den wechselnden Bedarf und die Auslastung Ihrer EC2-Instances schneller zu erkennen und darauf zu reagieren.

Weitere Informationen darüber, wie Sie Ihre Messwerte mit hoher Auflösung veröffentlichen können, finden Sie unter [Veröffentlichen benutzerdefinierter Metriken](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/publishingMetrics.html) im * CloudWatch Amazon-Benutzerhandbuch*. Um auf EC2-Metriken, wie z. B. die CPU-Auslastung mit hoher Auflösung, zuzugreifen und diese zu veröffentlichen, sollten Sie [CloudWatch Agent](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html) verwenden.

## AWS-Regionen
<a name="policy-creating-high-resolution-metrics-regions"></a>

Die Zielverfolgung mit hochauflösenden Metriken ist in allen AWS-Regionen außer in verfügbar. AWS GovCloud (US) Regions

## So funktioniert die Richtlinie zur Zielverfolgung mit hochauflösenden Metriken
<a name="policy-high-resolution-metrics-how-works"></a>

Sie erstellen Richtlinien zur Zielverfolgung, indem Sie die Metrik, die Sie verfolgen möchten, und den Zielwert, den Sie für die Metrik beibehalten möchten, definieren. Um mit einer Metrik mit hoher Auflösung zu skalieren, geben Sie den Namen der Metrik an und legen den Messwertzeitraum, in dem das Ziel-Tracking diese Metrik beobachtet, auf einen Wert unter 60 Sekunden fest. Derzeit beträgt das niedrigste unterstützte Intervall 10 Sekunden. Sie können Ihre Metrik in kürzeren Intervallen als diesen veröffentlichen.

**Anmerkung**  
Eine Metrikperiode von mehr als 60 wird nicht unterstützt.

Sie können die Zielverfolgung für eine einzelne CloudWatch Metrik konfigurieren oder mehrere CloudWatch Metriken abfragen und mathematische Ausdrücke verwenden, um neue einzelne Zeitreihen auf der Grundlage dieser Metriken zu erstellen. Mit beiden Optionen können Sie den metrischen Zeitraum definieren.

## Beispiele
<a name="high-resolution-metrics-examples"></a>

**Beispiel 1**  
Im folgenden Beispiel wird eine Zielverfolgungsrichtlinie erstellt, die auf einer CloudWatch Metrik mit hoher Auflösung basiert. Die Metrik wird mit einer Auflösung von 10 Sekunden veröffentlicht. Durch die Definition des Zeitraums können Sie die Zielverfolgung aktivieren, um diese Metrik mit einer Genauigkeit von 10 Sekunden zu überwachen. Ersetzen Sie jeden *user input placeholder* durch Ihre Informationen.

```
$ cat ~/config.json
{
  "TargetValue": 100.0,
  "CustomizedMetricSpecification": {
      "MetricName": "MyHighResolutionMetric",
      "Namespace": "MyNamespace",
      "Dimensions": [
        {
          "Name": "MyOptionalDimensionName",
          "Value": "MyOptionalMetricDimensionValue"
        }
      ],
      "Statistic": "Average",
      "Unit": "None"
      "Period": "10                  
  }
}
```

**Beispiel 2**  
Sie können metrische mathematische Ausdrücke verwenden, um mehrere Metriken zur Skalierung zu einer einzigen Zeitreihe zu kombinieren. Metrische Mathematik ist besonders nützlich, um bestehende Metriken in Durchschnittswerte pro Instanz umzurechnen. Die Konvertierung von Metriken ist wichtig, da bei der Zielverfolgung davon ausgegangen wird, dass die Metrik umgekehrt proportional zur Kapazität der Auto Scaling Scaling-Gruppe ist. Wenn die Kapazität steigt, sollte die Metrik also um fast das gleiche Verhältnis sinken.

Nehmen wir zum Beispiel an, Sie haben eine Kennzahl, die die ausstehenden Jobs darstellt, die von Ihrer Anwendung bearbeitet werden sollen. Sie können metrische Mathematik verwenden, um die ausstehenden Jobs durch die laufende Kapazität Ihrer Auto Scaling Scaling-Gruppe zu dividieren. Auto Scaling veröffentlicht die Kapazitätsmetrik mit einer Granularität von 1 Minute, sodass für Intervalle unter einer Minute kein Wert für diese Metrik vorhanden ist. Wenn Sie für die Skalierung eine höhere Auflösung verwenden möchten, kann dies zu einem Zeitunterschied zwischen der Kapazität und der Metrik für ausstehende Jobs führen. Um diese Diskrepanz zu vermeiden, empfehlen wir, den FILL-Ausdruck zu verwenden, um die fehlenden Werte mit der Kapazitätsnummer zu füllen, die im Zeitstempel der vorherigen Minute aufgezeichnet wurde. 

Im folgenden Beispiel wird metrische Mathematik verwendet, um die Metrik für ausstehende Aufträge durch die Kapazität zu dividieren. Für den Zeitraum legen wir beide Messwerte auf 10 Sekunden fest. Da die Metrik in Intervallen von 1 Minute veröffentlicht wird, verwenden wir den FILL-Vorgang für die Kapazitätsmetrik.

Um metrische Mathematik zu verwenden, um mehrere Metriken zu ändern

```
{
    "CustomizedMetricSpecification": {
        "Metrics": [
            {
                "Label": "Pending jobs to be processed",
                "Id": "m1",
                "MetricStat": {
                    "Metric": {
                        "MetricName": "MyPendingJobsMetric",
                        "Namespace": "Custom",
                    },
                    "Stat": "Sum"
                    "Period": 10
                },
                "ReturnData": false
            },
            {
                "Label": "Get the running instance capacity (matching the period to that of the m1)",
                "Id": "m2",
                "MetricStat": {
                    "Metric": {
                        "MetricName": "GroupInServiceInstances",
                        "Namespace": "AWS/AutoScaling",
                        "Dimensions": [
                            {
                                "Name": "AutoScalingGroupName",
                                "Value": "my-asg"
                            }
                        ]
                    },
                    "Stat": "Average"
                    "Period": 10
                },
                "ReturnData": false
            },
            {
                "Label": "Calculate the pending job per capacity (note the use of the FILL expression)",
                "Id": "e1",
                "Expression": "m1 / FILL(m2,REPEAT)",
                "ReturnData": true
            }
        ]
    },
    "TargetValue": 100
}
```

## Überlegungen
<a name="high-resolution-considerations"></a>

Beachten Sie Folgendes, wenn Sie Zielverfolgung und hochauflösende Metriken verwenden.
+ Um sicherzustellen, dass keine Datenpunkte fehlen, die zu unerwünschten Ergebnissen der automatischen Skalierung führen könnten, muss Ihre CloudWatch Metrik mit derselben oder einer höheren Auflösung als dem von Ihnen angegebenen Zeitraum veröffentlicht werden.
+ Definieren Sie den Zielwert als den per-instance-per-minute metrischen Wert, den Sie für Ihre Auto Scaling Scaling-Gruppe beibehalten möchten. Die Festlegung eines geeigneten Zielwerts ist entscheidend, wenn Sie eine Metrik verwenden, deren Wert sich auf der Grundlage des Zeitraums der Metrik multiplizieren kann. Beispielsweise haben alle zählbasierten Messwerte wie die Anzahl der Anfragen oder ausstehenden Jobs, die die SUM-Statistik verwenden, je nach ausgewähltem Zeitraum einen anderen Metrikwert. Sie sollten dennoch davon ausgehen, dass Sie sich ein Ziel im Vergleich zum Durchschnitt pro Minute setzen.
+ Obwohl für die Nutzung von Amazon EC2 Auto Scaling keine zusätzlichen Gebühren anfallen, müssen Sie für Ressourcen wie Amazon EC2-Instances, CloudWatch Metriken und CloudWatch Alarme bezahlen. Die im vorherigen Beispiel erstellten hochauflösenden Alarme haben einen anderen Preis als die Standardalarme. CloudWatch Weitere Informationen zur CloudWatch Preisgestaltung finden Sie unter [ CloudWatch Amazon-Preise](https://aws.amazon.com/cloudwatch/pricing/).
+ Für Target Tracking müssen die Kennzahlen die durchschnittliche Auslastung Ihrer EC2-Instances pro Instance wiedergeben. Um dies zu erreichen, können Sie [metrische mathematische Operationen](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/using-metric-math.html) als Teil Ihrer Ziel-Tracking-Richtlinienkonfiguration verwenden. Teilen Sie Ihre Metrik durch die Betriebskapazität Ihrer Auto Scaling Scaling-Gruppe. Stellen Sie sicher, dass für jede der Metriken, die Sie zum Erstellen einer einzelnen Zeitreihe verwenden, derselbe Metrikzeitraum definiert ist. Wenn diese Metriken in unterschiedlichen Intervallen veröffentlicht werden, verwenden Sie den FILL-Vorgang für die Metrik mit dem höheren Intervall, um die fehlenden Datenpunkte auszufüllen.

# Erstellen Sie mithilfe metrischer Mathematik eine Skalierungsrichtlinie für die Zielverfolgung
<a name="ec2-auto-scaling-target-tracking-metric-math"></a>

Mithilfe metrischer Mathematik können Sie mehrere CloudWatch Metriken abfragen und mathematische Ausdrücke verwenden, um neue Zeitreihen auf der Grundlage dieser Metriken zu erstellen. Sie können die resultierenden Zeitreihen in der CloudWatch Konsole visualisieren und sie zu Dashboards hinzufügen. Weitere Informationen zur metrischen Mathematik finden Sie unter [Verwenden von metrischer Mathematik](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/using-metric-math.html) im * CloudWatch Amazon-Benutzerhandbuch*. 

Für metrische mathematische Ausdrücke gelten folgende Überlegungen:
+ Sie können jede verfügbare CloudWatch Metrik abfragen. Jede Metrik ist eine eindeutige Kombination aus Metrikname, Namespace und null oder mehr Dimensionen. 
+ Sie können einen beliebigen arithmetischen Operator (\$1 - \$1/^), jede statistische Funktion (wie AVG oder SUM) oder eine andere Funktion verwenden, die diese CloudWatch Funktion unterstützt. 
+ Sie können sowohl Metriken als auch die Ergebnisse anderer mathematischer Ausdrücke in den Formeln des mathematischen Ausdrucks verwenden. 
+ Alle Ausdrücke, die in einer metrischen Spezifikation verwendet werden, müssen letztendlich eine einzige Zeitreihe ergeben.
+ Sie können überprüfen, ob ein metrischer mathematischer Ausdruck gültig ist, indem Sie die CloudWatch Konsole oder die CloudWatch [GetMetricData](https://docs.aws.amazon.com/AmazonCloudWatch/latest/APIReference/API_GetMetricData.html)API verwenden.

## Beispiel: Amazon-SQS-Warteschlangenrückstand pro Instance
<a name="metric-math-sqs-queue-backlog"></a>

Um den Amazon-SQS-Warteschlangenrückstand pro Instance zu erhalten, nehmen Sie die ungefähre Anzahl der Nachrichten, die für den Abruf aus der Warteschlange zur Verfügung stehen, und dividieren diese Zahl durch die laufende Kapazität der Auto-Scaling-Gruppe im `InService`-Zustand. Weitere Informationen finden Sie unter [Skalierungsrichtlinie basierend auf Amazon SQS](as-using-sqs-queue.md).

Die Logik für den Ausdruck lautet wie folgt:

 `sum of (number of messages in the queue)/(number of InService instances)`

Dann lauten Ihre CloudWatch metrischen Informationen wie folgt.


| ID (ID) | CloudWatch Metrik | Statistik | Zeitraum | 
| --- | --- | --- | --- | 
| m1 | ApproximateNumberOfMessagesVisible | Summe | 1 Minute | 
| m2 | GroupInServiceInstances | Durchschnitt | 1 Minute | 

ID und Ausdruck Ihrer Metrikberechnung lauten wie folgt.


| ID (ID) | Expression | 
| --- | --- | 
| e1 | (m1)/(m2) | 

Das folgende Diagramm veranschaulicht die Architektur dieser Metrik:

![\[Warteschlangen-Architekturdiagramm für Amazon EC2 Auto Scaling\]](http://docs.aws.amazon.com/de_de/autoscaling/ec2/userguide/images/sqs-as-custom-metric-diagram.png)


**So erstellen Sie mithilfe dieser Metrikberechnung eine Skalierungsrichtlinie für die Zielnachverfolgung (AWS CLI)**

1. Speichern Sie den metrischen mathematischen Ausdruck als Teil einer benutzerdefinierten Metrikspezifikation in einer JSON-Datei namens `config.json`. 

   Das folgende Beispiel hilft Ihnen bei den ersten Schritten. Ersetzen Sie jeden *user input placeholder* durch Ihre Informationen.

   ```
   {
       "CustomizedMetricSpecification": {
           "Metrics": [
               {
                   "Label": "Get the queue size (the number of messages waiting to be processed)",
                   "Id": "m1",
                   "MetricStat": {
                       "Metric": {
                           "MetricName": "ApproximateNumberOfMessagesVisible",
                           "Namespace": "AWS/SQS",
                           "Dimensions": [
                               {
                                   "Name": "QueueName",
                                   "Value": "my-queue"
                               }
                           ]
                       },
                       "Stat": "Sum"
                   },
                   "ReturnData": false
               },
               {
                   "Label": "Get the group size (the number of InService instances)",
                   "Id": "m2",
                   "MetricStat": {
                       "Metric": {
                           "MetricName": "GroupInServiceInstances",
                           "Namespace": "AWS/AutoScaling",
                           "Dimensions": [
                               {
                                   "Name": "AutoScalingGroupName",
                                   "Value": "my-asg"
                               }
                           ]
                       },
                       "Stat": "Average"
                   },
                   "ReturnData": false
               },
               {
                   "Label": "Calculate the backlog per instance",
                   "Id": "e1",
                   "Expression": "m1 / m2",
                   "ReturnData": true
               }
           ]
       },
       "TargetValue": 100
   }
   ```

   Weitere Informationen finden Sie [TargetTrackingConfiguration](https://docs.aws.amazon.com/autoscaling/ec2/APIReference/API_TargetTrackingConfiguration.html)in der *Amazon EC2 Auto Scaling API-Referenz.*
**Anmerkung**  
Im Folgenden finden Sie einige zusätzliche Ressourcen, die Ihnen bei der Suche nach Metriknamen, Namespaces, Dimensionen und Statistiken für Metriken helfen können: CloudWatch   
Informationen zu den verfügbaren Metriken für AWS Services finden Sie im * CloudWatch Amazon-Benutzerhandbuch* unter [AWS Services, die CloudWatch Metriken veröffentlichen](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/aws-services-cloudwatch-metrics.html).
Den genauen Metriknamen, den Namespace und die Dimensionen (falls zutreffend) für eine CloudWatch Metrik mit dem finden Sie unter AWS CLI[list-metrics](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/cloudwatch/list-metrics.html). 

1. Um diese Richtlinie zu erstellen, führen Sie den [put-scaling-policy](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/autoscaling/put-scaling-policy.html)Befehl mit der JSON-Datei als Eingabe aus, wie im folgenden Beispiel gezeigt.

   ```
   aws autoscaling put-scaling-policy --policy-name sqs-backlog-target-tracking-scaling-policy \
     --auto-scaling-group-name my-asg --policy-type TargetTrackingScaling \
     --target-tracking-configuration file://config.json
   ```

   Bei Erfolg gibt dieser Befehl den Amazon-Ressourcennamen (ARN) der Richtlinie und den ARNs der beiden in Ihrem Namen erstellten CloudWatch Alarme zurück.

   ```
   {
       "PolicyARN": "arn:aws:autoscaling:us-west-2:123456789012:scalingPolicy:228f02c2-c665-4bfd-aaac-8b04080bea3c:autoScalingGroupName/my-asg:policyName/sqs-backlog-target-tracking-scaling-policy",
       "Alarms": [
           {
               "AlarmARN": "arn:aws:cloudwatch:us-west-2:123456789012:alarm:TargetTracking-my-asg-AlarmHigh-fc0e4183-23ac-497e-9992-691c9980c38e",
               "AlarmName": "TargetTracking-my-asg-AlarmHigh-fc0e4183-23ac-497e-9992-691c9980c38e"
           },
           {
               "AlarmARN": "arn:aws:cloudwatch:us-west-2:123456789012:alarm:TargetTracking-my-asg-AlarmLow-61a39305-ed0c-47af-bd9e-471a352ee1a2",
               "AlarmName": "TargetTracking-my-asg-AlarmLow-61a39305-ed0c-47af-bd9e-471a352ee1a2"
           }
       ]
   }
   ```
**Anmerkung**  
Wenn dieser Befehl einen Fehler auslöst, stellen Sie sicher, dass Sie die AWS CLI lokale Version auf die neueste Version aktualisiert haben.