Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Stellen Sie einen Workload bereit
Die folgenden Beispiele zeigen, wie HyperPod Autoscaling mit Karpenter automatisch Knoten als Reaktion auf Workload-Anforderungen bereitstellt. Diese Beispiele zeigen das grundlegende Skalierungsverhalten und die Verteilungsmuster für mehrere Verfügbarkeitszonen.
Stellen Sie einen einfachen Workload bereit
-
Die folgende Kubernetes-Bereitstellung umfasst Pods, die 1 CPU und 256 MB Arbeitsspeicher pro Replikat oder Pod anfordern. In diesem Szenario sind die Pods noch nicht hochgefahren.
kubectl apply -f https://raw.githubusercontent.com/aws/karpenter-provider-aws/refs/heads/main/examples/workloads/inflate.yaml -
Führen Sie zum Test des Scale-Up-Prozesses den folgenden Befehl aus. Karpenter wird dem Cluster neue Knoten hinzufügen.
kubectl scale deployment inflate --replicas 10 -
Führen Sie zum Test des Herunterskalierungsprozesses den folgenden Befehl aus. Karpenter wird Knoten aus dem Cluster entfernen.
kubectl scale deployment inflate --replicas 0
Stellen Sie einen Workload auf mehrere AZs
-
Führen Sie den folgenden Befehl aus, um einen Workload bereitzustellen, auf dem eine Kubernetes-Bereitstellung ausgeführt wird. Dabei müssen sich die bereitgestellten Pods gleichmäßig über verschiedene Availability Zones mit einem maximalen Skew von 1 verteilen.
kubectl apply -f https://raw.githubusercontent.com/aws/karpenter-provider-aws/refs/heads/main/examples/workloads/spread-zone.yaml -
Führen Sie den folgenden Befehl aus, um die Anzahl der Pods anzupassen:
kubectl scale deployment zone-spread --replicas 15Karpenter fügt dem Cluster neue Knoten hinzu, wobei sich mindestens ein Knoten in einer anderen Availability Zone befindet.
Weitere Beispiele finden Sie unter Karpenter-Beispiel-Workloads