Anzeigen der Ressourcennutzung mit Kubernetes Metrics Server - Amazon EKS

Unterstützung für die Verbesserung dieser Seite beitragen

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Um zu diesem Benutzerhandbuch beizutragen, wählen Sie den GitHub Link Diese Seite bearbeiten auf, der sich im rechten Bereich jeder Seite befindet.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Anzeigen der Ressourcennutzung mit Kubernetes Metrics Server

Kubernetes Metrics Server ist ein Aggregator für Daten zur Ressourcennutzung in Ihrem Cluster und wird standardmäßig nicht in Amazon-EKS-Clustern bereitgestellt. Weitere Informationen finden Sie unter Kubernetes Metrics Server auf. GitHub Der Metriken-Server wird häufig von anderen Kubernetes-Add-Ons verwendet, beispielsweise für die Skalierung von Pod-Bereitstellungen mit Horizontal Pod Autoscaler oder für das Kubernetes-Dashboard. Weitere Informationen finden Sie unter Ressourcenmetrikpipeline in der Kubernetes-Dokumentation. In diesem Thema wird erläutert, wie Sie den Kubernetes-Metrik-Server in Ihrem Amazon EKS-Cluster bereitstellen.

Wichtig

Die Metriken sind für point-in-time Analysen bestimmt und stellen keine genaue Quelle für historische Analysen dar. Sie können nicht als Überwachungslösung oder für andere Zwecke verwendet werden, die nichts mit Auto Scaling zu tun haben. Weitere Informationen zu Überwachungstools finden Sie unter Überwachung der Cluster-Leistung und Anzeige von Protokollen.

Überlegungen

  • Wenn Sie Kubernetes Metrics Server mithilfe des Manifests manuell auf Fargate-Knoten bereitstellen, konfigurieren Sie die metrics-server-Bereitstellung so, dass ein anderer Port als der Standard-Port 10250 verwendet wird. Dieser Port ist für Fargate reserviert. Die Amazon-EKS-Add-On-Version des Metriken-Servers ist für die Verwendung von Port 10251 vorkonfiguriert.

  • Stellen Sie sicher, dass Sicherheitsgruppen und Netzwerk 10250 den Port zwischen den metrics-server Pods und allen anderen Knoten und Pods ACLs zulassen. Kubernetes Metrics Server verwendet weiterhin Port 10250, um Metriken von anderen Endpunkten im Cluster zu erfassen. Wenn Sie auf Fargate-Knoten bereitstellen, lassen Sie sowohl den konfigurierten alternativen Metrik-Server-Port als auch den Port 10250 zu.

Bereitstellung als Community-Add-On mit Amazon-EKS-Add-Ons

Neu: Sie können Metrics Server jetzt über die AWS Konsole oder Amazon EKS als Community-Add-on bereitstellen APIs.

Mit der AWS Konsole bereitstellen

  1. Öffnen Sie Ihren EKS-Cluster in der AWS Konsole

  2. Wählen Sie auf der Registerkarte „Add-Ons“ die Option Weitere Add-Ons abrufen.

  3. Wählen Sie im Abschnitt „Community-Add-Ons“ die Option Metrik-Server und anschließend Weiter

  4. EKS ermittelt die geeignete Version des Add-Ons für Ihren Cluster. Sie können die Version über das Dropdown-Menü Version ändern.

  5. Wählen Sie Weiter und anschließend Erstellen, um das Add-On zu installieren.

Weitere Ressourcen

Weitere Informationen zu Community-Add-Ons.

Sie installieren oder aktualisieren Community-Add-Ons auf dieselbe Weise wie andere Amazon-EKS-Add-Ons.

Bereitstellung mit Manifest

Neu: Sie können Metrics Server jetzt über die AWS Konsole oder Amazon EKS als Community-Add-on bereitstellen APIs. Diese Installationsanweisungen für Manifeste werden archiviert.

  1. Stellen Sie den Metrics Server mit dem folgenden Befehl bereit:

    kubectl apply -f https://github.com/kubernetes-sigs/metrics-server/releases/latest/download/components.yaml

    Wenn Sie Fargate verwenden, müssen Sie diese Datei ändern. In der Standardkonfiguration verwendet der Metrikserver den Port 10250. Dieser Port ist auf Fargate reserviert. Ersetzen Sie Verweise auf Port 10250 in components.yaml durch einen anderen Port, beispielsweise 10251.

  2. Überprüfen Sie mit dem folgenden Befehl, ob die metrics-server-Bereitstellung die gewünschte Anzahl der Pods umfasst.

    kubectl get deployment metrics-server -n kube-system

    Eine Beispielausgabe sieht wie folgt aus.

    NAME READY UP-TO-DATE AVAILABLE AGE metrics-server 1/1 1 1 6m
  3. Überprüfen Sie die Funktionsfähigkeit des Metrik-Servers, indem Sie die Ressourcenauslastung (CPU/Speicher) der Knoten anzeigen.

    kubectl top nodes
  4. Sollten Sie die Fehlermeldung Error from server (Forbidden) erhalten, ist es erforderlich, Ihre Kubernetes-RBAC-Konfiguration zu aktualisieren. Ihre Kubernetes-RBAC-Identität benötigt ausreichende Berechtigungen, um Cluster-Metriken lesen zu können. Sehen Sie sich die mindestens erforderlichen Kubernetes-API-Berechtigungen zum Lesen von Metriken an. GitHub Erfahren Sie, wie Sie AWS IAM-Identitäten wie Rollen Zugriff auf Kubernetes gewähren. APIs