Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Welche Metriken sollte ich überwachen?
Die folgenden CloudWatch Kennzahlen bieten einen guten Einblick in die ElastiCache Leistung. In den meisten Fällen empfehlen wir, CloudWatch Alarme für diese Kennzahlen einzurichten, damit Sie Korrekturmaßnahmen ergreifen können, bevor Leistungsprobleme auftreten.
Zu überwachende Metriken
CPUUtilization
Diese Metrik auf Hostebene wird in Prozent angegeben. Weitere Informationen finden Sie unter Metriken auf Host-Ebene.
Valkey und Redis OSS
Verwenden Sie bei kleineren Knotentypen mit 2 V CPUs oder weniger die CPUUtilization
Metrik, um Ihre Arbeitslast zu überwachen.
Generell empfehlen wir, den Schwellenwert auf 90 % der verfügbaren CPU-Kapazität festzulegen. Da Valkey und Redis OSS beide Single-Threading verwenden, sollte der tatsächliche Schwellenwert als Bruchteil der Gesamtkapazität des Knotens berechnet werden. Angenommen, Sie verwenden einen Knotentyp mit zwei Kernen. In diesem Fall CPUUtilization wäre der Schwellenwert für 90/2 oder 45%.
Sie müssen eigene Grenzwerte basierend auf der Anzahl der Kerne im verwendeten Cache-Knoten festlegen. Wenn dieser Grenzwert überschritten wird und der Workload hauptsächlich von Leseanfragen stammt, erweitern Sie den Cache-Cluster, indem Sie Read Replicas hinzufügen. Wenn der Workload hauptsächlich aus Schreibanfragen stammt, empfehlen wir Ihnen abhängig von Ihrer Cluster-Konfiguration:
-
Valkey- oder Redis OSS-Cluster (Cluster-Modus deaktiviert): Skalieren Sie, indem Sie einen größeren Cache-Instance-Typ verwenden.
-
Valkey- oder Redis OSS-Cluster (Clustermodus aktiviert): Fügen Sie weitere Shards hinzu, um die Schreiblast auf mehr Primärknoten zu verteilen.
Tipp
Anstatt die Metrik auf Host-Ebene zu verwendenCPUUtilization
, können Valkey- und Redis OSS-Benutzer möglicherweise die Metrik verwendenEngineCPUUtilization
, die den Prozentsatz der Nutzung auf dem Valkey- oder Redis OSS-Engine-Kern angibt. Um zu sehen, ob diese Metrik auf Ihren Knoten verfügbar ist, und weitere Informationen finden Sie unter Metriken für Valkey und Redis OSS.
Für größere Knotentypen mit 4 V CPUs oder mehr können Sie die EngineCPUUtilization
Metrik verwenden, die den Prozentsatz der Nutzung auf dem Valkey- oder Redis OSS-Engine-Kern angibt. Um zu sehen, ob diese Metrik auf Ihren Knoten verfügbar ist, und weitere Informationen finden Sie unter Metriken für Redis OSS.
Memcached
Da Memcached mit mehreren Threads arbeitet, darf diese Metrik bis zu 90 % erreichen. Wenn Sie diesen Schwellenwert überschreiten, skalieren Sie Ihren Cache-Cluster, indem Sie einen größeren Cache-Knotentyp verwenden, oder skalieren Sie ihn, indem Sie weitere Cache-Knoten hinzufügen.
Modul CPUUtilization
Für größere Knotentypen mit 4 V CPUs oder mehr möchten Sie möglicherweise die EngineCPUUtilization
Metrik verwenden, die den Prozentsatz der Nutzung auf dem Kern der Redis OSS-Engine angibt. Um zu sehen, ob diese Metrik auf Ihren Knoten verfügbar ist, und weitere Informationen finden Sie unter Metriken für Valkey und Redis OSS.
Weitere Informationen finden Sie im CPUsAbschnitt Bewährte Methoden zur Überwachung von Amazon ElastiCache für Redis OSS mithilfe von Amazon CloudWatch
SwapUsage (Valkey und Redis OSS)
Diese Metrik auf Hostebene wird in Bytes angegeben. Weitere Informationen finden Sie unter Metriken auf Host-Ebene.
Liegt die FreeableMemory
CloudWatch Metrik nahe 0 (d. h. unter 100 MB) oder ist sie größer als die SwapUsage
FreeableMemory
Metrik, deutet dies darauf hin, dass ein Knoten unter Speicherauslastung steht. Beachten Sie in diesem Fall folgende Themen
Evictions
Dies ist eine Metrik für die Cache-Engine. Wir empfehlen Ihnen, einen eigenen Grenzwert für diese Metrik basierend auf den Anforderungen Ihrer Anwendung zu bestimmen.
Wenn Sie Memcached verwenden und den von Ihnen gewählten Schwellenwert überschreiten, skalieren Sie Ihren Cluster, indem Sie einen größeren Knotentyp verwenden, oder skalieren Sie, indem Sie weitere Knoten hinzufügen.
CurrConnections
Dies ist eine Metrik für die Cache-Engine. Wir empfehlen Ihnen, einen eigenen Grenzwert für diese Metrik basierend auf den Anforderungen Ihrer Anwendung zu bestimmen.
Eine zunehmende Anzahl von CurrConnectionskann auf ein Problem mit Ihrer Anwendung hinweisen. Um dieses Problem zu beheben, müssen Sie das Verhalten der Anwendung untersuchen.
Weitere Informationen finden Sie im Abschnitt Verbindungen unter Bewährte Methoden zur Überwachung von Amazon ElastiCache für Redis OSS mithilfe von Amazon CloudWatch
Speicher (Valkey und Redis OSS)
Speicher ist ein Kernaspekt von Valkey und Redis OSS. Es ist notwendig, die Speicherauslastung Ihres Clusters zu verstehen, um Datenverluste zu vermeiden und das zukünftige Wachstum Ihres Datasets berücksichtigen zu können. Statistiken über die Speicherauslastung eines Knotens sind im Speicherbereich des INFO-Befehls
Weitere Informationen finden Sie im Abschnitt Speicher unter Bewährte Methoden zur Überwachung mit Amazon ElastiCache für Redis OSS mithilfe von Amazon CloudWatch
Netzwerk
Einer der entscheidenden Faktoren für die Kapazität der Netzwerkbandbreite Ihres Clusters ist der von Ihnen ausgewählte Knotentyp. Weitere Informationen zur Netzwerkkapazität Ihres Nodes finden Sie unter ElastiCache Amazon-Preise
Weitere Informationen finden Sie im Abschnitt Netzwerk unter Bewährte Methoden zur Überwachung von Amazon ElastiCache für Redis OSS mithilfe von Amazon CloudWatch
Latency
Die Messung der Antwortzeit für eine ElastiCache for Valkey-Instance kann je nach erforderlicher Granularität auf unterschiedliche Weise erfolgen. Die wichtigsten Phasen, die zur gesamten serverseitigen Reaktionszeit von ElastiCache for Valkey beitragen, sind die Befehlsvorverarbeitung, Befehlsausführung und Befehlsnachverarbeitung.
Befehlsspezifische Latenzmetriken, die aus dem Befehl Valkey INFO
Die Latenzmetriken SuccessfulWriteRequestLatency
und SuccessfulReadRequestLatency
messen die Gesamtzeit, die die ElastiCache for Valkey-Engine benötigt, um auf eine Anfrage zu antworten.
Anmerkung
Überhöhte Werte für SuccessfulWriteRequestLatency
und SuccessfulReadRequestLatency
Metriken können auftreten, wenn Valkey-Pipelining verwendet wird und CLIENT REPLY auf dem Valkey-Client aktiviert ist. Valkey-Pipelining ist eine Technik zur Leistungssteigerung, indem mehrere Befehle gleichzeitig ausgegeben werden, ohne auf die Antwort auf jeden einzelnen Befehl warten zu müssen. Um überhöhte Werte zu vermeiden, empfehlen wir, Ihren Valkey-Client so zu konfigurieren, dass er Befehle weiterleitet, wenn CLIENT REPLY OFF ist.
Weitere Informationen finden Sie im Abschnitt Latenz unter Bewährte Methoden zur Überwachung mit Amazon ElastiCache mithilfe von Amazon CloudWatch
Replikation
Das Datenvolumen, das repliziert wird, ist über die ReplicationBytes
-Metrik ersehbar. Obwohl diese Metrik für die Schreiblast der Replikationsgruppe repräsentativ ist, gibt sie keine Einblicke in den Replikationsstatus. Für diesem Zweck können Sie die ReplicationLag
-Metrik verwenden.
Weitere Informationen finden Sie im Abschnitt Replikation unter Bewährte Methoden zur Überwachung mit Amazon ElastiCache für Redis OSS mithilfe von Amazon CloudWatch
Verkehrsmanagement (Valkey und Redis OSS)
ElastiCache für Redis OSS verwaltet OSS automatisch den Datenverkehr für einen Knoten, wenn mehr eingehende Befehle an den Knoten gesendet werden, als von Valkey oder Redis OSS verarbeitet werden können. Dies geschieht, um den optimalen Betrieb und die Stabilität der Engine aufrechtzuerhalten.
Wenn der Datenverkehr auf einem Knoten aktiv verwaltet wird, gibt die Metrik TrafficManagementActive
den Datenpunkt 1 aus. Dies weist darauf hin, dass der Knoten für den bereitgestellten Workload möglicherweise unterskaliert ist. Wenn diese Metrik über einen längeren Zeitraum 1 bleibt, evaluieren Sie den Cluster, um zu entscheiden, ob eine Hoch- oder Aufskalierung erforderlich ist.
Sehen Sie sich die Metrik TrafficManagementActive
auf der Seite Metriken an, um mehr zu erfahren.