Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Quali parametri è opportuno monitorare?
Le seguenti CloudWatch metriche offrono una buona visione ElastiCache delle prestazioni. Nella maggior parte dei casi, ti consigliamo di impostare CloudWatch allarmi per queste metriche in modo da poter intraprendere azioni correttive prima che si verifichino problemi di prestazioni.
Parametri da monitorare
CPUUtilization
Si tratta di un parametro a livello di host restituito sotto forma di percentuale. Per ulteriori informazioni, consulta Parametri a livello di host.
Valkey e Redis OSS
Per tipi di nodi più piccoli con 2v CPUs o meno, usa la CPUUtilization
metrica per monitorare il carico di lavoro.
In linea generale, ti consigliamo di impostare la soglia al 90% della CPU disponibile. Poiché Valkey e Redis OSS sono entrambi a thread singolo, il valore di soglia effettivo deve essere calcolato come una frazione della capacità totale del nodo. Ad esempio, supponi che il tipo di nodo in uso supporti due core. In questo caso, la soglia per CPUUtilization sarebbe 90/2 o 45%.
Occorre determinare la propria soglia, in base al numero di core nel nodo di cache in uso. Se questa soglia viene superata, e il carico di lavoro principale è da richieste di lettura, dimensiona orizzontalmente il cluster di cache aggiungendo repliche di lettura. Se il carico di lavoro principale è da richieste di scrittura, a seconda della configurazione cluster, ti consigliamo di procedere come segue:
-
Cluster Valkey o Redis OSS (modalità cluster disabilitata): scalabilità verticale utilizzando un tipo di istanza di cache più grande.
-
Cluster Valkey o Redis OSS (modalità cluster abilitata): aggiungi altri shard per distribuire il carico di lavoro di scrittura su più nodi primari.
Suggerimento
Invece di utilizzare la metrica a livello di hostCPUUtilization
, gli utenti di Valkey e Redis OSS potrebbero utilizzare la metricaEngineCPUUtilization
, che riporta la percentuale di utilizzo sul core del motore Valkey o Redis OSS. Per vedere se questa metrica è disponibile sui tuoi nodi e per ulteriori informazioni, consulta Metrics for Valkey e Redis OSS.
Per tipi di nodi più grandi con 4v CPUs o più, potresti voler utilizzare la EngineCPUUtilization
metrica, che riporta la percentuale di utilizzo sul core del motore Valkey o Redis OSS. Per vedere se questa metrica è disponibile sui tuoi nodi e per ulteriori informazioni, consulta Metrics for Redis OSS.
Memcached
Poiché Memcached è multi-thread, questo parametro può arrivare a 90%. Se superi questa soglia, espandi il cluster di cache utilizzando un tipo di nodo di cache più grande o ridimensionalo aggiungendo altri nodi di cache.
Motore CPUUtilization
Per tipi di nodi più grandi con 4v CPUs o più, potresti voler utilizzare la EngineCPUUtilization
metrica, che riporta la percentuale di utilizzo sul core del motore Redis OSS. Per vedere se questa metrica è disponibile sui tuoi nodi e per ulteriori informazioni, consulta Metrics for Valkey e Redis OSS.
Per ulteriori informazioni, consulta la CPUssezione Monitoraggio delle best practice con Amazon ElastiCache for Redis OSS con Amazon CloudWatch
SwapUsage (Valkey e Redis OSS)
Si tratta di un parametro a livello di host restituito in byte. Per ulteriori informazioni, consulta Parametri a livello di host.
Se la FreeableMemory
CloudWatch metrica è vicina a 0 (ovvero inferiore a 100 MB) o una SwapUsage
metrica superiore alla FreeableMemory
metrica indica che un nodo è sotto pressione in termini di memoria. In tal caso, consulta i seguenti argomenti:
Espulsioni
Si tratta di un parametro del motore di cache. Ti consigliamo di determinare la tua soglia di allarme per questo parametro in base alle esigenze dell'applicazione.
Se utilizzi Memcached e superi la soglia prescelta, amplia il cluster utilizzando un tipo di nodo più grande o scalalo orizzontalmente aggiungendo altri nodi.
CurrConnections
Si tratta di un parametro del motore di cache. Ti consigliamo di determinare la tua soglia di allarme per questo parametro in base alle esigenze dell'applicazione.
Un numero crescente di dati CurrConnectionspotrebbe indicare un problema con l'applicazione; per risolvere il problema, sarà necessario esaminare il comportamento dell'applicazione.
Per ulteriori informazioni, consulta la sezione Connessioni in Monitoring best practice with Amazon ElastiCache for Redis OSS using Amazon CloudWatch
Memoria (Valkey e Redis OSS)
La memoria è un aspetto fondamentale di Valkey e Redis OSS. È necessario comprendere l'utilizzo della memoria del cluster per evitare la perdita di dati e consentire la crescita futura del set di dati. Le statistiche sull'utilizzo della memoria di un nodo sono disponibili nella sezione memoria del comando INFO.
Per ulteriori informazioni, consulta la sezione Memoria in Monitoring best practice with Amazon ElastiCache for Redis OSS using Amazon CloudWatch
Rete
Uno dei fattori determinanti per la capacità della larghezza di banda di rete del cluster è il tipo di nodo selezionato. Per ulteriori informazioni sulla capacità di rete del tuo nodo, consulta ElastiCache i prezzi di Amazon
Per ulteriori informazioni, consulta la sezione Rete in Monitoring best practice with Amazon ElastiCache for Redis OSS using Amazon CloudWatch
Latenza
La misurazione del tempo di risposta ElastiCache per un'istanza for Valkey può essere eseguita in vari modi a seconda del livello di granularità richiesto. Le fasi chiave che contribuiscono al tempo di risposta complessivo lato server ElastiCache per Valkey sono la preelaborazione, l'esecuzione e la post-elaborazione dei comandi.
Le metriche di latenza specifiche dei comandi derivate dal comando Valkey INFO
Le metriche di latenza SuccessfulWriteRequestLatency
e SuccessfulReadRequestLatency
misurano il tempo totale impiegato dal motore ElastiCache for Valkey per rispondere a una richiesta.
Nota
Quando si utilizza il pipelining di Valkey con CLIENT REPLY abilitato sul client Valkey, possono verificarsi valori SuccessfulWriteRequestLatency
e SuccessfulReadRequestLatency
metriche gonfiati. Il pipelining Valkey è una tecnica per migliorare le prestazioni emettendo più comandi contemporaneamente, senza attendere la risposta a ogni singolo comando. Per evitare valori gonfiati, consigliamo di configurare il client Valkey per eseguire la pipeline dei comandi con CLIENT REPLY OFF.
Per ulteriori informazioni, consulta la sezione Latenza in Monitoring best practice with Amazon ElastiCache using Amazon CloudWatch
Replica
Il volume dei dati da replicare è visibile tramite il parametro ReplicationBytes
. Sebbene questo parametro sia rappresentativo del carico di scrittura sul gruppo di replica, non fornisce informazioni dettagliate sull'integrità della replica. A tale scopo, è possibile utilizzare il parametro ReplicationLag
.
Per ulteriori informazioni, consulta la sezione Replica in Monitoring best practice with Amazon ElastiCache for Redis OSS using Amazon
Gestione del traffico (Valkey e Redis OSS)
ElastiCache for Redis OSS gestisce automaticamente il traffico verso un nodo quando al nodo vengono inviati più comandi in entrata di quanti ne possano essere elaborati da Valkey o Redis OSS. Ciò viene fatto per mantenere il funzionamento e la stabilità ottimali del motore.
Quando il traffico viene gestito attivamente su un nodo, la metrica TrafficManagementActive
emetterà punti dati pari a 1. Ciò indica che il nodo è sottodimensionato per il carico di lavoro fornito. Se questa metrica resta 1 per lunghi periodi di tempo, valuta il cluster per decidere se è necessario aumentare o applicare la scalabilità orizzontale.
Per ulteriori informazioni, consulta la metrica TrafficManagementActive
nella pagina Metriche.