Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Konfiguration und Grenzwerte für Valkey und Redis OSS
Die Valkey- und Redis OSS-Engines bieten jeweils eine Reihe von Konfigurationsparametern, von denen einige ElastiCache für Redis OSS modifizierbar sind und andere nicht modifizierbar sind, um eine stabile Leistung und Zuverlässigkeit zu gewährleisten.
Serverless-Caches
Für serverlose Caches werden keine Parametergruppen verwendet und die gesamte Valkey- oder Redis-OSS-Konfiguration kann nicht geändert werden. Die folgenden Valkey- oder Redis-OSS-Parameter sind vorhanden:
Name | Details | Beschreibung |
---|---|---|
acl-pubsub-default |
|
Standardberechtigungen für Pub/Sub-Kanäle für ACL-Benutzer im Cache. |
client-output-buffer-limit |
|
Für normale Clients besteht kein Pufferlimit. PUB/SUB-Clients werden getrennt, wenn sie den 32-MiB-Backlog oder den 8-MiB-Backlog für 60 Sekunden unterbrechen. |
client-query-buffer-limit |
1 GiB | Die maximale Größe eines einzelnen Client-Abfragepuffers. Darüber hinaus können Clients keine Anfrage mit mehr als 3.999 Argumenten stellen. |
cluster-allow-pubsubshard-when-down |
yes |
Dadurch kann der Cache Pub/Sub-Datenverkehr bereitstellen, während der Cache teilweise ausgefallen ist. |
cluster-allow-reads-when-down |
yes |
Dadurch kann der Cache Lesedatenverkehr bereitstellen, während der Cache teilweise ausgefallen ist. |
cluster-enabled |
yes |
Für alle Serverless-Caches ist der Clustermodus aktiviert, sodass sie ihre Daten transparent auf mehrere Backend-Shards partitionieren können. Alle Slots werden den Clients so angezeigt, als gehörten sie einem einzigen virtuellen Knoten. |
cluster-require-full-coverage |
no |
Wenn der Keyspace teilweise ausgefallen ist (d. h. auf mindestens einen Hash-Slot kann nicht zugegriffen werden), akzeptiert der Cache weiterhin Abfragen für den Teil des Keyspace, der noch abgedeckt ist. Der gesamte Keyspace wird immer von einem einzigen virtuellen Knoten in cluster slots „abgedeckt“. |
lua-time-limit |
5000 |
Die maximale Ausführungszeit für ein Lua-Skript in Millisekunden, bevor Maßnahmen zum Stoppen des Skripts ergriffen ElastiCache werden. Wenn sie überschritten |
maxclients |
65000 | Die maximale Anzahl von Clients, die zu jedem beliebigen Zeitpunkt mit dem Cache verbunden sein können. Weitere Verbindungen können erfolgreich hergestellt werden oder auch nicht. |
maxmemory-policy |
volatile-lru |
Elemente mit einem TTL-Satz werden nach einer Schätzung least-recently-used (LRU) gelöscht, wenn das Speicherlimit eines Caches erreicht ist. |
notify-keyspace-events |
(eine leere Zeichenfolge) | Keyspace-Ereignisse werden in Serverless-Caches derzeit nicht unterstützt. |
port |
Primärer Port: 6379 Leseport: 6380 |
Serverless-Caches kündigen zwei Ports mit demselben Hostnamen an. Der primäre Port lässt Schreib- und Lesevorgänge zu, wohingegen der Leseport mithilfe des Befehls READONLY letztendlich konsistente Lesevorgänge mit niedrigerer Latenz ermöglicht. |
proto-max-bulk-len |
512 MiB | Die maximale Größe einer einzelnen Elementanforderung. |
timeout |
0 | Zu einer bestimmten Leerlaufzeit werden die Verbindungen mit Clients nicht gewaltsam getrennt, sie können jedoch aus Gründen des Lastausgleichs im stabilen Zustand getrennt werden. |
Darüber hinaus gelten die folgenden Limits:
Name | Details | Beschreibung |
---|---|---|
Größe pro Cache | 5.000 GiB | Maximale Datenmenge, die pro serverlosem Cache gespeichert werden kann. |
Größe pro Steckplatz | 32 GiB | Die maximale Größe eines einzelnen Valkey- oder Redis OSS-Hash-Slots. Clients, die versuchen, mehr Daten auf einem einzelnen Valkey- oder Redis-OSS-Steckplatz zu speichern, lösen die Räumungsrichtlinie für den Steckplatz aus, und wenn keine Schlüssel entfernt werden können, wird ein Fehler wegen Speichermangel () angezeigt. OOM |
ECPU pro Cache | 15.000.000 ECPU/Sekunde | ElastiCache Metrisch für Verarbeitungseinheiten (ECPU) Die Anzahl der von Ihren Anfragen ECPUs verbrauchten Daten hängt von der vCPU vCPU-Zeit und der Menge der übertragenen Daten ab. |
ECPU pro Steckplatz | 30.000 bis 90.000 ECPU/Sekunde | Maximal 30.000 ECPUs €/Sekunde pro Steckplatz oder 90.000 ECPUs €/Sekunde bei Verwendung von Read from Replica mit READONLY-Verbindungen. |
Argumente pro Anfrage | 3.999 | Maximale Anzahl von Argumenten pro Anfrage. Clients, die mehr Argumente pro Anfrage senden, erhalten eine Fehlermeldung. |
Länge des Schlüsselnamens | 4 KiB | Die maximale Größe für einen einzelnen Valkey- oder Redis-OSS-Schlüssel oder Kanalnamen. Clients, die auf Schlüssel verweisen, die größer sind, wird eine Fehlermeldung angezeigt. |
Größe des Lua-Skripts | 4 MiB | Die maximale Größe eines einzelnen Valkey- oder Redis OSS-Lua-Skripts. Versuche, ein Lua-Skript zu laden, das größer ist als dieses, führen zu einer Fehlermeldung. |
Selbst entworfene Cluster
Informationen über Standardwerte der Konfigurationsparameter und die konfigurierbaren Werte für selbst entworfene Cluster finden Sie unter Valkey- und Redis OSS-Parameter. Die Standardwerte werden generell empfohlen, es sei denn, Sie haben einen bestimmten Anwendungsfall, bei dem sie außer Kraft gesetzt werden müssen.