

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Was ist Amazon ElastiCache?
Was ist ElastiCache?

Willkommen im * ElastiCache Amazon-Benutzerhandbuch*. Amazon ElastiCache ist ein Webservice, der es einfach macht, einen verteilten In-Memory-Datenspeicher oder eine Cache-Umgebung in der Cloud einzurichten, zu verwalten und zu skalieren. Es handelt sich um eine leistungsstarke, skalierbare und kostengünstige Caching-Lösung. Gleichzeitig trägt es dazu bei, die mit der Bereitstellung und Verwaltung einer verteilten Cache-Umgebung verbundene Komplexität zu beseitigen.

Sie können Amazon ElastiCache in zwei Formaten betreiben. Sie können mit einem serverlosen Cache beginnen oder einen knotenbasierten Cluster erstellen. 

**Anmerkung**  
Amazon ElastiCache arbeitet mit den OSS-Engines Valkey, Memcached und Redis. Wenn Sie sich nicht sicher sind, welche Engine Sie verwenden möchten, beachten Sie [Vergleich knotenbasierter Valkey-, Memcached- und Redis OSS-Cluster](SelectEngine.md) in diesem Handbuch. 

## Serverless-Caching
Serverless-Caching

ElastiCache bietet serverloses Caching, was das Hinzufügen und Betreiben eines Caches für Ihre Anwendung vereinfacht. ElastiCache Serverless ermöglicht es Ihnen, in weniger als einer Minute einen hochverfügbaren Cache zu erstellen, und macht die Bereitstellung von Instanzen oder die Konfiguration von Knoten oder Clustern überflüssig. Entwickler können einen serverlosen Cache erstellen, indem sie den Cache-Namen über die ElastiCache Konsole, das SDK oder die CLI angeben. 

ElastiCache Serverless macht auch die Planung und Verwaltung der Caching-Kapazität überflüssig. ElastiCache überwacht ständig den Arbeitsspeicher, die Rechenleistung und die Netzwerkbandbreite des Caches, die von Ihrer Anwendung verwendet werden, und skaliert, um den Anforderungen Ihrer Anwendung gerecht zu werden. ElastiCache bietet Entwicklern eine einfache Endpunkterfahrung, indem die zugrunde liegende Cache-Infrastruktur und das Cluster-Design abstrahiert werden. ElastiCache verwaltet die Hardwarebereitstellung, die Überwachung, den Austausch von Knoten und das Patchen von Software automatisch und transparent, sodass Sie sich auf die Anwendungsentwicklung konzentrieren können, anstatt den Cache zu betreiben. 

ElastiCache Serverless ist mit Valkey 7.2, Memcached 1.6.21 und höher sowie Redis OSS 7.1 und höher kompatibel.

## Einen knotenbasierten Cluster erstellen
Knotenbasierte Cluster

Wenn Sie eine genaue Kontrolle über Ihren ElastiCache Cluster benötigen, können Sie wählen, ob Sie einen knotenbasierten Valkey-, Memcached- oder Redis-OSS-Cluster erstellen möchten. ElastiCache ermöglicht es Ihnen, einen knotenbasierten Cluster zu erstellen, indem Sie den Knotentyp, die Anzahl der Knoten und die Platzierung der Knoten in den Availability Zones für Ihren Cluster auswählen.AWS Da es ElastiCache sich um einen vollständig verwalteten Dienst handelt, verwaltet er automatisch die Hardwarebereitstellung, die Überwachung, den Austausch von Knoten und das Software-Patching für Ihren Cluster. 

Die Erstellung eines knotenbasierten Clusters bietet mehr Flexibilität und Kontrolle über Ihre Cluster. Sie können beispielsweise je nach Ihren Anforderungen wählen, ob Sie einen Cluster mit Single-AZ- oder Multi-AZ-Verfügbarkeit betreiben möchten. Sie können auch wählen, ob Sie Valkey, Memcached oder Redis OSS im Clustermodus ausführen möchten, der horizontale Skalierung ermöglicht, oder ohne Clustermodus, um nur vertikal zu skalieren. Bei der Erstellung eines knotenbasierten Clusters sind Sie dafür verantwortlich, den Typ und die Anzahl der Knoten richtig auszuwählen, um sicherzustellen, dass Ihr Cache über die für Ihre Anwendung erforderliche Kapazität verfügt. Sie können auch wählen, wann neue Software-Patches auf Ihren Valkey- oder Redis OSS-Cluster angewendet werden sollen. 

Bei der Erstellung eines knotenbasierten Clusters können Sie aus mehreren unterstützten Versionen von Valkey, Memcached und Redis OSS wählen. Weitere Informationen zu unterstützten Engine-Versionen finden Sie unter. [Motorversionen und Aufrüstung in ElastiCache](engine-versions.md)

# Zugehörige Services


[Speicher-DB](https://docs.aws.amazon.com/memorydb/latest/devguide/what-is-memorydb-for-redis.html) 

Bei der Entscheidung, ob Sie MemoryDB ElastiCache oder MemoryDB verwenden möchten, sollten Sie die folgenden Vergleiche berücksichtigen:
+ ElastiCache ist ein Dienst, der häufig verwendet wird, um Daten aus anderen Datenbanken und Datenspeichern mithilfe von Valkey, Memcached oder Redis OSS zwischenzuspeichern. Sie sollten beim Zwischenspeichern von Workloads in Betracht ziehen ElastiCache , bei denen Sie den Datenzugriff mit Ihrer vorhandenen Primärdatenbank oder Ihrem vorhandenen Datenspeicher beschleunigen möchten (Lese- und Schreibleistung im Mikrosekundenbereich). Sie sollten auch Anwendungsfälle in Betracht ziehen ElastiCache , in denen Sie Valkey- oder Redis-OSS-Datenstrukturen verwenden und auf Daten zugreifen APIs möchten, die in einer Primärdatenbank oder einem Datenspeicher gespeichert sind.
+ ElastiCache kann Ihnen auch dabei helfen, Datenbankkosten zu sparen, indem häufig aufgerufene Daten in einem Cache gespeichert werden. Wenn Ihre Anwendung hohe Anforderungen an den Lesedurchsatz stellt, können Sie eine hohe Skalierbarkeit, hohe Leistung und geringere Datenspeicherkosten erzielen, indem Sie Ihre zugrunde liegende Datenbank verwenden ElastiCache, anstatt sie zu skalieren. 
+ MemoryDB ist eine robuste In-Memory-Datenbank für Workloads, die eine ultraschnelle Primärdatenbank erfordern. Sie ist mit Valkey und Redis OSS kompatibel. Sie sollten die Verwendung von MemoryDB in Betracht ziehen, wenn Ihr Workload eine dauerhafte Datenbank erfordert, die eine ultraschnelle Leistung bietet (Leselatenz im Mikrosekundenbereich und Schreiblatenz im einstelligen Millisekundenbereich). MemoryDB eignet sich möglicherweise auch gut für Ihren Anwendungsfall, wenn Sie eine Anwendung mit Valkey- oder Redis OSS-Datenstrukturen und APIs mit einer primären, dauerhaften Datenbank erstellen möchten. Schließlich sollten Sie erwägen, MemoryDB zu verwenden, um Ihre Anwendungsarchitektur zu vereinfachen und die Kosten zu senken, indem Sie die Verwendung einer Datenbank durch einen Cache ersetzen, um Dauerhaftigkeit und Leistung zu gewährleisten.

[Amazon Relational Database Service](https://aws.amazon.com/rds/)

ElastiCache kann Ihnen helfen, Datenbankkosten zu sparen, indem Daten, auf die häufig zugegriffen wird, in einem Cache gespeichert werden. Wenn Ihre Anwendung hohe Anforderungen an den Lesedurchsatz stellt, können Sie eine hohe Skalierbarkeit, hohe Leistung und geringere Datenspeicherkosten erzielen, indem Sie Ihre zugrunde liegende Datenbank verwenden ElastiCache, anstatt sie zu skalieren.

Weitere Hintergrundinformationen zum entsprechenden Service Amazon Relational Database Service finden Sie unter [Amazon](https://docs.aws.amazon.com/rds/) RDS 

ElastiCache kann Ihnen helfen, Datenbankkosten zu sparen, indem Daten, auf die häufig zugegriffen wird, in einem Cache gespeichert werden. Wenn Ihre Anwendung hohe Anforderungen an den Lesedurchsatz stellt, können Sie eine hohe Skalierbarkeit, hohe Leistung und geringere Datenspeicherkosten erzielen, indem Sie Ihre zugrunde liegende Datenbank verwenden ElastiCache, anstatt sie zu skalieren. 

# Wie ElastiCache funktioniert
Funktionsweise

Hier finden Sie einen Überblick über die wichtigsten Komponenten eines ElastiCache Deployments.

## Cache- und Caching-Engines
Cache- und Caching-Engines

Ein Cache ist ein In-Memory-Datenspeicher, den Sie zum Speichern zwischengespeicherter Daten verwenden können. In der Regel speichert Ihre Anwendung häufig aufgerufene Daten in einem Cache, um die Antwortzeiten zu optimieren. ElastiCache bietet zwei Bereitstellungsoptionen: serverlose Caches und knotenbasierte Cluster. Siehe [Auswählen aus den Bereitstellungsoptionen](WhatIs.deployment.md). 

**Anmerkung**  
Amazon ElastiCache arbeitet mit den OSS-Engines Valkey, Memcached und Redis. Wenn Sie sich nicht sicher sind, welche Engine Sie verwenden möchten, beachten Sie [Vergleich knotenbasierter Valkey-, Memcached- und Redis OSS-Cluster](SelectEngine.md) in diesem Handbuch.

**Topics**
+ [

### Wie ElastiCache funktioniert
](#WhatIs.HowELCworks)
+ [

### Preisdimensionen
](#WhatIs.ELCpricing)
+ [

### ElastiCache Backups
](#WhatIs.corecomponents.backups-redis)

### Wie ElastiCache funktioniert
Wie ElastiCache funktioniert

**ElastiCache Serverless**

ElastiCache Mit Serverless können Sie einen Cache erstellen, ohne sich Gedanken über Kapazitätsplanung, Hardwaremanagement oder Clusterdesign machen zu müssen. Sie geben einfach einen Namen für Ihren Cache an und Sie erhalten einen einzigen Endpunkt, den Sie in Ihrem Valkey-, Memcached- und Redis OSS-Client konfigurieren können, um mit dem Zugriff auf Ihren Cache zu beginnen.

**Anmerkung**  
ElastiCache Serverless führt Valkey, Memcached oder Redis OSS im Clustermodus aus und ist nur mit Clients kompatibel, die TLS unterstützen. 

**Wichtigste Vorteile**


+ **Keine Kapazitätsplanung:** ElastiCache Serverless macht die Kapazitätsplanung überflüssig. ElastiCache Serverless überwacht kontinuierlich die Speicher-, Rechen- und Netzwerkbandbreitennutzung Ihres Caches und skaliert sowohl vertikal als auch horizontal. Dadurch kann ein Cache-Knoten an Größe zunehmen und gleichzeitig ein Aufskalierungsvorgang initiiert werden, um sicherzustellen, dass der Cache jederzeit skaliert werden kann, um Ihre Anwendungsanforderungen zu erfüllen. 
+ **Pay-per-use:** Bei ElastiCache Serverless zahlen Sie für die im Cache gespeicherten Daten und die Rechenleistung, die von Ihrem Workload genutzt wird. Siehe [Preisdimensionen](#WhatIs.ELCpricing).
+ **Hochverfügbarkeit:** ElastiCache Serverless repliziert Ihre Daten automatisch über mehrere Availability Zones (AZ) hinweg, um eine hohe Verfügbarkeit zu gewährleisten. Es überwacht automatisch die zugrunde liegenden Cache-Knoten und ersetzt sie bei Ausfällen. Es bietet ein SLA mit einer Verfügbarkeit von 99,99 % für jeden Cache. 
+ **Automatische Software-Upgrades:** ElastiCache Serverless aktualisiert Ihren Cache automatisch auf die neueste Minor- und Patch-Softwareversion, ohne dass die Verfügbarkeit Ihrer Anwendung beeinträchtigt wird. Sobald eine neue Hauptversion verfügbar ist, ElastiCache erhalten Sie eine Benachrichtigung. 
+ **Sicherheit:** Serverless verschlüsselt Daten während der Übertragung und im Ruhezustand. Sie können einen vom Service verwalteten Schlüssel oder einen eigenen kundenverwalteten Schlüssel verwenden, um Daten im Ruhezustand zu verschlüsseln. 

Das folgende Diagramm zeigt, wie ElastiCache Serverless funktioniert.

![\[Ein Diagramm des ElastiCache serverlosen Cache-Betriebs, von den Availability Zones zur Kunden-VPC und dann zur Service-VPC.\]](http://docs.aws.amazon.com/de_de/AmazonElastiCache/latest/dg/images/ELC-serverless-works1.png)


Wenn Sie einen neuen serverlosen Cache erstellen, ElastiCache wird ein Virtual Private Cloud (VPC) -Endpunkt in den Subnetzen Ihrer Wahl in Ihrer VPC erstellt. Ihre Anwendung kann über diese VPC-Endpunkte eine Verbindung mit dem Cache herstellen. 

Mit ElastiCache Serverless erhalten Sie einen einzigen DNS-Endpunkt, mit dem Ihre Anwendung eine Verbindung herstellt. Wenn Sie eine neue Verbindung zum Endpunkt anfordern, verarbeitet ElastiCache Serverless alle Cache-Verbindungen über eine Proxyschicht. Die Proxy-Schicht trägt zu einer weniger komplexen Client-Konfiguration bei, da der Client die Cluster-Topologie nicht erneut ermitteln muss, wenn Änderungen am zugrunde liegenden Cluster vorgenommen werden. Die Proxy-Schicht besteht aus einer Reihe von Proxy-Knoten, die Verbindungen mithilfe eines Network Load Balancer verarbeiten. 

Wenn Ihre Anwendung eine neue Cache-Verbindung erstellt, wird die Anfrage vom Network Load Balancer an einen Proxy-Knoten gesendet. Führt Ihre Anwendung Cache-Befehle aus, dann führt der Proxy-Knoten, der mit Ihrer Anwendung verbunden ist, die Anfragen auf einem Cache-Knoten in Ihrem Cache aus. Die Proxyschicht abstrahiert die Clustertopologie und die Knoten von Ihrem Client. Dies ermöglicht ElastiCache einen intelligenten Lastenausgleich, die Skalierung und das Hinzufügen neuer Cache-Knoten, den Austausch von Cache-Knoten bei deren Ausfall und die Aktualisierung der Software auf den Cache-Knoten, ohne dass die Verfügbarkeit Ihrer Anwendung beeinträchtigt wird oder Verbindungen zurückgesetzt werden müssen. 

**Knotenbasierte Cluster**

Sie können einen knotenbasierten ElastiCache Cluster erstellen, indem Sie eine Cache-Knotenfamilie, Größe und Anzahl der Knoten für Ihren Cluster auswählen. Durch die Erstellung eines knotenbasierten Clusters haben Sie eine genauere Kontrolle und können die Anzahl der Shards in Ihrem Cache und die Anzahl der Knoten (primär und repliziert) in jedem Shard auswählen. Sie können wählen, ob Sie Valkey oder Redis OSS im Clustermodus betreiben möchten, indem Sie einen Cluster mit mehreren Shards erstellen, oder im Nicht-Cluster-Modus mit einem einzigen Shard. 

**Wichtigste Vorteile**
+ **Erstellen Sie einen knotenbasierten Cluster:** Mit können Sie einen knotenbasierten Cluster erstellen und auswählen ElastiCache, wo Sie Ihre Cache-Knoten platzieren möchten. Wenn Sie beispielsweise über eine Anwendung verfügen, bei der es um einen Kompromiss zwischen hoher Verfügbarkeit und niedriger Latenz geht, können Sie sich dafür entscheiden, Ihre Cache-Knoten in einer einzigen AZ bereitzustellen. Alternativ können Sie einen knotenbasierten Cluster mit Knoten über mehrere Knoten erstellen, um eine hohe Verfügbarkeit zu erreichen. AZs 
+ Präzise **Steuerung: Wenn Sie einen knotenbasierten Cluster erstellen, haben Sie mehr Kontrolle über die Feinabstimmung** der Einstellungen in Ihrem Cache. Beispielsweise können Sie [Valkey- und Redis OSS-Parameter](ParameterGroups.Engine.md#ParameterGroups.Redis) oder verwenden, um die Cache-Engine [Memcached-spezifische Parameter](ParameterGroups.Engine.md#ParameterGroups.Memcached) zu konfigurieren.
+ **Vertikales und horizontales Skalieren:** Sie können Ihren Cluster wahlweise manuell skalieren, indem Sie die Größe des Cache-Knotens bei Bedarf erhöhen oder verringern. Sie können auch horizontal skalieren, indem Sie neue Shards oder weitere Replikate zu Ihren Shards hinzufügen. Sie können die Auto-Scaling-Funktion auch verwenden, um die Skalierung auf der Grundlage eines Zeitplans oder eine Skalierung auf der Grundlage von Messwerten wie der CPU- und Speicherauslastung im Cache zu konfigurieren. 

Das folgende Diagramm zeigt, wie knotenbasierte Cluster funktionieren ElastiCache .

![\[Ein Diagramm des ElastiCache knotenbasierten Clusterbetriebs, von den Availability Zones über die Kunden-VPC bis hin zu den ElastiCache verwalteten Cache-Knoten.\]](http://docs.aws.amazon.com/de_de/AmazonElastiCache/latest/dg/images/ELC-serverless-works2.png)


### Preisdimensionen
Preisgestaltung

Sie können die Bereitstellung ElastiCache in zwei Bereitstellungsoptionen durchführen. Bei der Bereitstellung von ElastiCache Serverless zahlen Sie für die Nutzung der in GB-Stunden gespeicherten Daten und für die ElastiCache Datenverarbeitung in Processing Units (ECPU). Bei der Erstellung eines knotenbasierten Clusters zahlen Sie pro Stunde für die Nutzung des Cache-Knotens. Weitere Informationen zu Preisen finden Sie [hier](https://aws.amazon.com/elasticache/pricing/).

**Datenspeicher**

Sie zahlen für in ElastiCache Serverless gespeicherte Daten, die in Gigabyte-Stunden (GB-Stunden) abgerechnet werden. ElastiCache Serverless überwacht kontinuierlich die in Ihrem Cache gespeicherten Daten, wobei mehrere Samplings pro Minute durchgeführt werden, und berechnet einen Stundendurchschnitt, um die Datenspeichernutzung des Caches in GB-Stunden zu ermitteln. Jeder ElastiCache serverlose Cache wird für mindestens 1 GB an gespeicherten Daten gemessen.

**ElastiCache Verarbeitungseinheiten () ECPUs**

Sie zahlen für die Anfragen, die Ihre Anwendung auf ElastiCache Serverless ausführt, in ElastiCache Processing Units (ECPUs), einer Einheit, die sowohl vCPU-Zeit als auch übertragene Daten beinhaltet. 
+ Einfache Lese- und Schreibvorgänge erfordern 1 ECPU für jedes Kilobyte (KB) übertragener Daten. Beispielsweise verbraucht ein GET-Befehl, der bis zu 1 KB Daten überträgt, 1 ECPU. Eine SET-Anfrage, die 3,2 KB an Daten überträgt, verbraucht 3,2 KB. ECPUs
+ Bei Valkey und Redis OSS werden Befehle, die mehr vCPU-Zeit verbrauchen und mehr Daten übertragen, auf der ECPUs Grundlage der höheren der beiden Dimensionen verbraucht. Wenn Ihre Anwendung beispielsweise den Befehl HMGET verwendet, die dreifache vCPU-Zeit wie ein einfacher SET/GET Befehl verbraucht und 3,2 KB an Daten überträgt, verbraucht sie 3,2 ECPU. Wenn sie jedoch nur 2 KB an Daten überträgt, verbraucht sie 3 KB. ECPUs 
+ Mit Valkey und Redis OSS verbrauchen Befehle, die zusätzliche vCPU-Zeit benötigen, proportional mehr. ECPUs Wenn Ihre Anwendung beispielsweise den Befehl Valkey oder Redis OSS [HMGET verwendet und als einfacher SET/GET Befehl](https://valkey.io/commands/hmget/) das Dreifache der vCPU-Zeit verbraucht, verbraucht sie 3. ECPUs 
+ Mit Memcached verbrauchen Befehle, die auf mehrere Elemente angewendet werden, proportional mehr. ECPUs Wenn Ihre Anwendung beispielsweise ein Multiget für 3 Elemente ausführt, verbraucht sie 3 Objekte. ECPUs
+ Bei Memcached werden Befehle, die auf mehr Elemente angewendet und mehr Daten übertragen, auf der ECPUs Grundlage der höheren der beiden Dimensionen verbraucht. Wenn Ihre Anwendung beispielsweise den Befehl GET verwendet, 3 Elemente abruft und 3,2 KB Daten überträgt, verbraucht sie 3,2 ECPU. Wenn nur 2 KB an Daten übertragen werden, werden alternativ 3 KB verbraucht. ECPUs

ElastiCache Serverless gibt eine neue Metrik mit dem Namen aus`ElastiCacheProcessingUnits`, die Ihnen hilft, zu verstehen, wie viel Ihr ECPUs Workload verbraucht. 

**Knotenstunden**

Sie können einen knotenbasierten Cluster erstellen, indem Sie die EC2 Knotenfamilie, Größe, Anzahl der Knoten und die Platzierung in den Availability Zones auswählen. Bei der Erstellung eines knotenbasierten Clusters zahlen Sie pro Stunde für jeden Cache-Knoten. 

### ElastiCache Backups
-Snapshots

Ein *Backup* ist eine point-in-time Kopie eines serverlosen Caches oder eines knotenbasierten Valkey- oder Redis OSS-Clusters. ElastiCache ermöglicht es Ihnen, jederzeit eine Sicherungskopie Ihrer Daten zu erstellen oder automatische Backups einzurichten. Backups können zur Wiederherstellung eines bestehenden Caches oder zum Seeding eines neuen Caches verwendet werden. Backups umfassen alle Daten in einem Cache sowie zusätzlich einige Metadaten. Weitere Informationen finden Sie unter [Snapshot und Wiederherstellung](backups.md).

# Auswählen aus den Bereitstellungsoptionen
Auswählen aus den Bereitstellungsoptionen

Amazon ElastiCache bietet zwei Bereitstellungsoptionen:
+ Serverless-Caching
+ Knotenbasierte Cluster

Eine Liste der unterstützten Befehle für beide finden Sie unter. [Unterstützte und eingeschränkte Valkey-, Memcached- und Redis OSS-Befehle](SupportedCommands.md)

**Serverless-Caching**

Amazon ElastiCache Serverless vereinfacht die Cache-Erstellung und lässt sich sofort skalieren, um die anspruchsvollsten Anwendungen der Kunden zu unterstützen. Mit ElastiCache Serverless können Sie in weniger als einer Minute einen hochverfügbaren und skalierbaren Cache erstellen, sodass Sie keine Cluster-Kapazität bereitstellen, planen und verwalten müssen. ElastiCache Serverless speichert Daten automatisch redundant in drei Availability Zones und bietet ein Service Level Agreement (SLA) mit einer Verfügbarkeit von 99,99%. Backups von nodenbasierten Valkey- oder Redis OSS-Clustern können in einer serverlosen Konfiguration wiederhergestellt werden.

**Knotenbasierte Cluster**

Wenn Sie eine detaillierte Kontrolle über Ihren Valkey-, Memcached- oder Redis OSS-Cluster benötigen, können Sie einen knotenbasierten Cluster mit erstellen. ElastiCache Sie wählen den Knotentyp, die Anzahl der Knoten und die Platzierung der Knoten in den Availability Zones für Ihren Cluster.AWS Da es ElastiCache sich um einen vollständig verwalteten Service handelt, hilft er bei der Verwaltung der Hardwarebereitstellung, der Überwachung, des Austauschs von Knoten und des Software-Patches für Ihren Cluster. Knotenbasierte Cluster können so konzipiert werden, dass sie eine Verfügbarkeit von bis zu 99,99% bieten. Backups aus serverlosen Valkey- oder Redis OSS-Caches können in einem knotenbasierten Cluster wiederhergestellt werden.

**Auswählen aus den Bereitstellungsoptionen**

Wählen Sie Serverless-Caching in folgenden Fällen:
+ Sie erstellen einen Cache für Workloads, die entweder neu oder schwer vorhersehbar sind.
+ Sie haben unvorhersehbaren Anwendungsverkehr.
+ Sie möchten den einfachsten Einstieg in die Arbeit mit einem Cache.

Erstellen Sie Ihren eigenen knotenbasierten Cluster, wenn:
+ Sie verwenden bereits ElastiCache Serverless und möchten eine genauere Kontrolle über den Knotentyp, auf dem Valkey, Memcached oder Redis OSS ausgeführt wird, die Anzahl der Knoten und die Platzierung dieser Knoten. 
+ Sie erwarten, dass Ihr Anwendungsdatenverkehr relativ vorhersehbar ist, und Sie möchten eine genaue Kontrolle über Leistung, Verfügbarkeit und Kosten. 
+ Sie können Ihre Kapazitätsanforderungen vorhersagen, um Kosten zu kontrollieren.

## Vergleich von serverlosem Caching und knotenbasierten Clustern
Funktionen im Vergleich


| Feature | Serverless-Caching | Knotenbasierte Cluster | 
| --- | --- | --- | 
|  Cache-Einrichtung  |  Erstellen Sie in weniger als einer Minute einen Cache mit nur einem Namen  |  Bietet eine detaillierte Kontrolle über das Cluster-Design. Der Benutzer kann den Knotentyp, die Anzahl der Knoten und die Platzierung in den Availability Zones wählen AWS  | 
|  Unterstützte Version ElastiCache   |  Valkey 7.2 und höher, Redis OSS Version 7.1 und höher, Memcached 1.6.21 und höher  |  Valkey 7.2 und höher, Redis OSS Version 4.0 und höher, Memcached 1.4 und höher  | 
|  Cluster-Modus (Valkey und Redis OSS)  |  Betreibt Motoren nur in`cluster mode enabled`. Clients müssen die Verbindung `cluster mode enabled` zu ElastiCache Serverless unterstützen.  |  Kann so konfiguriert werden, dass der Clustermodus aktiviert oder der Clustermodus deaktiviert ist.  | 
|  Skalierung  |  Skaliert Engines automatisch sowohl vertikal als auch horizontal ohne Kapazitätsmanagement.  |  Ermöglicht die Kontrolle über die Skalierung und erfordert gleichzeitig eine Überwachung, um sicherzustellen, dass die aktuelle Kapazität dem Bedarf angemessen entspricht. Für Valkey und Redis OSS können Sie wählen, ob Sie vertikal skalieren möchten, indem Sie die Größe des Cache-Knotens bei Bedarf erhöhen oder verringern. Sie können auch horizontal skalieren, indem Sie neue Shards oder weitere Replikate zu Ihren Shards hinzufügen. Diese Funktion ist für Memcached nicht verfügbar. Mit der Auto-Scaling-Funktion können Sie die Skalierung auch auf der Grundlage eines Zeitplans oder anhand von Messwerten wie der CPU- und Speicherauslastung im Cache konfigurieren.  | 
|  Client-Verbindung  |  Clients stellen eine Verbindung zu einem einzelnen Endpunkt her. Dadurch kann die zugrunde liegende Cache-Knotentopologie (Skalierung, Austausch und Upgrades) geändert werden, ohne dass die Verbindung zum Client unterbrochen wird.  |  Clients stellen eine Verbindung zu jedem einzelnen Cache-Knoten her. Wenn ein Knoten ersetzt wird, erkennt der Client die Clustertopologie erneut und stellt die Verbindungen wieder her.  | 
|  Konfigurierbarkeit  |  Keine detaillierte Konfiguration verfügbar. Kunden können grundlegende Einstellungen konfigurieren, darunter Subnetze, die auf den Cache zugreifen können, ob automatische Backups aktiviert oder deaktiviert werden, und maximale Cache-Nutzungsbeschränkungen.   |  Knotenbasierte Cluster bieten detaillierte Konfigurationsoptionen. Kunden können Parametergruppen für eine detaillierte Steuerung verwenden. Eine Tabelle dieser Parameterwerte nach Knotentyp finden Sie unter [Motorspezifische Parameter](ParameterGroups.Engine.md).  | 
|  Multi-AZ  |  Daten werden asynchron über mehrere Availability Zones repliziert, um eine höhere Verfügbarkeit und eine verbesserte Leselatenz zu erreichen.  |  Bietet eine Option zum Erstellen des Clusters in einer einzelnen Availability Zone oder in mehreren Availability Zones ()AZs. Bietet bei Verwendung von Valkey oder Redis OSS Multi-AZ-Cluster mit Daten, die asynchron über mehrere Availability Zones repliziert werden, um eine höhere Verfügbarkeit und eine verbesserte Leselatenz zu erzielen.  | 
|  Verschlüsselung im Ruhezustand  |  Immer aktiviert. Kunden können einen Von AWS verwalteter Schlüssel oder einen vom Kunden verwalteten Schlüssel in verwenden AWS KMS.  |  Option zum Aktivieren oder Deaktivieren der Verschlüsselung im Ruhezustand. Wenn diese Option aktiviert ist, können Kunden einen Von AWS verwalteter Schlüssel oder einen vom Kunden verwalteten Schlüssel in verwenden AWS KMS.   | 
|  Verschlüsselung bei der Übertragung (TLS)  |  Immer aktiviert. Clients müssen TLS-Konnektivität unterstützen.   |  Option zum Aktivieren oder Deaktivieren.  | 
|  Sicherungen  |  Unterstützt automatische und manuelle Backups von Caches ohne Leistungseinbußen. Valkey- und Redis OSS-Backups sind untereinander kompatibel und können in einem ElastiCache serverlosen Cache oder einem knotenbasierten Cluster wiederhergestellt werden.  |  Unterstützt automatische und manuelle Backups für Valkey und Redis OSS. Bei Clustern kann es je nach verfügbarem reservierten Speicher zu Leistungseinbußen kommen. Weitere Informationen finden Sie unter [Verwaltung von reserviertem Speicher für Valkey und Redis OSS](redis-memory-management.md). Valkey- und Redis OSS-Backups sind untereinander kompatibel und können in einem ElastiCache serverlosen Cache oder einem knotenbasierten Cluster wiederhergestellt werden.  | 
|  Überwachen  |  Support Metriken auf Cache-Ebene, einschließlich Cache-Trefferquote, Cache-Fehlrate, Datengröße und ECPUs verbrauchter Daten. ElastiCache Serverless sendet Ereignisse und verwendet dabei den EventBridge Zeitpunkt, an dem signifikante Ereignisse in Ihrem Cache auftreten. Sie können wählen, ob Sie ElastiCache Ereignisse mithilfe von Amazon EventBridge überwachen, aufnehmen, transformieren und darauf reagieren möchten. Weitere Informationen finden Sie unter [Serverless-Cache-Ereignisse](serverless-metrics-events-redis.md#serverless-events).  |  Knotenbasierte ElastiCache Cluster geben Metriken auf jeder Knotenebene aus, darunter sowohl Metriken auf Host-Ebene als auch Cache-Metriken. Knotenbasierte Cluster senden SNS-Benachrichtigungen für wichtige Ereignisse aus. Siehe [Metriken für Memcached](CacheMetrics.Memcached.md) und [Metriken für Valkey und Redis OSS](CacheMetrics.Redis.md).  | 
|  Verfügbarkeit  |  [Service Level](https://aws.amazon.com/elasticache/sla/) Agreement (SLA) mit einer Verfügbarkeit von 99,99%  |  Knotenbasierte Cluster können so konzipiert werden, dass sie je nach Konfiguration ein [Service Level Agreement (SLA)](https://aws.amazon.com/elasticache/sla/) mit einer Verfügbarkeit von bis zu 99,99% erreichen.  | 
|  Software-Upgrades und Patches  |  Führt ein automatisches Upgrade der Cache-Software auf die neueste Minor- und Patch-Version durch, ohne dass sich dies auf die Anwendung auswirkt. Kunden erhalten eine Benachrichtigung über Hauptversions-Upgrades, und Kunden können jederzeit auf die neueste Hauptversion aktualisieren.  |  Knotenbasierte Cluster bieten kundenseitig aktivierten Self-Service für kleinere und patchende Versions-Upgrades sowie für Hauptversions-Upgrades. Verwaltete Updates werden automatisch während der vom Kunden definierten Wartungsfenster installiert. Kunden können auch wählen, ob sie bei Bedarf ein Upgrade auf eine Nebenversion oder eine Patch-Version durchführen möchten.   | 
|  Globaler Datenspeicher   |  Nicht unterstützt   |  Unterstützt Global Data Store, der eine regionsübergreifende Replikation mit Schreibvorgängen in einer Region und Lesevorgängen in mehreren Regionen ermöglicht  | 
|  Datenklassifizierung  |  Nicht unterstützt  |  Bei Clustern, die mithilfe von Knoten der R6GD-Familie erstellt werden, werden die Daten zwischen Arbeitsspeicher und lokalem SSD-Speicher (Solid State Drives) aufgeteilt. Data Tiering bietet eine preisgünstige Option für Valkey- und Redis-OSS-Workloads, da neben der Speicherung von Daten im Arbeitsspeicher auch kostengünstigere Solid-State-Laufwerke (SSDs) in jedem Clusterknoten verwendet werden.  | 
|  Preismodell  |  Pay-per-use, basierend auf Daten, die in GB-Stunden gespeichert sind, und Anfragen in Processing Units (ECPU). ElastiCache Weitere Informationen zu Preisen finden Sie [hier](https://aws.amazon.com/elasticache/pricing/).  |  Pay-per-hour, basierend auf der Nutzung des Cache-Knotens. Weitere Informationen zu Preisen finden Sie [hier](https://aws.amazon.com/elasticache/pricing/).  | 

Verwandte Themen:
+ [Einen knotenbasierten Cluster erstellen und verwalten ElastiCacheEinen knotenbasierten Cluster erstellen und verwalten ElastiCache ](designing-elasticache-cluster.md)

# ElastiCache Amazon-Ressourcen für Erstnutzer
ElastiCache Ressourcen

Wir empfehlen Erstbenutzern, mit der Lektüre der folgenden Abschnitte zu beginnen und bei Bedarf darauf zurückzugreifen.
+ **Leistungsmerkmale und Preise** — Die [Produktdetailseite](https://aws.amazon.com/elasticache/) bietet einen allgemeinen Produktüberblick über ElastiCache die wichtigsten Dienstleistungen und die Preisgestaltung.
+ **ElastiCache Videos** — [ElastiCache Videos](Tutorials.md#tutorial-videos) In diesem Bereich finden Sie Videos, die Ihnen Amazon vorstellen ElastiCache. Die Videos behandeln allgemeine Anwendungsfälle ElastiCache und zeigen, wie Sie ElastiCache damit die Latenz reduzieren und den Durchsatz Ihrer Anwendungen verbessern können.
+ **Erste Schritte** — Dieser [Erste Schritte mit Amazon ElastiCache](GettingStarted.md) Abschnitt enthält Informationen zum Erstellen eines Caches. Außerdem erfahren Sie, wie Sie den Zugriff auf den Cache autorisieren, eine Verbindung zu einem Cache-Knoten herstellen und den Cache löschen.
+ **Skalierbare Leistung** — Das ElastiCache Whitepaper [Performance at Scale with Amazon befasst sich mit](https://d0.awsstatic.com/whitepapers/performance-at-scale-with-amazon-elasticache.pdf) Caching-Strategien, die dazu beitragen, dass Ihre Anwendung im großen Maßstab eine gute Leistung erbringt.

Wenn Sie die vorhergehenden Abschnitte abgeschlossen haben, lesen die folgenden:
+ [Auswahl der Knotengröße](CacheNodes.SelectSize.md)

  Knoten müssen so groß dimensioniert sein, dass sie alle Daten speichern können, die in den Cache aufgenommen werden sollen. Dabei möchten Sie auch nicht für mehr Cache bezahlen, als Sie benötigen. In diesem Thema finden Sie Informationen zur Auswahl der optimalen Knotengröße.
+ [ElastiCache Best Practices und Caching-Strategien](BestPractices.md)

  Identifizieren und Beheben von Problemen, die sich auf die Effizienz Ihres Clusters auswirken können.

Wenn Sie das AWS Command Line Interface(AWS CLI) verwenden möchten, können Sie die folgenden Dokumente verwenden, um Ihnen den Einstieg zu erleichtern:
+ [AWS Command Line Interface Dokumentation](https://docs.aws.amazon.com/cli/)

  Dieser Abschnitt enthält Informationen zum Herunterladen von AWS CLI, zum AWS CLI Betrieb auf Ihrem System und zum Eingeben Ihrer AWS Anmeldeinformationen.
+ [AWS CLI Dokumentation für ElastiCache](https://docs.aws.amazon.com/cli/latest/reference/elasticache/index.html)

  Dieses separate Dokument behandelt alle ElastiCache Befehle AWS CLI für, einschließlich Syntax und Beispielen.

Sie können Anwendungsprogramme schreiben, um die ElastiCache API mit einer Vielzahl gängiger Programmiersprachen zu verwenden. Nachfolgend finden Sie einige Ressourcen:
+ [Tools für Amazon Web Services](https://aws.amazon.com/tools/)

  Amazon Web Services bietet eine Reihe von Software Development Kits (SDKs) mit Unterstützung für ElastiCache. Sie können für die ElastiCache Verwendung von Java, .NET, PHP, Ruby und anderen Sprachen programmieren. Diese SDKs können Ihre Anwendungsentwicklung erheblich vereinfachen, indem sie Ihre Anfragen formatieren ElastiCache, Antworten analysieren und Wiederholungslogik und Fehlerbehandlung bereitstellen. 
+ [Die ElastiCache API verwenden](ProgrammingGuide.md)

  Wenn Sie das nicht verwenden möchten AWS SDKs, können Sie ElastiCache direkt über die Abfrage-API mit ihnen interagieren. In diesem Abschnitt finden Sie auch Tipps zur Fehlerbehebung sowie Informationen zur Erstellung und Authentifizierung von Anfragen und der Behandlung von Antworten. 
+ [ ElastiCache Amazon-API-Referenz](https://docs.aws.amazon.com/AmazonElastiCache/latest/APIReference/)

  Dieses separate Dokument behandelt alle ElastiCache API-Operationen, einschließlich Syntax und Beispielen.

# AWS Regionen und Verfügbarkeitszonen
AWS Regionen und Verfügbarkeitszonen

Amazon Cloud Computing-Ressourcen sind in hochverfügbaren Rechenzentren in verschiedenen Regionen der Welt untergebracht (zum Beispiel in Nordamerika, Europa oder Asien). Jeder Rechenzentrumsstandort wird als AWS Region bezeichnet.

Jede AWS Region enthält mehrere unterschiedliche Standorte, die als Availability Zones oder bezeichnet AZs werden. Jede Availability Zone ist so aufgebaut, dass sie von Fehlern in anderen Availability Zones nicht betroffen ist. Jede ist so konzipiert, dass sie kostengünstige Netzwerkkonnektivität mit niedriger Latenz zu anderen Availability Zones in derselben AWS Region bietet. Indem Instances in separaten Availability Zones gestartet werden, können Sie Ihre Anwendungen vor den Fehlern eines einzelnen Standorts schützen. Weitere Informationen finden Sie unter [Auswählen von Regionen und Availability Zones](RegionsAndAZs.md).

Sie können Ihren Cluster in mehreren Availability Zones erstellen, eine Option, die als Multi-AZ-Bereitstellung bezeichnet wird. Wenn Sie diese Option wählen, stellt Amazon automatisch eine sekundäre Standby-Knoten-Instance in einer anderen Availability Zone bereit und verwaltet sie. Ihre Primärknoten-Instance wird asynchron über Availability Zones auf die sekundäre Instance repliziert. Dieser Ansatz trägt dazu bei, Datenredundanz und Failover-Unterstützung bereitzustellen, Blockierungen zu vermeiden I/O und Latenzspitzen bei Systemsicherungen zu minimieren. Weitere Informationen finden Sie unter [Minimierung von Ausfallzeiten in Valkey und Redis OSS mit ElastiCache Multi-AZ](AutoFailover.md).

# Häufige ElastiCache Anwendungsfälle und wie ElastiCache Sie helfen können
Anwendungsfälle

Ob es sich um die neuesten Nachrichten, eine Top-10-Rangliste, einen Produktkatalog oder den Verkauf von Eintrittskarten für eine Veranstaltung handelt - Geschwindigkeit ist das A und O. Der Erfolg Ihrer Website und Ihres Unternehmens hängt stark von der Geschwindigkeit ab, mit der Sie Inhalte bereitstellen. 

In dem Artikel "[Für ungeduldige Internetnutzer ist ein Augenzwinkern einfach zu lang, um zu warten](http://www.nytimes.com/2012/03/01/technology/impatient-web-users-flee-slow-loading-sites.html?pagewanted=all&_r=0)" stellte die New York Times fest, dass die Nutzer einen Unterschied von 250 Millisekunden (1/4 Sekunde) zwischen konkurrierenden Websites registrieren können. Die Nutzer neigen dazu, die langsamere Seite zugunsten der schnelleren Seite zu verlassen. Tests bei Amazon, die in dem Artikel [Wie die Ladezeit von Webseiten mit dem Verlust von Besuchern zusammenhängt](http://pearanalytics.com/blog/2009/how-webpage-load-time-related-to-visitor-loss/) zitiert werden, ergaben, dass für jede Erhöhung der Ladezeit um 100 ms (1/10 Sekunde) die Verkaufszahlen um 1 Prozent sinken. 

Wenn jemand Daten wünscht, können Sie diese Daten viel schneller bereitstellen, wenn sie im Cache gespeichert sind. Das gilt sowohl für eine Webseite als auch für einen Bericht, der als Grundlage für Geschäftsentscheidungen dient. Kann es sich Ihr Unternehmen leisten, Ihre Webseiten nicht zwischenzuspeichern, um sie so mit der kürzestmöglichen Latenz bereitzustellen?

Es mag intuitiv einleuchtend erscheinen, dass Sie die am häufigsten nachgefragten Artikel in den Cache stellen wollen. Aber warum sollten Sie nicht auch weniger häufig angefragte Elemente zwischenspeichern? Selbst eine optimierte Datenbankabfrage oder ein Remote-API-Aufruf ist deutlich langsamer als das Abrufen eines flachen Schlüssels aus einem In-Memory-Cache. *Eine merkliche Verlangsamung* führt dazu, dass Kunden abwandern.

Die folgenden Beispiele veranschaulichen einige Möglichkeiten, wie die Verwendung die Gesamtleistung Ihrer Anwendung verbessern ElastiCache kann.

**Topics**
+ [

## In-Memory-Datastore
](#elasticache-use-cases-data-store)
+ [

## Bestenlisten für Spiele
](#elasticache-for-redis-use-cases-gaming)
+ [

## Nachrichtenübermittlung (Pub/Sub)
](#elasticache-for-redis-use-cases-messaging)
+ [

## Empfehlungsdaten (Hashes)
](#elasticache-for-redis-use-cases-recommendations)
+ [

## Semantisches Caching für generative KI-Anwendungen
](#elasticache-for-redis-use-cases-semantic-caching)
+ [

## ElastiCache Kundenreferenzen
](#elasticache-use-cases-testimonials)

## In-Memory-Datastore


Der primäre Zweck eines Hauptspeicher-basierten Key-Value Store besteht darin, superschnellen (mit einer Latenz von unter einer Millisekunde) und kostengünstigen Zugriff auf Kopien von Daten bereitzustellen. Die meisten Datenspeicher haben Bereiche mit Daten, auf die häufig zugegriffen wird, die aber selten aktualisiert werden. Außerdem wird das Abfragen einer Datenbank immer langsamer und kostspieliger sein als das Auffinden eines Schlüssels in einem Schlüsselwertpaar-Cache. Manche Datenbankabfragen sind besonders aufwendig in der Durchführung. Ein Beispiel dafür sind Abfragen, die Joins über mehrere Tabellen oder Abfragen mit intensiven Berechnungen beinhalten. Durch die Zwischenspeicherung solcher Abfrageergebnisse zahlen Sie den Preis für die Abfrage nur einmal. Dann können Sie die Daten schnell und mehrfach abrufen, ohne die Abfrage erneut ausführen zu müssen.

### Was sollte ich zwischenspeichern?


Bei der Entscheidung, welche Daten zwischengespeichert werden, sind folgende Faktoren zu berücksichtigen:

**Geschwindigkeit und Kosten** – Es ist immer langsamer und teurer, Daten aus einer Datenbank abzurufen als aus einem Cache. Manche Datenbankabfragen sind grundsätzlich langsamer und kostspieliger als andere. Beispielsweise sind Abfragen, bei denen mehrere Tabellen miteinander verknüpft werden, viel langsamer und teurer als einfache Abfragen, die nur eine Tabelle betreffen. Wenn die interessanten Daten eine langsame und teure Abfrage erfordern, sind sie ein Kandidat für das Caching. Wenn der Abruf der Daten eine relativ schnelle und einfache Abfrage erfordert, kann er je nach anderen Faktoren immer noch ein Kandidat für die Zwischenspeicherung sein.

**Daten und Zugriffsmuster** – Um zu bestimmen, was zwischengespeichert werden soll, müssen auch die Daten selbst und ihre Zugriffsmuster verstanden werden. So ist es beispielsweise nicht sinnvoll, Daten, die sich schnell ändern oder auf die nur selten zugegriffen wird, im Cache zu speichern. Damit die Zwischenspeicherung einen echten Nutzen bringt, sollten die Daten relativ statisch sein und häufig abgerufen werden. Ein Beispiel wäre ein persönliches Profil auf einer Social-Media-Website. Andererseits sollten Sie keine Daten zwischenspeichern, wenn das Zwischenspeichern keine Geschwindigkeits- oder Preisvorteile bringt. So ist es beispielsweise nicht sinnvoll, Webseiten, die Suchergebnisse liefern, in den Cache zu stellen, da die Abfragen und Ergebnisse in der Regel einzigartig sind.

**Unvergänglichkeit** – Per Definition sind zwischengespeicherte Daten veraltete Daten. Selbst wenn es unter bestimmten Umständen nicht veraltet ist, sollte es immer als veraltet betrachtet und behandelt werden. Um festzustellen, ob Ihre Daten für die Zwischenspeicherung geeignet sind, müssen Sie die Toleranz Ihrer Anwendung gegenüber veralteten Daten ermitteln. 

Es kann sein, dass Ihre Anwendung veraltete Daten in dem einen Kontext tolerieren kann, nicht jedoch in einem anderen. Nehmen wir zum Beispiel an, dass Ihre Website einen öffentlich gehandelten Aktienkurs anbietet. Ihre Kunden könnten eine gewisse Unbeständigkeit akzeptieren, wenn sie darauf hingewiesen werden, dass sich die Preise um *n* Minuten verzögern können. Aber wenn Sie diesen Aktienkurs einem Broker für einen Kauf oder Verkauf zur Verfügung stellen, benötigen Sie Echtzeitdaten.

Erwägen Sie die Zwischenspeicherung Ihrer Daten, wenn Folgendes zutrifft:
+ Der Abruf Ihrer Daten ist im Vergleich zum Abruf aus dem Cache langsam oder teuer.
+ Benutzer greifen häufig auf Ihre Daten zu.
+ Ihre Daten bleiben relativ konstant, oder wenn sie sich schnell ändern, ist die Unbeständigkeit kein großes Problem.

Weitere Informationen finden Sie unter [Caching-Strategien für Memcached](Strategies.md).

## Bestenlisten für Spiele


Mit sortierten Sets von Valkey oder Redis OSS können Sie die Rechenkomplexität von Bestenlisten von Ihrer Anwendung auf Ihren Cluster verlagern.

Bestenlisten, wie z. B. die 10 besten Ergebnisse eines Spiels, sind rechenintensiv. Dies gilt vor allem bei einer großen Anzahl gleichzeitiger Spieler und sich ständig ändernden Spielständen. Die sortierten Sätze von Valkey und Redis OSS garantieren sowohl Einzigartigkeit als auch Reihenfolge der Elemente. Bei sortierten Sätzen wird jedes Mal, wenn ein neues Element zur sortierten Menge hinzugefügt wird, dieses in Echtzeit neu eingestuft. Es wird dann in der numerisch richtigen Reihenfolge in die Menge eingefügt. 

In der folgenden Abbildung können Sie sehen, wie eine ElastiCache Gaming-Bestenliste funktioniert.

![\[\]](http://docs.aws.amazon.com/de_de/AmazonElastiCache/latest/dg/images/ElastiCache-Redis-Gaming.png)


**Example Valkey oder Redis OSS-Bestenliste**  
In diesem Beispiel werden vier Spieler und ihre Ergebnisse mithilfe von `ZADD` in eine sortierte Liste eingegeben. Der Befehl `ZREVRANGEBYSCORE` listet die Spieler in absteigender Reihenfolge entsprechend ihrem Ergebnis auf. Als Nächstes wird `ZADD` verwendet, um das Ergebnis von June zu aktualisieren, indem der bestehende Eintrag überschrieben wird. Zum Schluss werden die Spieler von `ZREVRANGEBYSCORE` nach ihrer Punktzahl aufgelistet, von hoch bis niedrig. Die Liste zeigt, dass June in der Rangliste aufgestiegen ist.  

```
ZADD leaderboard 132 Robert
ZADD leaderboard 231 Sandra
ZADD leaderboard 32 June
ZADD leaderboard 381 Adam
			
ZREVRANGEBYSCORE leaderboard +inf -inf
1) Adam
2) Sandra
3) Robert
4) June

ZADD leaderboard 232 June

ZREVRANGEBYSCORE leaderboard +inf -inf
1) Adam
2) June
3) Sandra
4) Robert
```
Mit dem folgenden Befehl erfährt June, auf welchem Platz sie unter allen Spielern steht. Da die Rangliste auf der Basis von Nullen erstellt wird, ergibt *ZREVRANK* eine 1 für June, die an zweiter Stelle steht.  

```
ZREVRANK leaderboard June 
1
```

Weitere Informationen finden Sie in der [Valkey-Dokumentation](https://valkey.io/topics/sorted-sets/) zu sortierten Sets.

## Nachrichtenübermittlung (Pub/Sub)


Wenn Sie eine E-Mail-Nachricht versenden, senden Sie sie an mindestens einen angegebenen Empfänger. Im Pub/Sub-Paradigma von Valkey und Redis OSS senden Sie eine Nachricht an einen bestimmten Kanal, ohne zu wissen, wer, wenn überhaupt, sie empfängt. Die Nachricht wird nur an die Personen gesendet, die den Kanal abonniert haben. Angenommen, Sie haben etwa den *news.sports.golf*-Channel abonniert. Sie und alle anderen, die den Kanal *news.sports.golf* abonniert haben, erhalten alle auf *news.sports.golf* veröffentlichten Nachrichten.

Die Pub/Sub-Funktionalität hat nichts mit einem Schlüsselraum zu tun. Daher gibt es auf keinem Level Beeinträchtigungen. In der folgenden Abbildung finden Sie eine Abbildung des ElastiCache Messagings mit Valkey und Redis OSS.

![\[\]](http://docs.aws.amazon.com/de_de/AmazonElastiCache/latest/dg/images/ElastiCache-Redis-PubSub.png)


### Abonnieren


Um Nachrichten in einem Kanal zu erhalten, abonnieren Sie den Kanal. Sie können einen einzelnen Channel, mehrere spezielle Channels oder alle Channels, die einem Muster entsprechen, abonnieren. Um ein Abonnement zu kündigen, melden Sie sich von dem Kanal ab, den Sie abonniert haben. Wenn Sie sich mit Hilfe eines Musterabgleichs angemeldet haben, können Sie sich auch mit demselben Muster wieder abmelden, das Sie zuvor verwendet haben.

**Example – Abonnement eines einzelnen Channels**  
Um einen einzelnen Channel zu abonnieren, verwenden Sie den SUBSCRIBE-Befehl unter Angabe des Channels, den Sie abonnieren möchten. Im folgenden Beispiel abonniert ein Client den Channel *news.sports.golf*.  

```
SUBSCRIBE news.sports.golf
```
Nach einer Weile kündigt der Client das Abonnement für den Channel mithilfe des UNSUBSCRIBE-Befehls unter Angabe des Channels, dessen Abonnement gekündigt werden soll.  

```
UNSUBSCRIBE news.sports.golf
```

**Example – Abonnement mehrerer ausgewählter Channels**  
Um mehrere bestimmte Channels zu abonnieren, listen Sie die Channels mit dem SUBSCRIBE-Befehl auf. Im folgenden Beispiel abonniert ein Client die Channels *news.sports.golf*, *news.sports.soccer* und *news.sports.skiing*.  

```
SUBSCRIBE news.sports.golf news.sports.soccer news.sports.skiing
```
Um ein Abonnement für einen bestimmten Kanal zu kündigen, verwenden Sie den Befehl UNSUBSCRIBE und geben Sie den Kanal an, von dem Sie sich abmelden möchten.  

```
UNSUBSCRIBE news.sports.golf
```
Um Abonnements für mehrere Kanäle zu kündigen, verwenden Sie den Befehl UNSUBSCRIBE und geben Sie die Kanäle an, die Sie abbestellen möchten.  

```
UNSUBSCRIBE news.sports.golf news.sports.soccer
```
Um alle Abonnements zu kündigen, verwenden Sie `UNSUBSCRIBE` und geben Sie jeden Kanal an. Oder verwenden Sie `UNSUBSCRIBE` ohne einen Kanal anzugeben.  

```
UNSUBSCRIBE news.sports.golf news.sports.soccer news.sports.skiing
```
oder  

```
UNSUBSCRIBE
```

**Example – Abonnements mithilfe von Musterabgleich**  
Clients können alle Channels abonnieren, die einem Muster entsprechen, indem sie den PSUBSCRIBE-Befehl verwenden.  
Im folgenden Beispiel abonniert ein Client alle Sport-Channels. Sie listen nicht alle Sportkanäle einzeln auf, wie Sie es bei `SUBSCRIBE` tun. Mit dem `PSUBSCRIBE`-Befehl verwenden Sie stattdessen den Mustervergleich.  

```
PSUBSCRIBE news.sports.*
```

**Example Kündigen von Abonnements**  
Um Abonnements für diese Channels zu kündigen, verwenden Sie den `PUNSUBSCRIBE`-Befehl.  

```
PUNSUBSCRIBE news.sports.*
```
+ Die Channel-Zeichenfolgen, die an einen [P]SUBSCRIBE-Befehl bzw. an den [P]UNSUBSCRIBE-Befehl gesendet werden, müssen übereinstimmen. `PSUBSCRIBE` zu *news.\$1* und `PUNSUBSCRIBE` von *news.sports.\$1* oder `UNSUBSCRIBE` von *news.sports.golf* ist nicht möglich.
+ `PSUBSCRIBE`und `PUNSUBSCRIBE` sind nicht für ElastiCache Serverless verfügbar.

### Veröffentlichen


Um eine Nachricht an alle Abonnenten eines Kanals zu senden, verwenden Sie den `PUBLISH`-Befehl, wobei Sie den Kanal und die Nachricht angeben. Im folgenden Beispiel wird diese Nachricht veröffentlicht: "Es ist Samstag und sonnig. Ich fahre zu den Links.“ auf den *news.sports.golf*-Kanal.

```
PUBLISH news.sports.golf "It's Saturday and sunny. I'm headed to the links."
```

Ein Client kann nicht auf einem Kanal veröffentlichen, den er abonniert hat.

Weitere Informationen finden Sie unter [Pub/Sub](https://valkey.io/topics/pubsub) in der Valkey-Dokumentation.

## Empfehlungsdaten (Hashes)


Die Verwendung von INCR oder DECR in Valkey oder Redis OSS macht das Kompilieren von Empfehlungen einfach. Immer dann, wenn Benutzer ein Produkt "liken", erhöhen Sie einen *item:productID:like*-Zähler. Immer dann, wenn Benutzer ein Produkt ein "disliken", erhöhen Sie einen *item:productID:dislike*-Zähler. Mithilfe von Hashes können Sie auch eine Liste aller Personen führen, denen ein Produkt gefallen oder nicht gefallen hat.

**Example – Likes und Dislikes**  

```
INCR item:38923:likes
HSET item:38923:ratings Susan 1
INCR item:38923:dislikes
HSET item:38923:ratings Tommy -1
```

## Semantisches Caching für generative KI-Anwendungen


Der Betrieb generativer KI-Anwendungen in großem Maßstab kann aufgrund der Kosten und der Latenz, die mit Inferenzaufrufen für große Sprachmodelle verbunden sind, eine Herausforderung sein (). LLMs Sie können es ElastiCache für semantisches Caching in generativen KI-Anwendungen verwenden, wodurch Sie die Kosten und die Latenz von LLM-Inferenzaufrufen reduzieren können. Mit semantischem Caching können Sie eine zwischengespeicherte Antwort zurückgeben, indem Sie mithilfe eines vektorbasierten Abgleichs Ähnlichkeiten zwischen aktuellen und früheren Eingabeaufforderungen ermitteln. Wenn die Eingabeaufforderung eines Benutzers einer vorherigen Aufforderung semantisch ähnelt, wird eine zwischengespeicherte Antwort zurückgegeben, anstatt einen neuen LLM-Inferenzaufruf zu tätigen. Dadurch werden die Kosten für generative KI-Anwendungen gesenkt und schnellere Antworten bereitgestellt, die die Benutzererfahrung verbessern. Sie können steuern, welche Abfragen an den Cache weitergeleitet werden, indem Sie Ähnlichkeitsschwellenwerte für Eingabeaufforderungen konfigurieren und Tagfilter oder numerische Metadatenfilter anwenden.

Die Inline-Indexaktualisierungen in Echtzeit, die von Vector Search for bereitgestellt werden ElastiCache , stellen sicher, dass der Cache kontinuierlich aktualisiert wird, wenn Benutzeraufforderungen und LLM-Antworten eingehen. Diese Indizierung in Echtzeit ist entscheidend, um die Aktualität der zwischengespeicherten Ergebnisse und die Cache-Trefferquoten aufrechtzuerhalten, insbesondere bei hohem Datenverkehr. Darüber hinaus ElastiCache vereinfacht sie Operationen für das semantische Caching durch ausgereifte Cache-Primitive wie konfigurierbare Entfernungsstrategien pro Schlüssel TTLs, atomare Operationen und umfangreiche Datenstruktur- und Skriptunterstützung.

**Speicher für generative KI-Assistenten und -Agenten**

Sie können ElastiCache es verwenden, um personalisiertere, kontextsensivere Antworten zu geben, indem Sie Speichermechanismen implementieren, die sitzungsübergreifende Konversationsverläufe anzeigen. LLMs Das Konversationsgedächtnis ermöglicht generativen KI-Assistenten und -Agenten, vergangene Interaktionen zu speichern und zu nutzen, um Antworten zu personalisieren und die Relevanz zu verbessern. Das bloße Zusammenfassen aller vorherigen Interaktionen in der Aufforderung ist jedoch ineffektiv, da irrelevante zusätzliche Token die Kosten erhöhen, die Antwortqualität verschlechtern und das Risiko bergen, das Kontextfenster des LLM zu überschreiten. Stattdessen können Sie die Vektorsuche verwenden, um für jeden LLM-Aufruf nur die relevantesten Daten im Kontext abzurufen und bereitzustellen.

ElastiCache for Valkey bietet Integrationen mit Open-Source-Speicherschichten und bietet integrierte Konnektoren zum Speichern und Abrufen von Speichern für LLM-Anwendungen und -Agenten. Die Vektorsuche für ElastiCache ermöglicht schnelle Indexaktualisierungen, hält den Speicher auf dem neuesten Stand und macht neue Speicher sofort durchsuchbar. Die Vektorsuche mit niedriger Latenz ermöglicht eine schnelle Speichersuche, sodass sie im Online-Pfad jeder Anfrage implementiert werden kann, nicht nur bei Hintergrundaufgaben. Neben der Vektorsuche bietet ElastiCache for Valkey auch Caching-Primitive für Sitzungsstatus, Benutzereinstellungen und Feature-Flags und bietet so einen einzigen Dienst zum Speichern von kurzlebigen Sitzungszuständen und langfristigen „Erinnerungen“ in einem Datenspeicher. 

**Erweiterte Generierung (Retrieval Augmented Generation)**

RAG ist der Prozess der Bereitstellung LLMs von up-to-date Informationen, um die Relevanz der Antworten zu verbessern. RAG reduziert Halluzinationen und verbessert die Genauigkeit der Fakten, indem es die Ergebnisse auf realen Datenquellen stützt. RAG-Anwendungen verwenden die Vektorsuche, um semantisch relevante Inhalte aus einer Wissensdatenbank abzurufen. Die von bereitgestellte Vektorsuche mit niedriger Latenz ElastiCache eignet sich für die Implementierung von RAG in Workloads mit großen Datensätzen mit Millionen von Vektoren und mehr. Darüber hinaus ElastiCache eignet sich die Unterstützung für Online-Vektorindex-Updates für Assistenten mit Upload-Workflows, die sicherstellen müssen, dass alle hochgeladenen Daten sofort durchsucht werden können. RAG stellt in KI-Systemen für Agenturen sicher, dass die Agenten up-to-date über Informationen verfügen, um präzise Maßnahmen ergreifen zu können. Die Vektorsuche mit niedriger Latenz ist auch für RAG in agentischen KI-Systemen von entscheidender Bedeutung, bei denen eine einzelne Abfrage mehrere LLM-Aufrufe auslösen und die Latenz der zugrunde liegenden Vektorsuche erhöhen kann. 

Das folgende Diagramm zeigt eine Beispielarchitektur, mit ElastiCache der ein semantischer Cache, Speichermechanismen und RAG implementiert werden, um eine generative KI-Anwendung in der Produktion zu verbessern.

![\[Diagramm einer semantischen Suche, wie sie von einem generativen KI-Assistenten durchgeführt wird.\]](http://docs.aws.amazon.com/de_de/AmazonElastiCache/latest/dg/images/vector-search-gen-ai1.png)


**Semantische Suche**

Die Vektorsuche ruft die relevantesten Text-, Sprach-, Bild- oder Videodaten auf der Grundlage ähnlicher Bedeutungen oder Merkmale ab. Diese Funktion ermöglicht Anwendungen für maschinelles Lernen, die auf der Ähnlichkeitssuche in verschiedenen Datenmodalitäten basieren, darunter Empfehlungsmaschinen, Anomalieerkennungs-, Personalisierungs- und Wissensmanagementsysteme. Empfehlungssysteme verwenden Vektordarstellungen, um komplexe Muster im Nutzerverhalten und in den Artikelmerkmalen zu erfassen, sodass sie die relevantesten Inhalte vorschlagen können. Die Vektorsuche nach eignet sich gut für diese Anwendungen, da sie fast in Echtzeit aktualisiert ElastiCache wird und die Latenz gering ist. Sie ermöglicht Ähnlichkeitsvergleiche, die sofortige, hochrelevante Empfehlungen auf der Grundlage von Benutzerinteraktionen in Echtzeit liefern.

## ElastiCache Kundenreferenzen


Weitere Informationen darüber, wie Unternehmen wie Airbnb, PBS, Esri und andere Amazon nutzen, ElastiCache um ihr Geschäft durch ein verbessertes Kundenerlebnis auszubauen, finden Sie unter [So nutzen andere](https://aws.amazon.com/elasticache/testimonials/) Amazon. ElastiCache

Sie können sich auch die [Tutorial-Videos](Tutorials.md#tutorial-videos) für weitere Anwendungsfälle von ElastiCache Kunden ansehen.