

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Comment ElastiCache fonctionne
<a name="WhatIs.corecomponents"></a>

Vous trouverez ici un aperçu des principaux composants d'un ElastiCache déploiement.

## Cache et moteurs de mise en cache
<a name="WhatIs.corecomponents.cache"></a>

Un cache est un magasin de données en mémoire que vous pouvez utiliser pour stocker des données mises en cache. En général, votre application met en cache les données fréquemment consultées dans un cache afin d'optimiser les temps de réponse. ElastiCache propose deux options de déploiement : les caches sans serveur et les clusters basés sur des nœuds. Consultez [Choix entre deux options de déploiement](WhatIs.deployment.md). 

**Note**  
Amazon ElastiCache fonctionne avec les moteurs Valkey, Memcached et Redis OSS. Si vous n'êtes pas sûr du moteur que vous souhaitez utiliser, consultez [Comparaison de clusters Valkey, Memcached et Redis OSS basés sur des nœuds](SelectEngine.md) dans ce guide.

**Topics**
+ [Comment ElastiCache fonctionne](#WhatIs.HowELCworks)
+ [Grille tarifaire](#WhatIs.ELCpricing)
+ [ElastiCache sauvegardes](#WhatIs.corecomponents.backups-redis)

### Comment ElastiCache fonctionne
<a name="WhatIs.HowELCworks"></a>

**ElastiCache Serverless (Sans serveur)**

ElastiCache Le mode Serverless vous permet de créer un cache sans vous soucier de la planification des capacités, de la gestion du matériel ou de la conception du cluster. Il vous suffit de donner un nom à votre cache et vous recevez un point de terminaison unique que vous pouvez configurer dans votre client Valkey, Memcached ou Redis OSS pour commencer à accéder à votre cache.

**Note**  
ElastiCache Serverless exécute Valkey, Memcached ou Redis OSS en mode cluster et n'est compatible qu'avec les clients prenant en charge le protocole TLS. 

**Principaux avantages**


+ **Aucune planification des capacités :** ElastiCache Serverless vous évite d'avoir à planifier la capacité. ElastiCache Serverless surveille en permanence l'utilisation de la mémoire, du calcul et de la bande passante réseau de votre cache et évolue à la fois verticalement et horizontalement. Il permet à un nœud de cache d’augmenter de taille, tout en lançant en parallèle une opération de montée en puissance afin de garantir que le cache puisse être mis à l’échelle conformément aux exigences de votre application à tout moment. 
+ **P ay-per-use :** Avec ElastiCache Serverless, vous payez pour les données stockées et le calcul utilisé par votre charge de travail dans le cache. Consultez [Grille tarifaire](#WhatIs.ELCpricing).
+ **Haute disponibilité :** ElastiCache Serverless réplique automatiquement vos données sur plusieurs zones de disponibilité (AZ) pour une haute disponibilité. Il surveille automatiquement les nœuds de cache sous-jacents et les remplace en cas de défaillance. Il offre un niveau de service (SLA) de disponibilité de 99,99 % pour chaque cache. 
+ **Mises à niveau logicielles automatiques :** ElastiCache Serverless met automatiquement à niveau votre cache vers la dernière version mineure et corrige le logiciel sans aucun impact sur la disponibilité de votre application. Lorsqu'une nouvelle version majeure sera disponible, je vous ElastiCache enverrai une notification. 
+ **Sécurité :** ElastiCache sans serveur chiffre toujours les données en transit et au repos. Vous pouvez utiliser une clé gérée par un service ou votre propre clé gérée par le client pour chiffrer les données au repos. 

Le schéma suivant illustre le fonctionnement de ElastiCache Serverless.

![\[Schéma du fonctionnement du cache ElastiCache sans serveur, des zones de disponibilité au VPC client, puis au VPC de service.\]](http://docs.aws.amazon.com/fr_fr/AmazonElastiCache/latest/dg/images/ELC-serverless-works1.png)


Lorsque vous créez un nouveau cache sans serveur, vous ElastiCache créez un point de terminaison Virtual Private Cloud (VPC) dans les sous-réseaux de votre choix dans votre VPC. Votre application peut se connecter au cache via ces points de terminaison de VPC. 

Avec ElastiCache Serverless, vous recevez un point de terminaison DNS unique auquel votre application se connecte. Lorsque vous demandez une nouvelle connexion au point de terminaison, ElastiCache Serverless gère toutes les connexions au cache via une couche proxy. La couche proxy permet de réduire la complexité de la configuration du client, car le client n’a pas besoin de redécouvrir la topologie du cluster en cas de modification du cluster sous-jacent. La couche proxy est un ensemble de nœuds proxy qui gèrent les connexions à l’aide d’un équilibreur de charge de réseau. 

Lorsque votre application crée une connexion au cache, la demande est envoyée à un nœud proxy par l’équilibreur de charge de réseau. Lorsque votre application exécute des commandes de cache, le nœud proxy connecté à votre application exécute les demandes sur un nœud de cache de votre cache. La couche proxy extrait la topologie du cluster et les nœuds de votre client. Cela permet d' ElastiCache équilibrer intelligemment la charge, d'étendre et d'ajouter de nouveaux nœuds de cache, de remplacer les nœuds de cache en cas de défaillance et de mettre à jour le logiciel sur les nœuds de cache, le tout sans impact sur la disponibilité de votre application ou sans avoir à réinitialiser les connexions. 

**Clusters basés sur des nœuds**

Vous pouvez créer un ElastiCache cluster basé sur des nœuds en choisissant une famille de nœuds de cache, une taille et un nombre de nœuds pour votre cluster. La création d'un cluster basé sur des nœuds vous donne un contrôle plus précis et vous permet de choisir le nombre de partitions dans votre cache et le nombre de nœuds (principaux et répliques) dans chaque partition. Vous pouvez choisir d'utiliser Valkey ou Redis OSS en mode cluster en créant un cluster avec plusieurs partitions, ou en mode non cluster avec une seule partition. 

**Principaux avantages**
+ **Créer un cluster basé sur des nœuds :** avec ElastiCache, vous pouvez créer un cluster basé sur des nœuds et choisir où vous souhaitez placer vos nœuds de cache. Par exemple, si vous souhaitez trouver un compromis entre haute disponibilité et faible latence pour votre application, vous pouvez choisir de déployer vos nœuds de cache dans une seule zone de disponibilité. Vous pouvez également créer un cluster basé sur des nœuds avec des nœuds répartis sur plusieurs AZs pour garantir une haute disponibilité. 
+ **Contrôle précis :** lorsque vous créez un cluster basé sur des nœuds, vous pouvez mieux contrôler le réglage précis des paramètres de votre cache. Par exemple, vous pouvez utiliser [Paramètres OSS Valkey et Redis](ParameterGroups.Engine.md#ParameterGroups.Redis) ou [Paramètres spécifiques Memcached](ParameterGroups.Engine.md#ParameterGroups.Memcached) configurer le moteur de cache.
+ **Mise à l’échelle verticale et horizontale :** vous pouvez choisir de mettre à l’échelle manuellement votre cluster en augmentant ou en diminuant la taille du nœud de cache selon vos besoins. Vous pouvez également effectuer une mise à l’échelle horizontale en ajoutant de nouvelles partitions ou d’autres réplicas à vos partitions. Vous pouvez également utiliser la fonction Auto-Scaling pour configurer le dimensionnement en fonction d'un calendrier ou en fonction de métriques telles que l'utilisation du processeur et de la mémoire dans le cache. 

Le schéma suivant illustre le fonctionnement des ElastiCache clusters basés sur des nœuds.

![\[Schéma du fonctionnement des clusters ElastiCache basés sur des nœuds, des zones de disponibilité au VPC du client, puis aux ElastiCache nœuds de cache gérés.\]](http://docs.aws.amazon.com/fr_fr/AmazonElastiCache/latest/dg/images/ELC-serverless-works2.png)


### Grille tarifaire
<a name="WhatIs.ELCpricing"></a>

Vous pouvez effectuer ElastiCache le déploiement selon deux options de déploiement. Lorsque vous déployez ElastiCache Serverless, vous payez l'utilisation des données stockées en Go par heure et le calcul en unités de ElastiCache traitement (ECPU). Lorsque vous créez un cluster basé sur un nœud, vous payez par heure d'utilisation du nœud de cache. Consultez les détails de la tarification en cliquant [ici](https://aws.amazon.com/elasticache/pricing/).

**Stockage de données**

Vous payez les données stockées dans ElastiCache Serverless, facturées en gigaoctets (GB-heures). ElastiCache Serverless surveille en permanence les données stockées dans votre cache, en échantillonnant plusieurs fois par minute, et calcule une moyenne horaire pour déterminer l'utilisation du stockage de données du cache en Go d'heures. Chaque cache ElastiCache sans serveur est mesuré pour un minimum de 1 Go de données stockées.

**ElastiCache Unités de traitement (ECPUs)**

Vous payez les requêtes que votre application exécute sur ElastiCache Serverless dans ElastiCache Processing Units (ECPUs), une unité qui inclut à la fois le temps de vCPU et les données transférées. 
+ Les lectures et écritures simples exigent 1 ECPU pour chaque kilo-octet (Ko) de données transféré. Par exemple, une commande GET qui transfère jusqu’à 1 Ko de données consomme 1 ECPU. Une requête SET qui transfère 3,2 Ko de données en consommera 3,2 ECPUs.
+ Avec Valkey et Redis OSS, les commandes qui consomment plus de temps de vCPU et transfèrent plus de données consomment en ECPUs fonction de la plus élevée des deux dimensions. Par exemple, si votre application utilise la commande HMGET, consomme 3 fois plus de temps vCPU qu'une SET/GET simple commande et transfère 3,2 Ko de données, elle consommera 3,2 ECPU. Sinon, s'il ne transfère que 2 Ko de données, il en consommera 3 ECPUs. 
+ Avec Valkey et Redis OSS, les commandes qui nécessitent un temps de vCPU supplémentaire consommeront proportionnellement plus. ECPUs Par exemple, si votre application utilise la [commande Valkey ou Redis OSS HMGET](https://valkey.io/commands/hmget/) et consomme 3 fois plus de temps de vCPU qu'une simple SET/GET commande, elle en consommera 3. ECPUs 
+ Avec Memcached, les commandes qui agissent sur plusieurs éléments consommeront proportionnellement plus. ECPUs Par exemple, si votre application exécute un multiget sur 3 éléments, elle en consommera 3 ECPUs.
+ Avec Memcached, les commandes qui agissent sur un plus grand nombre d'éléments et transfèrent plus de données consomment ECPUs en fonction de la plus élevée des deux dimensions. Par exemple, si votre application utilise la commande GET, récupère 3 éléments et transfère 3,2 Ko de données, elle consommera 3,2 ECPU. Sinon, s'il ne transfère que 2 Ko de données, il en consommera 3 ECPUs.

ElastiCache Serverless émet une nouvelle métrique appelée `ElastiCacheProcessingUnits` qui vous aide à comprendre la ECPUs consommation de votre charge de travail. 

**Heures d’utilisation des nœuds**

Vous pouvez créer un cluster basé sur des nœuds en choisissant la famille de EC2 nœuds, la taille, le nombre de nœuds et leur emplacement dans les zones de disponibilité. Lorsque vous créez un cluster basé sur des nœuds, vous payez par heure pour chaque nœud de cache. 

### ElastiCache sauvegardes
<a name="WhatIs.corecomponents.backups-redis"></a>

Une *sauvegarde* est une point-in-time copie d'un cache sans serveur ou d'un cluster basé sur un nœud Valkey ou Redis OSS. ElastiCache vous permet de sauvegarder vos données à tout moment ou de configurer des sauvegardes automatiques. Les sauvegardes peuvent être utilisées pour restaurer un cache existant ou pour alimenter un nouveau cache. Les sauvegardes sont constituées de toutes les données d’un cache, plus quelques métadonnées. Pour de plus amples informations, veuillez consulter [Instantané et restauration](backups.md).

# Choix entre deux options de déploiement
<a name="WhatIs.deployment"></a>

Amazon ElastiCache propose deux options de déploiement :
+ Mise en cache sans serveur
+ Clusters basés sur des nœuds

Pour obtenir la liste des commandes prises en charge pour les deux, consultez[Commandes Valkey, Memcached et Redis OSS prises en charge et restreintes](SupportedCommands.md).

**Mise en cache sans serveur**

Amazon ElastiCache Serverless simplifie la création de cache et s'adapte instantanément pour prendre en charge les applications les plus exigeantes des clients. Avec ElastiCache Serverless, vous pouvez créer un cache hautement disponible et évolutif en moins d'une minute, éliminant ainsi le besoin de provisionner, de planifier et de gérer la capacité du cluster. ElastiCache Serverless stocke automatiquement les données de manière redondante dans trois zones de disponibilité et fournit un accord de niveau de service (SLA) de disponibilité de 99,99 %. Les sauvegardes provenant de clusters basés sur des nœuds Valkey ou Redis OSS peuvent être restaurées dans une configuration sans serveur.

**Clusters basés sur des nœuds**

Si vous avez besoin d'un contrôle précis de votre cluster Valkey, Memcached ou Redis OSS, vous pouvez créer un cluster basé sur des nœuds avec. ElastiCache Vous choisissez le type de nœud, le nombre de nœuds et le placement des nœuds dans les zones de AWS disponibilité de votre cluster. Comme il ElastiCache s'agit d'un service entièrement géré, il permet de gérer le provisionnement du matériel, la surveillance, le remplacement des nœuds et les correctifs logiciels pour votre cluster. Les clusters basés sur des nœuds peuvent être conçus pour fournir un SLA de disponibilité allant jusqu'à 99,99 %. Les sauvegardes à partir de caches Valkey ou Redis OSS sans serveur peuvent être restaurées dans un cluster basé sur des nœuds.

**Choix entre deux options de déploiement**

Choisissez la mise en cache sans serveur si :
+ Vous créez un cache pour les charges de travail nouvelles ou difficiles à prévoir.
+ Le trafic de vos applications est imprévisible.
+ Vous cherchez la méthode la plus simple pour démarrer avec un cache.

Créez votre propre cluster basé sur des nœuds si :
+ Vous utilisez déjà ElastiCache Serverless et souhaitez mieux contrôler le type de nœud exécutant Valkey, Memcached ou Redis OSS, le nombre de nœuds et le placement de ces nœuds. 
+ Vous vous attendez à ce que le trafic de vos applications soit relativement prévisible et souhaitez un contrôle précis des performances, de la disponibilité et des coûts. 
+ Vous pouvez prévoir vos exigences de capacité pour contrôler les coûts.

## Comparaison de la mise en cache sans serveur et des clusters basés sur des nœuds
<a name="WhatIs.deployment.comparing"></a>


| Fonctionnalité | Mise en cache sans serveur | Clusters basés sur des nœuds | 
| --- | --- | --- | 
|  Configuration du cache  |  Créez un cache avec juste un nom en moins d'une minute  |  Permet un contrôle précis de la conception des clusters. L'utilisateur peut choisir le type de nœud, le nombre de nœuds et leur emplacement dans les zones de disponibilitéAWS  | 
|   ElastiCache Version prise en charge  |  Valkey 7.2 et supérieur, Redis OSS version 7.1 et supérieur, Memcached 1.6.21 et supérieur  |  Valkey 7.2 et supérieur, Redis OSS version 4.0 et supérieur, Memcached 1.4 et supérieur  | 
|  Mode cluster (Valkey et Redis OSS)  |  Ne fait fonctionner les moteurs `cluster mode enabled` qu'à l'intérieur. Les clients doivent prendre en charge `cluster mode enabled` la connexion à ElastiCache Serverless.  |  Peut être configuré pour fonctionner en mode cluster activé ou en mode cluster désactivé.  | 
|  Mise à l’échelle  |  Adapte automatiquement les moteurs à la fois verticalement et horizontalement sans aucune gestion de capacité.  |  Permet de contrôler la mise à l'échelle, tout en exigeant une surveillance pour s'assurer que la capacité actuelle répond correctement à la demande. Pour Valkey et Redis OSS, vous pouvez choisir d'effectuer une mise à l'échelle verticale en augmentant ou en diminuant la taille du nœud de cache selon les besoins. Vous pouvez également effectuer une mise à l'échelle horizontale, en ajoutant de nouveaux fragments ou en ajoutant d'autres répliques à vos fragments. Cette fonctionnalité n'est pas disponible pour Memcached. Grâce à la fonction Auto-Scaling, vous pouvez également configurer le dimensionnement en fonction d'un calendrier ou en fonction de mesures telles que l'utilisation du processeur et de la mémoire dans le cache.  | 
|  Connexion client  |  Les clients se connectent à un seul point de terminaison. Cela permet à la topologie du nœud de cache sous-jacent (dimensionnement, remplacements et mises à niveau) de changer sans déconnecter le client.  |  Les clients se connectent à chaque nœud de cache individuel. Si un nœud est remplacé, le client redécouvre la topologie du cluster et rétablit les connexions.  | 
|  Configurabilité  |  Aucune configuration précise n'est disponible. Les clients peuvent configurer les paramètres de base, notamment les sous-réseaux qui peuvent accéder au cache, si les sauvegardes automatiques sont activées ou non, et les limites d'utilisation maximale du cache.   |  Les clusters basés sur des nœuds fournissent des options de configuration détaillées. Les clients peuvent utiliser des groupes de paramètres pour un contrôle précis. Pour un tableau des valeurs de ces paramètres de type de nœud, consultez [Paramètres spécifiques au moteur](ParameterGroups.Engine.md).  | 
|  Multi-AZ  |  Les données sont répliquées de manière asynchrone sur plusieurs zones de disponibilité pour une meilleure disponibilité et une latence de lecture améliorée.  |  Fournit une option permettant de créer le cluster dans une seule zone de disponibilité ou dans plusieurs zones de disponibilité (AZs). Lorsque vous utilisez Valkey ou Redis OSS, fournit des clusters multi-AZ avec des données répliquées de manière asynchrone sur plusieurs zones de disponibilité pour une meilleure disponibilité et une latence de lecture améliorée.  | 
|  Chiffrement au repos  |  Toujours activé. Les clients peuvent utiliser une cléClé gérée par AWS ou une clé gérée par le client dans AWS KMS.  |  Option permettant d'activer ou de désactiver le chiffrement au repos. Lorsque cette option est activée, les clients peuvent utiliser une cléClé gérée par AWS ou une clé gérée par le client AWS KMS.   | 
|  Chiffrement en transit (TLS)  |  Toujours activé. Les clients doivent prendre en charge la connectivité TLS.   |  Option permettant d'activer ou de désactiver.  | 
|  Sauvegardes  |  Prend en charge les sauvegardes automatiques et manuelles des caches sans impact sur les performances. Les sauvegardes Valkey et Redis OSS sont compatibles entre elles et peuvent être restaurées dans un cache ElastiCache sans serveur ou dans un cluster basé sur des nœuds.  |  Supporte les sauvegardes automatiques et manuelles pour Valkey et Redis OSS. Les clusters peuvent avoir un impact sur les performances en fonction de la mémoire réservée disponible. Pour de plus amples informations, veuillez consulter [Gestion de la mémoire réservée pour Valkey et Redis OSS](redis-memory-management.md). Les sauvegardes Valkey et Redis OSS sont compatibles entre elles et peuvent être restaurées dans un cache ElastiCache sans serveur ou dans un cluster basé sur des nœuds.  | 
|  Contrôle  |  Support des mesures au niveau du cache, notamment le taux de réussite du cache, le taux d'échec du cache, la taille des données et la ECPUs consommation. ElastiCache Serverless envoie des événements EventBridge lorsque des événements importants se produisent dans votre cache. Vous pouvez choisir de surveiller, d'ingérer, de transformer les ElastiCache événements et d'agir en conséquence à l'aide d'Amazon EventBridge. Pour de plus amples informations, veuillez consulter [Événements pour les caches sans serveur](serverless-metrics-events-redis.md#serverless-events).  |   ElastiCache Les clusters basés sur des nœuds émettent des métriques au niveau de chaque nœud, notamment des métriques au niveau de l'hôte et des métriques du cache. Les clusters basés sur des nœuds émettent des notifications SNS pour les événements importants. Consultez [Métriques pour Memcached](CacheMetrics.Memcached.md) et [Métriques pour Valkey et Redis OSS](CacheMetrics.Redis.md).  | 
|  Disponibilité  |  [Contrat de niveau de service (SLA](https://aws.amazon.com/elasticache/sla/)) de disponibilité de 99,99 %  |  Les clusters basés sur des nœuds peuvent être conçus pour atteindre un [accord de niveau de service (SLA) de disponibilité allant jusqu'à 99,99 %, en fonction de la](https://aws.amazon.com/elasticache/sla/) configuration.  | 
|  Mises à niveau logicielles et application de correctifs  |  Met automatiquement à niveau le logiciel de cache vers la dernière version mineure et la dernière version du correctif, sans impact sur les applications. Les clients reçoivent une notification pour les mises à niveau des versions majeures, et les clients peuvent passer à la dernière version majeure quand ils le souhaitent.  |  Les clusters basés sur des nœuds offrent un libre-service activé par le client pour les mises à niveau de versions mineures et de correctifs, ainsi que pour les mises à niveau de versions majeures. Les mises à jour gérées sont automatiquement appliquées pendant les périodes de maintenance définies par le client. Les clients peuvent également choisir d'appliquer une mise à niveau de version mineure ou de correctif à la demande.   | 
|  Magasin de données mondial   |  Non pris en charge   |  Supporte le Global Data Store, qui permet la réplication entre régions avec des écritures dans une seule région et des lectures multirégionales  | 
|  Hiérarchisation des données  |  Non pris en charge  |  Les clusters créés à l'aide de nœuds de la famille r6gd voient leurs données hiérarchisées entre la mémoire et le stockage SSD (Solid State Drive) local. La hiérarchisation des données constitue une option rentable pour les charges de travail Valkey et Redis OSS en utilisant des disques SSD (SSDs) à moindre coût dans chaque nœud du cluster, en plus du stockage des données en mémoire.  | 
|  Modèle de tarification  |  Pay-per-use, sur la base des données stockées en Go d'heures et des demandes dans les unités de ElastiCache traitement (ECPU). Consultez les détails de la tarification en cliquant [ici](https://aws.amazon.com/elasticache/pricing/).  |  Pay-per-hour, en fonction de l'utilisation du nœud de cache. Consultez les détails de la tarification en cliquant [ici](https://aws.amazon.com/elasticache/pricing/).  | 

Voir aussi:
+ [Création et gestion d'un cluster basé sur des nœuds ElastiCacheCréation et gestion d'un cluster basé sur des nœuds ElastiCache ](designing-elasticache-cluster.md)

# ElastiCache Ressources Amazon pour les nouveaux utilisateurs
<a name="WhatIs.FirstTimeUser"></a>

Si vous êtes un nouvel utilisateur, nous vous conseillons de commencer par lire les sections suivantes et de vous y référer dès que vous en avez besoin :
+ **Points forts du service et prix** — La [page détaillée du produit](https://aws.amazon.com/elasticache/) fournit un aperçu général du produit ElastiCache, les points forts du service et les prix.
+ **ElastiCache vidéos** — La [ElastiCache Vidéos](Tutorials.md#tutorial-videos) section contient des vidéos qui vous présentent Amazon ElastiCache. Les vidéos présentent des cas d'utilisation courants ElastiCache et montrent comment les utiliser ElastiCache pour réduire la latence et améliorer le débit de vos applications.
+ **Mise en route** : [Commencer à utiliser Amazon ElastiCache](GettingStarted.md) cette section contient des informations sur la création d'un cache. Il explique également comment autoriser l'accès au cache, se connecter à un nœud de cache et supprimer le cache.
+ **Performance à grande échelle** — Le ElastiCache livre blanc [Performance at scale with Amazon](https://d0.awsstatic.com/whitepapers/performance-at-scale-with-amazon-elasticache.pdf) aborde les stratégies de mise en cache qui permettent à votre application de fonctionner correctement à grande échelle.

Une fois que vous avez terminé les sections précédentes, lisez les sections suivantes :
+ [Choix de la taille de votre nœud](CacheNodes.SelectSize.md)

  Vous souhaitez que vos nœuds soient suffisamment grands pour pouvoir accueillir toutes les données à mettre en cache. En même temps, vous ne souhaitez pas payer pour plus d'espace de cache que ce dont vous avez besoin. vous pouvez vous appuyer sur cette rubrique pour sélectionner la meilleure taille de nœud.
+ [ElastiCache meilleures pratiques et stratégies de mise en cache](BestPractices.md)

  Elles permettent d'identifier et de résoudre les problèmes qui peuvent affecter l'efficacité de votre cluster.

Si vous souhaitez utiliser le AWS Command Line Interface(AWS CLI), vous pouvez utiliser les documents suivants pour vous aider à démarrer :
+ [AWS Command Line Interface documentation](https://docs.aws.amazon.com/cli/)

  Cette section fournit des informations sur le téléchargement AWS CLI, le AWS CLI fonctionnement de votre système et la fourniture de vos AWS informations d'identification.
+ [AWS CLI documentation pour ElastiCache](https://docs.aws.amazon.com/cli/latest/reference/elasticache/index.html)

  Ce document distinct couvre toutes les ElastiCache commandes AWS CLI for, y compris la syntaxe et les exemples.

Vous pouvez écrire des programmes d'application pour utiliser l' ElastiCache API avec une variété de langages de programmation courants. Voici quelques ressources :
+ [Outils pour Amazon Web Services](https://aws.amazon.com/tools/)

  Amazon Web Services fournit un certain nombre de kits de développement logiciel (SDKs) avec support pour ElastiCache. Vous pouvez coder pour ElastiCache utiliser Java, .NET, PHP, Ruby et d'autres langages. Ils SDKs peuvent considérablement simplifier le développement de votre application en formatant vos demandes, en analysant les réponses ElastiCache, en fournissant une logique de nouvelle tentative et en gérant les erreurs. 
+ [Utilisation de l' ElastiCache API](ProgrammingGuide.md)

  Si vous ne souhaitez pas utiliser le AWS SDKs, vous pouvez interagir ElastiCache directement avec l'API Query. Cette section fournit des astuces de dépannage et des informations pour créer et authentifier les requêtes et la façon de gérer les réponses. 
+ [Référence ElastiCache d'API Amazon](https://docs.aws.amazon.com/AmazonElastiCache/latest/APIReference/)

  Ce document distinct couvre toutes les opérations de l' ElastiCache API, y compris la syntaxe et les exemples.

# AWS Régions et zones de disponibilité
<a name="WhatIs.AZs"></a>

Les ressources du cloud computing Amazon sont hébergées dans des installations de centres de données hautement disponible de différentes régions du monde (par exemple, Amérique du Nord, Europe et Asie). Chaque emplacement de centre de données est appelé une AWS région.

Chaque AWS région contient plusieurs emplacements distincts appelés zones de disponibilité, ou AZs. Chaque zone de disponibilité est conçue pour être isolée des défaillances dans d'autres zones de disponibilité. Chacune est conçue pour fournir une connectivité réseau peu coûteuse et à faible latence aux autres zones de disponibilité de la même AWS région. En lançant des instances dans des zones de disponibilité distinctes, vous pouvez protéger vos applications de la défaillance d'un seul emplacement. Pour plus d'informations, consultez la page [Choix des régions et zones de disponibilité](RegionsAndAZs.md).

Vous pouvez créer votre cluster dans plusieurs zones de disponibilité, option appelée déploiement Multi-AZ. Lorsque vous choisissez cette option, Amazon effectue automatiquement la mise en service et la maintenance d'une instance de base de données de secours secondaire dans une autre zone de disponibilité. Votre instance de nœud primaire est répliquée de manière asynchrone entre les zones de disponibilité (AZ) dans l'instance secondaire. Cette approche permet de fournir une assistance en matière de redondance et de basculement des données, d'éliminer les I/O blocages et de minimiser les pics de latence lors des sauvegardes du système. Pour plus d'informations, consultez [Minimiser les temps d'arrêt ElastiCache pour Valkey et Redis OSS avec](AutoFailover.md) Multi-AZ.

# Cas ElastiCache d'utilisation courants et comment ElastiCache vous pouvez vous y aider
<a name="elasticache-use-cases"></a>

Qu'il s'agisse de communiquer les dernières actualités, le classement des 10 meilleurs, un catalogue de produits, ou de vendre des billets d'entrée pour un événement, tout est une question de rapidité. Le succès de votre site web et de votre activité dépend essentiellement de la vitesse à laquelle vous diffusez du contenu. 

Dans son article « [For Impatient Web Users, an Eye Blink Is Just Too Long to Wait (pour les utilisateurs Web impatients, patienter le temps d'un clignement d'œil est encore trop long)](http://www.nytimes.com/2012/03/01/technology/impatient-web-users-flee-slow-loading-sites.html?pagewanted=all&_r=0) », le New York Times note que les utilisateurs peuvent enregistrer une différence de 250 millisecondes (1/4 de seconde) entre des sites concurrents. Les utilisateurs ont tendance à éliminer le site le plus lent en faveur du site le plus rapide. Les tests effectués chez Amazon, cités dans l'article [How Webpage Load Time Is Related to Visitor Loss (comment le délai de chargement d'une page Web est lié à la perte de visiteurs)](http://pearanalytics.com/blog/2009/how-webpage-load-time-related-to-visitor-loss/), a révélé que pour chaque augmentation du temps de chargement de 100 ms (1/10 de seconde), les ventes diminuent de 1 %. 

Si quelqu'un recherche des données, vous pouvez fournir ces données beaucoup plus rapidement si elles sont mises en cache. Cela est vrai que ce soit pour une page web ou un rapport qui permet de prendre des décisions métier. Votre entreprise peut-elle se permettre de ne pas mettre en cache ses pages Web afin de les diffuser avec la plus brève latence possible ?

Intuitivement, il peut être évident de vouloir mettre en cache vos éléments les plus fortement demandés. Mais pourquoi ne pas mettre en cache vos éléments les moins fréquemment demandés ? Même la requête de base de données la plus optimisée ou l'appel d'API à distance va prendre considérablement plus de temps que la récupération d'une clé horizontale à partir d'un cache en mémoire. *Sensiblement plus lent* est ce qui a tendance à faire fuir les clients.

Les exemples suivants illustrent certaines des manières dont l'utilisation ElastiCache peut améliorer les performances globales de votre application.

**Topics**
+ [Stockage de données en mémoire](#elasticache-use-cases-data-store)
+ [Classements de jeu](#elasticache-for-redis-use-cases-gaming)
+ [Messagerie (Pub/Sub)](#elasticache-for-redis-use-cases-messaging)
+ [Données de recommandation (hachages)](#elasticache-for-redis-use-cases-recommendations)
+ [Mise en cache sémantique pour les applications d'IA génératives](#elasticache-for-redis-use-cases-semantic-caching)
+ [ElastiCache Témoignages de clients](#elasticache-use-cases-testimonials)

## Stockage de données en mémoire
<a name="elasticache-use-cases-data-store"></a>

Le principal objectif d'un magasin clé/valeur en mémoire est de fournir un accès ultra rapide (latence inférieure à la milliseconde) et un accès abordable aux copies de données. La plupart des magasins de données ont des zones de données qui sont fréquemment consultées mais rarement mises à jour. En outre, l'interrogation d'une base de données est toujours plus lente et moins chère que la recherche d'une clé dans le cache d'une paire clé-valeur. Certaines requêtes de base de données sont particulièrement onéreuses à effectuer. Par exemple, les requêtes qui impliquent des jointures entre plusieurs tables ou des requêtes avec des calculs intensifs. En mettant en cache les résultats de cette requête, vous ne payez le prix de la requête qu’une seule fois. Ensuite, vous pouvez récupérer rapidement les données plusieurs fois sans avoir à réexécuter la requête.

### Que dois-je mettre en cache ?
<a name="elasticache-use-cases-data-store-what-to-cache"></a>

Lorsque vous choisissez les données à mettre en cache, tenez compte des facteurs suivants :

**Vitesse et coûts** : il est toujours plus lent et plus cher d'acquérir des données à partir d'une base de données qu'à partir d'un cache. Certaines requêtes de base de données sont, par nature, plus lentes et plus chères que les autres. Par exemple, les requêtes qui effectuent des jointures entre plusieurs tables sont nettement plus lentes et plus onéreuses que les requêtes de table simples. Si les données intéressantes à acquérir nécessitent une requête lente et coûteuse, il serait judicieux de les mettre en cache. Si l'acquisition de données nécessite une requête relativement simple et rapide, elles peuvent toujours être mises en cache en fonction des autres facteurs.

**Data and access pattern (Données et modèle d'accès)** : déterminer les données à mettre en cache nécessite aussi de comprendre les données elles-mêmes ainsi que leurs modèles d'accès. À titre d'exemple, il n'est pas judicieux de mettre en cache des données qui changent rapidement ou qui sont rarement consultées. Pour que la mise en cache constitue un réel avantage, les données doivent être relativement statiques et fréquemment consultées. Par exemple, un profil personnel sur un site de médias sociaux. En revanche, vous ne voulez pas mettre en cache des données si la mise en cache ne constitue aucun avantage en matière de vitesse et de coût. Par exemple, il n'est pas logique de mettre en cache des pages web qui renvoient des résultats de recherche, car les requêtes et les résultats sont généralement uniques.

**Importance** : par définition, les données mises en cache sont des données obsolètes. Même si dans certains cas elles ne le sont pas, elles doivent toujours être considérées et traitées comme telles. Pour déterminer si vos données peuvent être mises en cache, déterminez la tolérance de votre application concernant les données obsolètes. 

Votre application peut être en mesure de tolérer des données obsolètes dans un contexte, mais pas un autre. Par exemple, supposons que votre site sert un cours d'action coté en bourse. Vos clients peuvent accepter une certaine moralité avec une clause de non-responsabilité selon laquelle les prix peuvent être *n* minutes de retard. Cependant, si vous communiquez le cours pour la même action à un courtier effectuant une vente ou un achat, vous aurez besoin de données en temps réel.

Envisagez de mettre en cache vos données dans les cas suivants :
+ elles sont trop lentes ou onéreuses à acquérir en comparaison à la récupération de cache.
+ Les utilisateurs accèdent souvent à vos données.
+ Vos données restent relativement les mêmes, ou si elles changent rapidement, le manque de stabilité n'est pas un gros problème.

Pour de plus amples informations, consultez [Stratégies de mise en cache pour Memcached](Strategies.md).

## Classements de jeu
<a name="elasticache-for-redis-use-cases-gaming"></a>

Avec les ensembles triés Valkey ou Redis OSS, vous pouvez déplacer la complexité informatique des classements de votre application vers votre cluster.

Des classements, tels que les 10 meilleurs pour un jeu, nécessitent des calculs complexes. Cela est particulièrement vrai lorsque le nombre de joueurs est important et que les scores changent constamment. Les ensembles triés Valkey et Redis OSS garantissent à la fois l'unicité et l'ordre des éléments. Avec les ensembles triés, chaque fois qu'un nouvel élément est ajouté à l'ensemble trié, il est reclassé en temps réel. Cela est ensuite ajouté à l'ensemble dans son ordre numérique approprié. 

Dans le schéma suivant, vous pouvez voir comment fonctionne un classement de ElastiCache jeu.

![\[\]](http://docs.aws.amazon.com/fr_fr/AmazonElastiCache/latest/dg/images/ElastiCache-Redis-Gaming.png)


**Example Classement de Valkey ou Redis OSS**  
Dans cet exemple, quatre joueurs et leurs résultats sont saisis dans une liste triée à l'aide de `ZADD`. La commande `ZREVRANGEBYSCORE` répertorie les joueurs en fonction de leur score, par ordre décroissant. Ensuite, la commande `ZADD` est utilisée pour mettre à jour le score de Jeanne en remplaçant l'entrée existante. Enfin, `ZREVRANGEBYSCORE` répertorie les joueurs en fonction de leur score, par ordre décroissant. La liste montre que Jeanne a grimpé dans les classements.  

```
ZADD leaderboard 132 Robert
ZADD leaderboard 231 Sandra
ZADD leaderboard 32 June
ZADD leaderboard 381 Adam
			
ZREVRANGEBYSCORE leaderboard +inf -inf
1) Adam
2) Sandra
3) Robert
4) June

ZADD leaderboard 232 June

ZREVRANGEBYSCORE leaderboard +inf -inf
1) Adam
2) June
3) Sandra
4) Robert
```
La commande suivante permet à Jeanne de voir où elle se classe parmi tous les joueurs. Comme le classement part de zéro, *ZREVRANK* renvoie un 1 pour June, ce qui la place en deuxième position.  

```
ZREVRANK leaderboard June 
1
```

Pour plus d'informations, consultez la [documentation de Valkey](https://valkey.io/topics/sorted-sets/) sur les ensembles triés.

## Messagerie (Pub/Sub)
<a name="elasticache-for-redis-use-cases-messaging"></a>

Lorsque vous envoyez un message électronique, vous envoyez à un ou plusieurs destinataires spécifiés. Dans le paradigme pub/sub de Valkey et Redis OSS, vous envoyez un message à un canal spécifique sans savoir qui, le cas échéant, le reçoit. Les personnes qui reçoivent le message sont celles qui sont abonnées à la chaîne. Par exemple, supposons que vous vous abonniez à la chaîne *news.sports.golf*. Vous et toutes les autres personnes abonnées à la chaîne *news.sports.golf* reçoivent des messages publiés dans *news.sports.golf*.

La fonctionnalité PUB/Sub n'a aucun rapport avec un espace clé. Par conséquent, elle n'interfère à aucun niveau. Dans le schéma suivant, vous trouverez une illustration de la ElastiCache messagerie avec Valkey et Redis OSS.

![\[\]](http://docs.aws.amazon.com/fr_fr/AmazonElastiCache/latest/dg/images/ElastiCache-Redis-PubSub.png)


### Abonnement en cours
<a name="elasticache-use-cases-messaging-subscribing"></a>

Pour recevoir des messages sur une chaîne, vous devez vous y être abonné. Vous pouvez vous abonner à une seule chaîne, à plusieurs chaînes spécifiées ou à toutes les chaînes qui correspondent à un modèle. Pour annuler un abonnement, vous devez vous désinscrire de la chaîne spécifiée lors de l'inscription. Ou, si vous vous êtes abonné à l'aide de la mise en correspondance de modèle, vous vous désabonnez en utilisant le même modèle que celui utilisé précédemment.

**Example – Abonnement à une chaîne unique**  
Pour vous inscrire à une seule chaîne, utilisez la commande SUBSCRIBE en spécifiant la chaîne à laquelle vous voulez vous abonner. Dans l'exemple suivant, un client s'abonne à la chaîne *news.sports.golf*.  

```
SUBSCRIBE news.sports.golf
```
Après un certain temps, le client annule son abonnement à la chaîne à l'aide de la commande UNSUBSCRIBE en spécifiant la chaîne de laquelle il veut se désabonner.  

```
UNSUBSCRIBE news.sports.golf
```

**Example – Abonnements à plusieurs chaînes spécifiées**  
Pour vous abonner à plusieurs chaînes spécifiques, affichez la liste des chaînes avec la commande SUBSCRIBE. Dans l'exemple suivant, un client souscrit aux chaînes *news.sports.golf*, *news.sports.soccer* et *news.sports.skiing*.  

```
SUBSCRIBE news.sports.golf news.sports.soccer news.sports.skiing
```
Pour annuler un abonnement à une chaîne spécifique, utilisez la commande UNSUBSCRIBE et spécifiez la chaîne de laquelle vous voulez vous désabonner.  

```
UNSUBSCRIBE news.sports.golf
```
Pour annuler les abonnements à plusieurs chaînes, utilisez la commande UNSUBSCRIBE et spécifiez les chaînes desquelles vous voulez vous désabonner.  

```
UNSUBSCRIBE news.sports.golf news.sports.soccer
```
Pour annuler tous les abonnements, utilisez `UNSUBSCRIBE` et spécifiez chaque canal. Ou utilisez `UNSUBSCRIBE` et ne spécifiez pas de canal.  

```
UNSUBSCRIBE news.sports.golf news.sports.soccer news.sports.skiing
```
or  

```
UNSUBSCRIBE
```

**Example – Abonnements à l'aide la correspondance de modèles**  
Les clients peuvent souscrire à toutes les chaînes qui correspondent à un modèle à l'aide de la commande PSUBSCRIBE.  
Dans l'exemple suivant, un client souscrit à toutes les chaînes de sport. Vous ne listez pas toutes les chaînes de sport individuellement, comme vous le faites à l'aide de `SUBSCRIBE`. Au lieu de cela, avec la commande `PSUBSCRIBE`, vous utilisez la correspondance des motifs.  

```
PSUBSCRIBE news.sports.*
```

**Example Annulation d'abonnements**  
Pour annuler des abonnements à ces chaînes, utilisez la commande `PUNSUBSCRIBE`.  

```
PUNSUBSCRIBE news.sports.*
```
+ La chaîne du canal envoyée à une commande [P]SUBSCRIBE et celle envoyée à la commande [P]UNSUBSCRIBE doivent correspondre. Vous ne pouvez pas `PSUBSCRIBE` vers *news.\$1* et `PUNSUBSCRIBE` depuis *news.sports.\$1* ou `UNSUBSCRIBE` depuis *news.sports.golf*.
+ `PSUBSCRIBE`et ne `PUNSUBSCRIBE` sont pas disponibles pour ElastiCache Serverless.

### Publication
<a name="elasticache-for-redis-use-cases-messaging-publishing"></a>

Pour envoyer un message à tous les abonnés d'une chaîne, utilisez la commande `PUBLISH`, en spécifiant la chaîne et le message. L'exemple suivant publie le message, « C'est samedi et il fait beau. Je suis dirigé vers les liens. » vers la chaîne *news.sports.golf*.

```
PUBLISH news.sports.golf "It's Saturday and sunny. I'm headed to the links."
```

Un client ne peut pas publier sur une chaîne à laquelle il est abonné.

Pour plus d'informations, consultez [Pub/Sub](https://valkey.io/topics/pubsub) dans la documentation de Valkey.

## Données de recommandation (hachages)
<a name="elasticache-for-redis-use-cases-recommendations"></a>

L'utilisation de l'INCR ou du DECR dans Valkey ou Redis OSS simplifie la compilation des recommandations. Chaque fois qu'un utilisateur « aime » un produit, vous incrémentez un compteur *item:productID:like*. Chaque fois qu'un utilisateur « n'aime pas » un produit, vous incrémentez un compteur *item:productID:like*. À l'aide de hachages, vous pouvez également tenir à jour une liste de tous ceux qui ont aimé ou non un produit.

**Example – « J'aime » et « Je n'aime pas »**  

```
INCR item:38923:likes
HSET item:38923:ratings Susan 1
INCR item:38923:dislikes
HSET item:38923:ratings Tommy -1
```

## Mise en cache sémantique pour les applications d'IA génératives
<a name="elasticache-for-redis-use-cases-semantic-caching"></a>

L'exploitation d'applications d'IA générative à grande échelle peut s'avérer difficile en raison du coût et de la latence associés aux appels d'inférence vers de grands modèles linguistiques (LLMs). Vous pouvez utiliser la ElastiCache mise en cache sémantique dans les applications d'IA générative, ce qui vous permet de réduire le coût et la latence des appels d'inférence LLM. Avec la mise en cache sémantique, vous pouvez renvoyer une réponse mise en cache en utilisant une correspondance vectorielle pour trouver des similitudes entre les instructions actuelles et précédentes. Si l'invite d'un utilisateur est sémantiquement similaire à une demande précédente, une réponse mise en cache sera renvoyée au lieu de passer un nouvel appel d'inférence LLM, réduisant ainsi le coût des applications d'IA génératives et fournissant des réponses plus rapides qui améliorent l'expérience utilisateur. Vous pouvez contrôler quelles requêtes sont acheminées vers le cache en configurant des seuils de similarité pour les invites et en appliquant des filtres de balises ou de métadonnées numériques.

Les mises à jour en ligne de l'index en temps réel fournies par la recherche vectorielle ElastiCache permettent de garantir que le cache est continuellement mis à jour en fonction des demandes des utilisateurs et des réponses LLM. Cette indexation en temps réel est essentielle pour maintenir à jour les résultats mis en cache et les taux de réussite du cache, en particulier pour les pics de trafic. En outre, il ElastiCache simplifie les opérations de mise en cache sémantique grâce à des primitives de cache matures telles que des stratégies d'éviction configurables par clé TTLs, des opérations atomiques, une structure de données riche et la prise en charge des scripts.

**Mémoire pour les assistants et agents basés sur l'IA générative**

Vous pouvez l'utiliser ElastiCache pour fournir des réponses plus personnalisées et contextuelles en implémentant des mécanismes de mémoire qui font apparaître l'historique des conversations entre sessions sur. LLMs La mémoire conversationnelle permet aux assistants et agents de l'IA générative de conserver et d'utiliser les interactions passées pour personnaliser les réponses et améliorer la pertinence. Cependant, le simple fait d'agréger toutes les interactions antérieures dans l'invite est inefficace, car les jetons supplémentaires non pertinents augmentent les coûts, dégradent la qualité des réponses et risquent de dépasser la fenêtre contextuelle du LLM. Vous pouvez plutôt utiliser la recherche vectorielle pour récupérer et fournir uniquement les données les plus pertinentes dans le contexte de chaque appel de LLM.

ElastiCache for Valkey fournit des intégrations avec des couches de mémoire open source, en fournissant des connecteurs intégrés pour stocker et récupérer des mémoires pour les applications et les agents LLM. ElastiCache La recherche vectorielle permet de mettre à jour rapidement les index, de maintenir la mémoire à jour et de rendre les nouveaux souvenirs immédiatement consultables. La recherche vectorielle à faible latence accélère les recherches de mémoire, ce qui permet de les implémenter dans le chemin en ligne de chaque requête, et pas seulement dans les tâches en arrière-plan. Au-delà de la recherche vectorielle, ElastiCache for Valkey fournit également des primitives de mise en cache pour l'état de session, les préférences de l'utilisateur et les indicateurs de fonctionnalité, fournissant ainsi un service unique pour stocker l'état de session de courte durée et les « mémoires » à long terme dans une seule banque de données. 

**Génération augmentée de récupération (RAG)**

Le RAG est le processus qui consiste à LLMs fournir des up-to-date informations rapidement afin d'améliorer la pertinence des réponses. RAG réduit les hallucinations et améliore la précision des faits en fondant les résultats sur des sources de données réelles. Les applications RAG utilisent la recherche vectorielle pour récupérer du contenu sémantiquement pertinent à partir d'une base de connaissances. La recherche vectorielle à faible latence fournie par le ElastiCache rend adaptée à la mise en œuvre de RAG dans des charges de travail contenant de grands ensembles de données contenant des millions de vecteurs et plus. En outre, la prise en charge des mises à jour des index vectoriels en ligne ElastiCache convient aux assistants chargés des flux de travail de téléchargement qui doivent s'assurer que toutes les données téléchargées sont immédiatement consultables. Dans les systèmes d'intelligence artificielle agentique, le RAG garantit que les agents disposent d' up-to-dateinformations pour des actions précises. La recherche vectorielle à faible latence est également cruciale pour RAG dans les systèmes d'intelligence artificielle agentiques, où une seule requête peut déclencher plusieurs appels LLM et augmenter la latence associée à la recherche vectorielle sous-jacente. 

Le schéma suivant illustre un exemple d'architecture utilisée ElastiCache pour implémenter un cache sémantique, des mécanismes de mémoire et un RAG pour améliorer une application d'IA générative en production.

![\[Schéma d'une recherche sémantique effectuée par un assistant d'intelligence artificielle générative.\]](http://docs.aws.amazon.com/fr_fr/AmazonElastiCache/latest/dg/images/vector-search-gen-ai1.png)


**Recherche sémantique**

La recherche vectorielle permet de récupérer les données de texte, de parole, d'image ou de vidéo les plus pertinentes en fonction de la proximité du sens ou des caractéristiques. Cette fonctionnalité permet aux applications d'apprentissage automatique qui s'appuient sur la recherche de similarités dans diverses modalités de données, notamment les moteurs de recommandation, la détection des anomalies, la personnalisation et les systèmes de gestion des connaissances. Les systèmes de recommandation utilisent des représentations vectorielles pour capturer des modèles complexes du comportement des utilisateurs et des caractéristiques des articles, leur permettant ainsi de suggérer le contenu le plus pertinent. La recherche vectorielle ElastiCache convient parfaitement à ces applications en raison de ses mises à jour en temps quasi réel et de sa faible latence, ce qui permet des comparaisons de similarités qui fournissent des recommandations instantanées et très pertinentes basées sur les interactions réelles des utilisateurs.

## ElastiCache Témoignages de clients
<a name="elasticache-use-cases-testimonials"></a>

Pour découvrir comment des entreprises comme Airbnb, PBS, Esri et d'autres utilisent Amazon ElastiCache pour développer leurs activités grâce à une meilleure expérience client, consultez [Comment les autres utilisent Amazon](https://aws.amazon.com/elasticache/testimonials/). ElastiCache

Vous pouvez également visionner les [vidéos du didacticiel pour découvrir](Tutorials.md#tutorial-videos) d'autres cas d'utilisation par des ElastiCache clients.