

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Charges de travail hautes performances
<a name="directory-bucket-high-performance"></a>

## S3 Express One Zone
<a name="s3-express-one-zone"></a>

 Vous pouvez utiliser Amazon S3 Express One Zone pour les charges de travail hautes performances. S3 Express One Zone est la première classe de stockage S3 dans laquelle vous pouvez sélectionner une zone de disponibilité unique avec la possibilité de regrouper le stockage d’objets et les ressources de calcul, ce qui assure la vitesse d’accès la plus élevée possible. Les objets figurant dans S3 Express One Zone sont stockés dans des compartiments de répertoires situés dans des zones de disponibilité. Pour plus d’informations sur les compartiments de répertoires, consultez [Compartiments de répertoires](https://docs.aws.amazon.com//AmazonS3/latest/userguide/directory-buckets-overview.html). 

Amazon S3 Express One Zone est une classe de stockage Amazon S3 à zone unique et hautes performances, spécialement conçue pour fournir un accès aux données constant en moins de dix millisecondes pour vos applications les plus sensibles à la latence. S3 Express One Zone est la classe de stockage d’objets cloud qui présente la latence la plus faible à l’heure actuelle, avec une vitesse d’accès aux données jusqu’à 10 fois plus grande et des coûts de demande 50 % inférieurs à ceux de S3 Standard. Les applications peuvent bénéficier immédiatement d’une accélération des demandes. S3 Express One Zone offre une élasticité des performances similaire à celle des autres classes de stockage S3. S3 Express One Zone est utilisé pour les charges de travail ou les applications critiques en termes de performances qui nécessitent une latence constante inférieure à dix millisecondes. 

Comme avec les classes de stockage Amazon S3, vous n’avez pas besoin de planifier ni de provisionner à l’avance les exigences en matière de capacité ou de débit. Vous pouvez augmenter ou diminuer la capacité de stockage en fonction de vos besoins, et accéder à vos données via les API Amazon S3.

La classe de stockage Amazon S3 Express One Zone est conçue pour garantir une disponibilité de 99,95 % au sein d’une même zone de disponibilité et s’appuie sur le [contrat de niveau de service Amazon S3](https://aws.amazon.com/s3/sla/). Avec S3 Express One Zone, vos données sont stockées de façon redondante sur plusieurs appareils au sein d’une même zone de disponibilité. S3 Express One Zone est conçu pour gérer les défaillances simultanées de périphériques en détectant et réparant rapidement toute perte de redondance. En cas de panne de l’appareil existant, S3 Express One Zone transfère automatiquement les demandes vers de nouveaux appareils au sein d’une zone de disponibilité. Cette redondance permet de garantir un accès ininterrompu à vos données au sein d’une zone de disponibilité.

S3 Express One Zone est idéal pour toute application où il est important de réduire au maximum la latence requise pour accéder à un objet. Il peut s’agir de flux de travail impliquant des interactions avec des utilisateurs, tels que le montage vidéo, où les créatifs ont besoin d’un accès réactif au contenu à partir de leur interface utilisateur. S3 Express One Zone profite également aux charges de travail d’analytique et de machine learning qui ont des exigences similaires en matière de réactivité de leurs données, notamment aux charges de travail présentant de nombreux petits accès ou un grand nombre d’accès aléatoires. S3 Express One Zone peut être utilisé avec d'autres Services AWS pour prendre en charge les charges de travail d'analyse, d'intelligence artificielle et d'apprentissage automatique (AI/ML), telles qu'Amazon EMR, Amazon AI SageMaker et Amazon Athena.

![\[Schéma illustrant le fonctionnement de S3 Express One Zone.\]](http://docs.aws.amazon.com/fr_fr/AmazonS3/latest/userguide/images/s3-express-one-zone.png)


Pour les compartiments de répertoires qui utilisent la classe de stockage S3 Express One Zone, les données sont stockées sur plusieurs appareils au sein d’une même zone de disponibilité, mais elles ne sont pas stockées de manière redondante entre les zones de disponibilité. Lorsque vous créez un bucket d'annuaire pour utiliser la classe de stockage S3 Express One Zone, nous vous recommandons de spécifier une Région AWS et une zone de disponibilité locales pour vos instances de calcul Amazon EC2, Amazon Elastic Kubernetes Service ou Amazon Elastic Container Service (Amazon ECS) afin d'optimiser les performances. 

Lorsque vous utilisez S3 Express One Zone, vous pouvez interagir avec votre compartiment de répertoires dans un cloud privé virtuel (VPC) à l’aide d’un point de terminaison de VPC de passerelle. Avec un point de terminaison de passerelle, vous pouvez accéder à des compartiments de répertoires S3 Express One Zone à partir de votre VPC sans passerelle Internet ni périphérique NAT pour votre VPC, sans frais supplémentaires. 

Avec les compartiments de répertoires, vous pouvez utiliser un grand nombre des fonctionnalités et API Amazon S3 que vous utilisez avec les compartiments à usage général et les autres classes de stockage. Il s'agit notamment de Mountpoint pour Amazon S3, du chiffrement côté serveur avec des clés gérées par Amazon S3 (SSE-S3), du chiffrement côté serveur avec des clés () AWS Key Management Service (SSE-KMS), des AWS KMS opérations par lots S3 et de S3 Block Public Access. Vous pouvez accéder à S3 Express One Zone à l'aide de la console Amazon S3 AWS Command Line Interface (AWS CLI) et de l'API REST Amazon S3. AWS SDKs

Pour plus d’informations sur S3 Express One Zone, consultez les rubriques suivantes.
+ [Présentation de](#s3-express-one-zone-overview)
+ [Fonctionnalités de S3 Express One Zone](#s3-express-features)
+ [Services connexes](#s3-express-related-services)
+ [Étapes suivantes](#s3-express-next-steps)

### Présentation de
<a name="s3-express-one-zone-overview"></a>

Pour optimiser les performances et réduire la latence, S3 Express One Zone introduit les nouveaux concepts suivants.

#### Zones de disponibilité
<a name="s3-express-overview-az"></a>

La classe de stockage Amazon S3 Express One Zone est conçue pour garantir une disponibilité de 99,95 % au sein d’une même zone de disponibilité et s’appuie sur le [contrat de niveau de service Amazon S3](https://aws.amazon.com/s3/sla/). Avec S3 Express One Zone, vos données sont stockées de façon redondante sur plusieurs appareils au sein d’une même zone de disponibilité. S3 Express One Zone est conçu pour gérer les défaillances simultanées de périphériques en détectant et réparant rapidement toute perte de redondance. En cas de panne de l’appareil existant, S3 Express One Zone transfère automatiquement les demandes vers de nouveaux appareils au sein d’une zone de disponibilité. Cette redondance permet de garantir un accès ininterrompu à vos données au sein d’une zone de disponibilité.

Une zone de disponibilité est un ou plusieurs centres de données discrets dotés d’une alimentation, d’un réseau et d’une connectivité redondants dans une Région AWS. Lorsque vous créez un bucket d'annuaire, vous choisissez la zone de disponibilité et Région AWS l'emplacement de votre bucket. 

##### Zone de disponibilité unique
<a name="directory-buckets-availability-zone"></a>

Lorsque vous créez un compartiment de répertoires, vous choisissez la zone de disponibilité et la Région AWS.

Les compartiments de répertoires utilisent la classe de stockage S3 Express One Zone, conçue pour être utilisée par des applications sensibles aux performances. S3 Express One Zone est la première classe de stockage S3 dans laquelle vous pouvez sélectionner une zone de disponibilité unique avec la possibilité de regrouper le stockage d’objets et les ressources de calcul, ce qui assure la vitesse d’accès la plus élevée possible.

Avec S3 Express One Zone, vos données sont stockées de façon redondante sur plusieurs appareils au sein d’une même zone de disponibilité. S3 Express One Zone est conçu pour garantir une disponibilité de 99,95 % au sein d’une même zone de disponibilité et s’appuie sur le [contrat de niveau de service Amazon S3](https://aws.amazon.com/s3/sla/). Pour de plus amples informations, consultez [Zones de disponibilité](#s3-express-overview-az).

#### Points de terminaison et points de terminaison de VPC de passerelle
<a name="s3-express-overview-endpoints"></a>

Les opérations d’API de gestion des compartiments de répertoires sont disponibles via un point de terminaison régional et sont appelées API de point de terminaison régional. `CreateBucket` et `DeleteBucket` sont des exemples d’opérations d’API de point de terminaison régional. Après avoir créé un compartiment de répertoires, vous pouvez utiliser les opérations d’API de point de terminaison zonal pour charger et gérer les objets dans votre compartiment de répertoires. Les opérations d’API de point de terminaison zonal sont disponibles via un point de terminaison zonal. `PutObject` et `CopyObject` sont des exemples d’opérations d’API de point de terminaison zonal.

Vous pouvez accéder à S3 Express One Zone à partir de votre VPC en utilisant des points de terminaison de VPC de passerelle. Après avoir créé un point de terminaison de passerelle, vous pouvez l’ajouter comme cible dans votre table de routage pour le trafic destiné à S3 Express One Zone depuis votre VPC. Comme avec Amazon S3, aucuns frais supplémentaires ne s’appliquent à l’utilisation de points de terminaison de passerelle. Pour plus d’informations sur la manière de configurer des points de terminaison de VPC de passerelle, consultez [Mise en réseau des compartiments de répertoires](s3-express-networking.md).

#### Autorisation basée sur les sessions
<a name="s3-express-overview-authorization"></a>

Avec S3 Express One Zone, vous authentifiez et autorisez les demandes par le biais d’un nouveau mécanisme basé sur les sessions, optimisé pour assurer une latence minimale. Vous pouvez utiliser `CreateSession` pour demander des informations d’identification temporaires afin de bénéficier d’un accès à faible latence à votre compartiment. Ces informations d’identification temporaires sont limitées à un compartiment de répertoires S3 spécifique. Les jetons de session sont utilisés uniquement avec les opérations zonales (niveau objet) (à l’exception de [CopyObject](directory-buckets-objects-copy.md)). Pour de plus amples informations, veuillez consulter [Autorisation des opérations d’API de point de terminaison zonal avec `CreateSession`](s3-express-create-session.md). 

Le service [pris en AWS SDKs charge par S3 Express One Zone](s3-express-SDKs.md#s3-express-getting-started-accessing-sdks) gère l'établissement et le rafraîchissement des sessions en votre nom. Pour protéger vos sessions, les informations d’identification de sécurité temporaires expirent au bout de 5 minutes. Après avoir téléchargé et installé les autorisations Gestion des identités et des accès AWS (IAM) nécessaires AWS SDKs et configuré les autorisations nécessaires, vous pouvez immédiatement commencer à utiliser les opérations d'API.

### Fonctionnalités de S3 Express One Zone
<a name="s3-express-features"></a>

Les fonctionnalités S3 suivantes sont disponibles pour S3 Express One Zone. Pour obtenir la liste complète des opérations d’API prises en charge et des fonctionnalités non prises en charge, consultez [Différences pour les compartiments de répertoires](s3-express-differences.md).

#### Gestion des accès et sécurité
<a name="s3-express-features-access-management"></a>

Vous pouvez utiliser les fonctionnalités suivantes pour auditer et gérer l’accès. Par défaut, les compartiments de répertoires sont privés et sont accessibles uniquement par les utilisateurs auxquels l’accès a été explicitement accordé. Contrairement aux compartiments à usage général, qui peuvent définir la limite de contrôle d’accès au niveau des compartiments, des préfixes ou des balises d’objet, la limite de contrôle d’accès pour les compartiments de répertoires est définie uniquement au niveau des compartiments. Pour plus d’informations, consultez [Autorisation des opérations d’API de point de terminaison régional avec IAM](s3-express-security-iam.md). 
+ [Blocage de l’accès public S3](access-control-block-public-access.md) : tous les paramètres de blocage de l’accès public S3 sont activés par défaut au niveau des compartiments. Ce paramètre par défaut ne peut pas être modifié. 
+ [Propriété des objets S3](about-object-ownership.md) (propriétaire du compartiment appliqué par défaut) : les listes de contrôle d'accès (ACLs) ne sont pas prises en charge pour les compartiments d'annuaire. Les compartiments de répertoires utilisent automatiquement le paramètre Propriétaire du compartiment appliqué pour la propriété des objets S3. L'application par le propriétaire du compartiment signifie qu' ACLs elle est désactivée, et le propriétaire du compartiment possède automatiquement tous les objets du compartiment et en a le contrôle total. Ce paramètre par défaut ne peut pas être modifié. 
+ [Gestion des identités et des accès AWS (IAM)](s3-express-security-iam.md) — IAM vous aide à contrôler en toute sécurité l'accès à vos compartiments d'annuaire. Vous pouvez utiliser IAM pour accorder l’accès aux opérations d’API (régionales) de gestion des compartiments et aux opérations d’API (zonales) de gestion des objets via l’action `s3express:CreateSession`. Pour de plus amples informations, veuillez consulter [Autorisation des opérations d’API de point de terminaison régional avec IAM](s3-express-security-iam.md). Contrairement aux actions de gestion d’objets, les actions de gestion de compartiments ne peuvent pas être effectuées entre comptes. Seul le propriétaire du compartiment peut effectuer ces actions.
+ [Politiques de compartiment](s3-express-security-iam-example-bucket-policies.md) : utilisez un langage de politique basé sur IAM afin de configurer les autorisations basées sur les ressources pour vos compartiments de répertoires. Vous pouvez également utiliser IAM pour contrôler l’accès à l’opération d’API `CreateSession` qui vous permet d’utiliser les opérations d’API de gestion des objets ou de gestion par zone. Vous pouvez accorder un accès intercompte ou un accès dans le même compte aux opérations d’API zonales. Pour plus d’informations sur les politiques et les autorisations S3 Express One Zone, consultez [Autorisation des opérations d’API de point de terminaison régional avec IAM](s3-express-security-iam.md).
+ [Analyseur d’accès IAM pour S3](access-analyzer.md) : évaluez et surveillez vos stratégies d’accès pour vous assurer qu’elles fournissent uniquement l’accès prévu à vos ressources S3.

#### Journalisation et surveillance
<a name="s3-express-features-logging-monitoring"></a>

S3 Express One Zone utilise les outils de journalisation et de surveillance S3 suivant pour surveiller et contrôler la façon dont vos ressources sont utilisées :
+ [Amazon CloudWatch Metrics](cloudwatch-monitoring.md) — Surveillez vos AWS ressources et vos applications en les utilisant CloudWatch pour collecter et suivre les métriques. S3 Express One Zone utilise le même espace de CloudWatch noms que les autres classes de stockage Amazon S3 (`AWS/S3`) et prend en charge les métriques de stockage quotidiennes pour les compartiments de répertoire : `BucketSizeBytes` et. `NumberOfObjects` Pour de plus amples informations, veuillez consulter [Surveillance des métriques avec Amazon CloudWatch](cloudwatch-monitoring.md).
+ [AWS CloudTrail logs](cloudtrail-logging-s3-info.md) — AWS CloudTrail est un outil Service AWS qui vous aide à mettre en œuvre l'audit opérationnel et des risques, la gouvernance et la conformité de votre entreprise Compte AWS en enregistrant les actions entreprises par un utilisateur, un rôle ou un Service AWS. Pour S3 Express One Zone, CloudTrail capture les opérations d'API de point de terminaison régional (par exemple, `CreateBucket` et`PutBucketPolicy`) en tant qu'événements de gestion et les opérations d'API zonales (par exemple, `GetObject` et`PutObject`) en tant qu'événements de données. Ces événements incluent les actions entreprises dans le cadre des opérations AWS Management Console AWS SDKs, AWS Command Line Interface (AWS CLI) et de AWS l'API. Pour plus d'informations, consultez [Logging with AWS CloudTrail for S3 Express One Zone](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-one-zone-logging.html).

**Note**  
Les journaux d’accès au serveur Amazon S3 ne sont pas pris en charge avec S3 Express One Zone.

#### Gestion des objets
<a name="s3-express-features-object-management"></a>

Vous pouvez gérer votre stockage d'objets à l'aide de la console Amazon S3 AWS SDKs, et AWS CLI. Les fonctionnalités suivantes sont disponibles pour la gestion des objets avec S3 Express One Zone :
+ [Opérations par lots S3](batch-ops-create-job.md) : utilisez les opérations par lots pour effectuer des opérations groupées sur des objets dans des compartiments de répertoire, par exemple, la ** AWS Lambda fonction **Copy** and Invoke**. Par exemple, vous pouvez utiliser les opérations par lots pour copier des objets entre des compartiments de répertoires et des compartiments à usage général. Avec Batch Operations, vous pouvez gérer des milliards d'objets à grande échelle avec une seule requête S3 en utilisant AWS SDKs AWS CLI ou en quelques clics dans la console Amazon S3. 
+ [Importation](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-import-job.html) : après avoir créé un compartiment de répertoires, vous pouvez le remplir d’objets à l’aide de la fonctionnalité d’importation dans la console Amazon S3. L’importation est une méthode simplifiée pour créer des tâches d’opérations par lots afin de copier des objets depuis des compartiments à usage général vers des compartiments de répertoires.

#### AWS SDKs et bibliothèques clientes
<a name="s3-express-features-client-libraries"></a>

 Vous pouvez gérer votre stockage d'objets à l'aide des bibliothèques clientes AWS SDKs et. 
+ [Mountpoint pour Amazon S3](https://github.com/awslabs/mountpoint-s3/blob/main/doc/SEMANTICS.md) : Mountpoint pour Amazon S3 est un client de fichiers open source qui fournit un accès à haut débit, réduisant ainsi les coûts de calcul pour les lacs de données sur Amazon S3. Mountpoint pour Amazon S3 traduit les appels d’API du système de fichiers local en appels d’API d’objet S3 tels que `GET` et `LIST`. Il est idéal pour les charges de travail de lacs de données à lecture intense qui traitent des pétaoctets de données et qui nécessitent le débit élastique élevé fourni par Amazon S3 pour pouvoir augmenter et réduire la capacité de milliers d’instances.
+ [https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#Introducing_the_Hadoop_S3A_client](https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#Introducing_the_Hadoop_S3A_client) : S3A est une interface compatible Hadoop recommandée pour accéder aux magasins de données dans Amazon S3. S3A remplace le client du système de fichiers S3N Hadoop.
+ [PyTorchon AWS](https://docs.aws.amazon.com//sagemaker/latest/dg/pytorch.html) — PyTorch on AWS est un framework d'apprentissage profond open source qui facilite le développement de modèles d'apprentissage automatique et leur déploiement en production. 
+ [AWS SDKs](https://aws.amazon.com//developer/tools/)— Vous pouvez l'utiliser AWS SDKs lorsque vous développez des applications avec Amazon S3. AWS SDKsSimplifiez vos tâches de programmation en encapsulant l'API REST Amazon S3 sous-jacente. Pour plus d'informations sur l'utilisation de la zone AWS SDKs avec S3 Express One, consultez[AWS SDKs](s3-express-SDKs.md#s3-express-getting-started-accessing-sdks).

### Chiffrement et protection des données
<a name="s3-express-features-encryption"></a>

Les objets dans S3 Express One Zone sont automatiquement chiffrés par chiffrement côté serveur avec des clés gérées par Amazon S3 (SSE-S3). S3 Express One Zone prend également en charge le chiffrement côté serveur avec des clés AWS Key Management Service (AWS KMS) (SSE-KMS). S3 Express One Zone ne prend pas en charge le chiffrement côté serveur avec des clés de chiffrement (SSE-C) fournies par le client, ni le chiffrement double couche côté serveur avec AWS KMS keys (DSSE-KMS). Pour de plus amples informations, veuillez consulter [Protection et chiffrement des données](s3-express-data-protection.md).

S3 Express One Zone vous offre la possibilité de choisir l’algorithme de somme de contrôle utilisé pour valider vos données pendant le chargement ou le téléchargement. Vous pouvez sélectionner l'un des algorithmes de hachage sécurisé (SHA) ou de contrôle de redondance cyclique (CRC) suivants : CRC32 C CRC32, SHA-1 et SHA-256. MD5les checksums basés sur la base de données ne sont pas pris en charge avec la classe de stockage S3 Express One Zone. 

Pour de plus amples informations, veuillez consulter [Bonnes pratiques supplémentaires en matière de somme de contrôle S3](s3-express-optimizing-performance.md#s3-express-optimizing-performance-checksums).

### AWS Version de signature (4SigV4)
<a name="s3-express-features-sigv4"></a>

S3 Express One Zone utilise AWS la version de signature 4 (SigV4). SigV4est un protocole de signature utilisé pour authentifier les demandes adressées à Amazon S3 via HTTPS. S3 Express One Zone signe les demandes en utilisant AWS Sigv4. Pour plus d'informations, consultez [Authentification des demandes (AWS Signature version 4)](https://docs.aws.amazon.com//AmazonS3/latest/API/sig-v4-authenticating-requests.html) dans le manuel *Amazon Simple Storage Service API Reference*.

### Forte cohérence
<a name="s3-express-features-strong-consistency"></a>

S3 Express One Zone assure une forte read-after-write cohérence pour l'ensemble des objets contenus dans vos compartiments de répertoire `PUT` et pour les `DELETE` Régions AWS requêtes y afférentes. Pour de plus amples informations, veuillez consulter [Modèle de cohérence des données Amazon S3](Welcome.md#ConsistencyModel).

### Services connexes
<a name="s3-express-related-services"></a>

Vous pouvez utiliser ce qui suit Services AWS avec la classe de stockage S3 Express One Zone pour prendre en charge votre cas d'utilisation spécifique à faible latence.
+ [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/ec2/index.html) : Amazon EC2 offre une capacité de calcul sécurisée et évolutive dans le AWS Cloud. En utilisant Amazon EC2, vous n’avez pas besoin d’investir dans du matériel au départ, ce qui vous permet de développer et de déployer des applications plus rapidement. Vous pouvez utiliser Amazon EC2 pour lancer autant de serveurs virtuels que nécessaire, configurer la sécurité et les réseaux, et gérer le stockage.
+ [AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/welcome.html.html) : Lambda est un service de calcul qui vous permet d’exécuter du code sans provisionner ni gérer de serveurs. Vous configurez des paramètres de notification sur un compartiment et accordez à Amazon S3 l’autorisation d’invoquer une fonction sur la stratégie d’autorisations basée sur une ressource de la fonction. 
+ [Amazon Elastic Kubernetes Service (Amazon EKS) — Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/what-is-eks.html) est un service géré qui élimine le besoin d'installer, d'exploiter et de maintenir Kubernetes votre propre plan de contrôle. AWS[https://kubernetes.io/docs/concepts/overview/](https://kubernetes.io/docs/concepts/overview/)est un système open source qui automatise la gestion, le dimensionnement et le déploiement des applications conteneurisées.
+ [Amazon Elastic Container Service (Amazon ECS)](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/Welcome.html) : Amazon ECS est un service d’orchestration de conteneurs entièrement géré qui vous permet de déployer, de gérer et de mettre à l’échelle aisément des applications conteneurisées.
+ [AWS Service de gestion des clés (AWS KMS)](https://docs.aws.amazon.com/kms/latest/developerguide/overview.html) — Le service de gestion des AWS clés (AWS KMS) est un service AWS géré qui vous permet de créer et de contrôler facilement les clés de chiffrement utilisées pour chiffrer vos données. Les clés AWS KMS que vous créez dans AWS KMS sont protégées par des modules matériels de sécurité (HSM) validés par la norme FIPS 140-2. Pour utiliser ou gérer vos clés KMS, vous devez interagir avec AWS KMS.
+ [Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/what-is.html) : Amazon Athena est un service de requête interactif qui facilite l’analyse des données directement dans Amazon S3 à l’aide du langage [SQL](https://docs.aws.amazon.com/athena/latest/ug/ddl-sql-reference.html) standard. Vous pouvez également utiliser Athena pour exécuter de façon interactive l’analytique des données à l’aide d’Apache Spark sans avoir à planifier, configurer ni gérer de ressources. Lorsque vous exécutez des applications Apache Spark sur Athena, vous soumettez du code Spark pour traitement et recevez directement les résultats.
+ [Amazon SageMaker Training](https://docs.aws.amazon.com//sagemaker/latest/dg/how-it-works-training.html) : passez en revue les options relatives aux modèles de formation avec AmazonSageMaker, notamment les algorithmes intégrés, les algorithmes personnalisés, les bibliothèques et les modèles issus du AWS Marketplace.
+ [AWS Glue](https://docs.aws.amazon.com/glue/latest/dg/what-is-glue.html)— AWS Glue est un service d'intégration de données sans serveur qui permet aux utilisateurs d'outils d'analyse de découvrir, de préparer, de déplacer et d'intégrer facilement des données provenant de sources multiples. Vous pouvez l'utiliser AWS Glue pour l'analyse, l'apprentissage automatique et le développement d'applications. AWS Glue inclut également des outils de productivité et d'exploitation des données supplémentaires pour la création, l'exécution de tâches et la mise en œuvre de flux de travail commerciaux.
+ [Amazon EMR —](https://docs.aws.amazon.com//emr/latest/ManagementGuide/emr-what-is-emr.html) Amazon EMR est une plate-forme de clusters gérés qui simplifie l'exécution de frameworks de mégadonnées, tels que le traitement Apache Hadoop et Apache Spark l'analyse AWS de grandes quantités de données. 
+ [AWS CloudTrail](https://docs.aws.amazon.com//awscloudtrail/latest/userguide/cloudtrail-user-guide.html)— AWS CloudTrail est un AWS service qui vous aide à permettre l'audit opérationnel et des risques, la gouvernance et la conformité de votre AWS compte. Les actions entreprises par un utilisateur, un rôle ou un AWS service sont enregistrées sous forme d'événements dans CloudTrail. Les événements incluent les actions entreprises dans la console AWS de gestion, l'interface de ligne de AWS commande AWS SDKs et APIs. 
+ [AWS CloudFormation ](https://docs.aws.amazon.com//AWSCloudFormation/latest/UserGuide/Welcome.html)— est un service qui vous aide à modéliser et à configurer vos AWS ressources afin que vous puissiez passer moins de temps à les gérer et plus de temps à vous concentrer sur les applications qui s'exécutent AWS. Vous créez un modèle qui décrit toutes les AWS ressources que vous souhaitez (comme les instances Amazon EC2 ou les instances de base de données Amazon RDS), et vous vous CloudFormation occupez du provisionnement et de la configuration de ces ressources pour vous. Vous n'avez pas besoin de créer et de configurer AWS des ressources individuellement et de déterminer ce qui dépend de quoi ; il CloudFormation gère tout cela.

### Étapes suivantes
<a name="s3-express-next-steps"></a>

Pour plus d’informations sur l’utilisation des compartiments de répertoires et de la classe de stockage S3 Express One Zone, consultez les rubriques suivantes :
+ [Didacticiel : bien démarrer avec S3 Express One Zone](s3-express-getting-started.md)
+ [Régions et zones de disponibilité S3 Express One Zone](s3-express-Endpoints.md)
+ [Mise en réseau des compartiments de répertoires dans une zone de disponibilité](directory-bucket-az-networking.md)
+ [Création de compartiments de répertoires dans une zone de disponibilité](directory-bucket-create.md)
+ [Points de terminaison régionaux et zonaux pour les compartiments de répertoires d’une zone de disponibilité](endpoint-directory-buckets-AZ.md)
+ [Optimisation des performances de S3 Express One Zone](s3-express-performance.md)

# Didacticiel : bien démarrer avec S3 Express One Zone
<a name="s3-express-getting-started"></a>

Amazon S3 Express One Zone est la première classe de stockage S3 dans laquelle vous pouvez sélectionner une zone de disponibilité unique avec la possibilité de regrouper le stockage d’objets et les ressources de calcul, ce qui assure la vitesse d’accès la plus élevée possible. Les données figurant dans S3 Express One Zone sont stockées dans des compartiments de répertoires situés dans des zones de disponibilité. Pour plus d’informations sur les compartiments de répertoires, consultez [Compartiments de répertoires](https://docs.aws.amazon.com//AmazonS3/latest/userguide/directory-buckets-overview.html). 

 S3 Express One Zone est idéal pour toute application où il est crucial de réduire au maximum la latence des demandes. Il peut s’agir de flux de travail impliquant des interactions avec des utilisateurs, tels que le montage vidéo, où les créatifs ont besoin d’un accès réactif au contenu à partir de leur interface utilisateur. S3 Express One Zone profite également aux charges de travail d’analytique et de machine learning qui ont des exigences similaires en matière de réactivité de leurs données, notamment aux charges de travail présentant de nombreux petits accès ou un grand nombre d’accès aléatoires. S3 Express One Zone peut être utilisé avec d'autres AWS services tels qu'Amazon EMR, Amazon Athena AWS , Glue Data Catalog et SageMaker Amazon Model Training pour prendre en charge les charges de travail d'analyse, d'intelligence artificielle et d'apprentissage automatique (AI/ML). Vous pouvez utiliser la classe de stockage et les compartiments de répertoire S3 Express One Zone à l'aide de la console Amazon S3 AWS SDKs, de l'interface de ligne de AWS commande (AWS CLI) et de l'API REST Amazon S3. Pour plus d’informations, consultez les sections [Qu’est-ce que S3 Express One Zone ?](https://docs.aws.amazon.com//AmazonS3/latest/userguide/s3-express-one-zone.html) et [En quoi S3 Express One Zone est-il différent ?](https://docs.aws.amazon.com//AmazonS3/latest/userguide/s3-express-differences.html) 

![\[Voici le schéma d’un flux de travail S3 Express One Zone.\]](http://docs.aws.amazon.com/fr_fr/AmazonS3/latest/userguide/images/s3-express-one-zone.png)


**Objectif**  
Dans ce didacticiel, vous apprendrez à créer un point de terminaison de passerelle, à créer et à joindre une politique IAM, à créer un compartiment de répertoires, puis à utiliser l’action d’importation pour remplir votre compartiment de répertoires avec des objets stockés dans un compartiment à usage général. Vous pouvez également charger des objets manuellement dans votre compartiment de répertoires. 

**Topics**
+ [

## Conditions préalables
](#s3-express-tutorial-prerequisites)
+ [

# Étape 1 : configuration d’un point de terminaison d’un VPC de passerelle pour accéder aux compartiments de répertoires S3 Express One Zone
](s3-express-tutorial-endpoints.md)
+ [

# Étape 2 : création d’un compartiment de répertoires S3 Express One Zone
](s3-express-tutorial-create-directory-bucket.md)
+ [

# Étape 3 : importation de données dans un compartiment de répertoires S3 Express One Zone
](s3-express-tutorial-Import.md)
+ [

# Étape 4 : chargement manuel d’objets dans votre compartiment de répertoires S3 Express One Zone
](s3-express-tutorial-Upload.md)
+ [

# Étape 5 : vidage de votre compartiment de répertoires S3 Express One Zone
](s3-express-tutoiral-Empty.md)
+ [

# Étape 6 : suppression de votre compartiment de répertoires S3 Express One Zone
](s3-express-tutoiral-Delete.md)
+ [

## Étapes suivantes
](#s3-express-tutoiral-Next)

## Conditions préalables
<a name="s3-express-tutorial-prerequisites"></a>

Avant de commencer ce didacticiel, vous devez disposer d'un utilisateur Compte AWS auquel vous pouvez vous connecter en tant qu'utilisateur Gestion des identités et des accès AWS (IAM) avec les autorisations appropriées.

**Topics**
+ [

### Créez un Compte AWS
](#s3-express-create-account)
+ [

### Créez un utilisateur IAM dans votre Compte AWS (console)
](#s3-express-tutorial-user)
+ [

### Création d’une politique IAM et association de cette politique à un utilisateur ou rôle IAM (console)
](#s3-express-tutorial-polict)

### Créez un Compte AWS
<a name="s3-express-create-account"></a>

Pour terminer ce didacticiel, vous avez besoin d'un Compte AWS. Lorsque vous vous inscrivez AWS, vous êtes automatiquement Compte AWS inscrit à tous les services AWS, y compris Amazon S3. Seuls les services que vous utilisez vous sont facturés. Pour plus d’informations sur la tarification, consultez [Tarification S3](https://aws.amazon.com/s3/pricing/). 

### Créez un utilisateur IAM dans votre Compte AWS (console)
<a name="s3-express-tutorial-user"></a>

Gestion des identités et des accès AWS (IAM) est un outil Service AWS qui aide les administrateurs à contrôler en toute sécurité l'accès aux AWS ressources. Les administrateurs IAM contrôlent qui peut être authentifié (connecté) et autorisé (via les autorisations nécessaires) à accéder aux objets et à utiliser les compartiments de répertoires dans S3 Express One Zone. Vous pouvez utiliser IAM sans frais supplémentaires. 

Par défaut, les utilisateurs ne disposent pas d’autorisations pour accéder aux compartiments de répertoires ni aux opérations S3 Express One Zone. Pour accorder des autorisations d’accès pour les compartiments de répertoires et les opérations S3 Express One Zone, vous pouvez utiliser IAM pour créer des utilisateurs ou des rôles et associer des autorisations à ces identités. Pour en savoir plus sur la création d’un utilisateur IAM, consultez [Créer des utilisateurs IAM (console)](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_users_create.html#id_users_create_console) dans le *guide de l’utilisateur IAM*. Pour plus d’informations sur la création d’un rôle IAM, consultez [Création d’un rôle pour la délégation d’autorisations à un utilisateur IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_create_for-user.html) dans le *Guide de l’utilisateur IAM*. 

Pour des raisons de simplicité, ce didacticiel crée et utilise un utilisateur IAM. Après avoir terminé ce didacticiel, n’oubliez pas de [Supprimer l’utilisateur IAM](tutorial-s3-object-lambda-uppercase.md#ol-upper-step8-delete-user). Pour une utilisation en production, nous vous recommandons de suivre les [Bonnes pratiques de sécurité dans IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/best-practices.html) dans le *Guide de l’utilisateur IAM*. Une bonne pratique requiert que les utilisateurs humains utilisent une fédération avec un fournisseur d’identité pour accéder à AWS avec des informations d’identification temporaires. Une autre bonne pratique consiste à exiger que les charges de travail utilisent des informations d’identification temporaires avec des rôles IAM pour accéder à AWS. Pour en savoir plus sur l'utilisation AWS IAM Identity Center pour créer des utilisateurs dotés d'informations d'identification temporaires, consultez la section [Mise en route](https://docs.aws.amazon.com/singlesignon/latest/userguide/getting-started.html) dans le *guide de AWS IAM Identity Center l'utilisateur*. 

**Avertissement**  
Les utilisateurs IAM disposent d’informations d’identification à long terme, ce qui présente un risque de sécurité. Pour atténuer ce risque, nous vous recommandons de ne fournir à ces utilisateurs que les autorisations dont ils ont besoin pour effectuer la tâche et de supprimer ces autorisations lorsqu’elles ne sont plus nécessaires.

### Création d’une politique IAM et association de cette politique à un utilisateur ou rôle IAM (console)
<a name="s3-express-tutorial-polict"></a>

Par défaut, les utilisateurs ne disposent pas d’autorisations pour les compartiments de répertoires et les opérations S3 Express One Zone. Pour accorder des autorisations d’accès pour les compartiments de répertoires, vous pouvez utiliser IAM pour créer des utilisateurs, des groupes ou des rôles, et attacher des autorisations à ces identités. Les compartiments de répertoires sont la seule ressource que vous pouvez inclure dans les stratégies de compartiment ou les politiques d’identité IAM pour accéder à S3 Express One Zone. 

Pour utiliser les opérations d’API de point de terminaison régional (opérations au niveau des compartiments ou du plan de contrôle) avec S3 Express One Zone, vous utilisez le modèle d’autorisation IAM, qui n’implique aucune gestion des sessions. Les autorisations sont accordées pour les actions, de façon individuelle. Pour utiliser les opérations d’API de point de terminaison zonal (opérations au niveau des objets ou du plan de données), vous utilisez l’opération d’API [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateSession.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateSession.html) pour créer et gérer des sessions optimisées afin d’autoriser les demandes de données à faible latence. Pour récupérer et utiliser un jeton de session, vous devez autoriser l’action `s3express:CreateSession` pour votre compartiment de répertoires dans une politique basée sur l’identité ou une politique de compartiment. Si vous accédez à S3 Express One Zone depuis la console Amazon S3, via l'interface de ligne de AWS commande (AWS CLI) ou en utilisant la AWS SDKs, S3 Express One Zone crée une session en votre nom. Pour plus d’informations, consultez [Autorisation `CreateSession`](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-create-session.html) et [Gestion des identités et des accès AWS (AWS IAM) pour S3 Express One Zone](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-security-iam.html). 

**Pour créer une politique IAM et l’associer à un utilisateur ou rôle IAM (console)**

1. Connectez-vous à la console AWS de gestion et ouvrez la console de gestion IAM.

1. Dans le panneau de navigation, choisissez **Politiques**.

1. Choisissez **Create Policy** (Créer une politique).

1. Sélectionnez **JSON**.

1. Copiez la politique ci-dessous dans la fenêtre de l’**éditeur de politique**. Avant de créer des compartiments de répertoire ou d'utiliser S3 Express One Zone, vous devez accorder les autorisations nécessaires à votre rôle Gestion des identités et des accès AWS (IAM) ou à vos utilisateurs. Cet exemple de politique autorise l’accès à l’opération d’API `CreateSession` (à utiliser avec d’autres opérations d’API de point de terminaison zonal ou au niveau des objets) et à toutes les opérations d’API de point de terminaison régional (au niveau des compartiments). Cette politique autorise l’utilisation de l’opération d’API `CreateSession` avec tous les compartiments de répertoires, mais les opérations d’API de point de terminaison régional sont autorisées à être utilisées uniquement avec le compartiment de répertoires spécifié. Pour utiliser cet exemple de politique, remplacez `user input placeholders` par vos propres informations.

------
#### [ JSON ]

****  

   ```
   {
        "Version":"2012-10-17",		 	 	 
        "Statement": [ 
            {
                "Sid": "AllowAccessRegionalEndpointAPIs",
                "Effect": "Allow",
                "Action": [
                    "s3express:DeleteBucket",
                    "s3express:DeleteBucketPolicy",
                    "s3express:CreateBucket",
                    "s3express:PutBucketPolicy",
                    "s3express:GetBucketPolicy",
                    "s3express:ListAllMyDirectoryBuckets"
                ],
   
                "Resource": "arn:aws:s3express:us-east-1:111122223333:bucket/amzn-s3-demo-bucket--usw2-az1--x-s3/*"
            },
            {
                "Sid": "AllowCreateSession",
                "Effect": "Allow",
                "Action": "s3express:CreateSession",
                "Resource": "*"
            }
        ]
    }
   ```

------

1. Choisissez **Suivant**.

1. Nommez la politique.
**Note**  
Les balises de compartiment ne sont pas prises en charge pour S3 Express One Zone.

1. Sélectionnez **Create Policy** (Créer une politique).

1.  Maintenant que vous avez créé une politique IAM, vous pouvez l’attacher à un utilisateur IAM. Dans le panneau de navigation, choisissez **Politiques**.

1. Dans la **barre de recherche**, saisissez le nom de la politique.

1. Dans le menu **Actions**, sélectionnez **Attacher**. 

1. Sous **Filtrer par type d’entité**, sélectionnez **Utilisateurs IAM** ou **Rôles**. 

1. Dans le **champ de recherche**, saisissez le nom de l’utilisateur ou du rôle que vous souhaitez utiliser.

1. Choisissez **Attach Policy** (Attacher une politique).

**Topics**
+ [

### Créez un Compte AWS
](#s3-express-create-account)
+ [

### Créez un utilisateur IAM dans votre Compte AWS (console)
](#s3-express-tutorial-user)
+ [

### Création d’une politique IAM et association de cette politique à un utilisateur ou rôle IAM (console)
](#s3-express-tutorial-polict)

# Étape 1 : configuration d’un point de terminaison d’un VPC de passerelle pour accéder aux compartiments de répertoires S3 Express One Zone
<a name="s3-express-tutorial-endpoints"></a>

 Vous pouvez accéder aux opérations d’API zonales et régionales via des points de terminaison de cloud privé virtuel (VPC) de passerelle. Les points de terminaison de passerelle permettent au trafic d’atteindre S3 Express One Zone sans passer par une passerelle NAT. Nous vous recommandons vivement d’utiliser des points de terminaison de passerelle, car ils fournissent le chemin réseau le plus optimal lorsque vous travaillez avec S3 Express One Zone. Vous pouvez accéder à des compartiments de répertoires S3 Express One Zone à partir de votre VPC sans passerelle Internet ni périphérique NAT pour votre VPC, sans frais supplémentaires. Utilisez la procédure suivante pour configurer un point de terminaison de passerelle qui se connecte à des compartiments de répertoires et des objets de la classe de stockage S3 Express One Zone.

Pour accéder à S3 Express One Zone, vous utilisez des points de terminaison régionaux et zonaux différents des points de terminaison Amazon S3 standard. Selon l’opération d’API Amazon S3 que vous utilisez, un point de terminaison zonal ou régional est requis. Pour obtenir la liste complète des opérations d’API prises en charge par type de point de terminaison, consultez [Opérations d’API prises en charge par S3 Express One Zone](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-differences.html#s3-express-differences-api-operations). Vous devez accéder aux points de terminaison zonaux et régionaux via un point de terminaison de cloud privé virtuel (VPC) de passerelle. 

 Utilisez la procédure suivante pour créer un point de terminaison de passerelle qui se connecte à des compartiments de répertoires et des objets de la classe de stockage S3 Express One Zone.

**Pour configurer un point de terminaison de VPC de passerelle**

1. Ouvrez la console Amazon VPC à l’adresse [https://console.aws.amazon.com/vpc/](https://console.aws.amazon.com/vpc/).

1. Dans le volet de navigation latéral, sous **Cloud privé virtuel**, choisissez **Points de terminaison**.

1. Choisissez **Créer un point de terminaison**.

1. Créez un nom pour votre point de terminaison.

1. Pour **Service category** (Catégorie de service), choisissez **Services AWS**. 

1. **Sous **Services, effectuez** une recherche à l'aide du filtre **Type=Gateway**, puis choisissez le bouton d'option à côté de com.amazonaws. *region*.s3 express**. 

1. Pour **VPC**, choisissez le VPC dans lequel créer le point de terminaison.

1. Pour les **tables de routage**, choisissez la table de routage de votre zone locale à utiliser par le point de terminaison. Une fois le point de terminaison créé, un enregistrement de l’acheminement est ajouté à la table de routage que vous avez sélectionnée à cette étape.

1. Pour **Politique**, choisissez **Accès complet** afin d’autoriser toutes les opérations de tous les principaux sur toutes les ressources via le point de terminaison de VPC. Sinon, choisissez **Personnalisé** pour attacher une politique de point de terminaison de VPC qui contrôle les autorisations dont disposent les principaux pour effectuer des actions au niveau des ressources via le point de terminaison de VPC.

1. Pour **IP address type** (Type d'adresse IP), choisissez l'une des options suivantes :
   +  **IPv4**— Attribuez IPv4 des adresses aux interfaces réseau des terminaux. Cette option n'est prise en charge que si tous les sous-réseaux sélectionnés possèdent des plages d' IPv4 adresses et si le service accepte les IPv4 demandes. 
   +  **IPv6**— Attribuez IPv6 des adresses aux interfaces réseau des terminaux. Cette option n'est prise en charge que si tous les sous-réseaux sélectionnés IPv6 ne sont que des sous-réseaux et que le service accepte IPv6 les demandes.
   +  **Dualstack** — Attribuez à la fois des IPv6 adresses IPv4 et des adresses aux interfaces réseau des terminaux. Cette option n'est prise en charge que si tous les sous-réseaux sélectionnés possèdent à la fois des plages d' IPv6 adresses IPv4 et si le service accepte à la fois les IPv6 demandes IPv4 et les demandes.

1. (Facultatif) Pour ajouter une balise, choisissez **Ajouter une nouvelle balise** et entrez la clé et la valeur de la balise.

1. Choisissez **Créer un point de terminaison**.

Après avoir créé un point de terminaison de passerelle, vous pouvez utiliser les points de terminaison d’API régionaux et les points de terminaison d’API zonaux pour accéder aux compartiments de répertoires et aux objets de classe de stockage Amazon S3 Express One Zone.

# Étape 2 : création d’un compartiment de répertoires S3 Express One Zone
<a name="s3-express-tutorial-create-directory-bucket"></a>

1. Connectez-vous à la console Amazon S3 AWS Management Console et ouvrez-la à l'adresse [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Dans la barre de navigation en haut de la page, choisissez le nom du fichier actuellement affiché Région AWS. Choisissez ensuite la région dans laquelle vous souhaitez créer un compartiment. 
**Note**  
Pour limiter la latence et les coûts, et répondre aux exigences légales, choisissez une région proche de vous. Les objets stockés dans une Région ne la quittent jamais, sauf si vous les transférez explicitement vers une autre Région. Pour obtenir la liste d'Amazon S3 Régions AWS, consultez la section sur les [Service AWS points de terminaison](https://docs.aws.amazon.com/general/latest/gr/rande.html#s3_region) dans le *Référence générale d'Amazon Web Services*.

1. Dans le volet de navigation de gauche, choisissez **Compartiments de répertoires**.

1. Choisissez **Créer un compartiment**. La page **Créer un compartiment** s’ouvre.

1. Sous **Configuration générale**, consultez l' Région AWS endroit où votre bucket sera créé. 

   Sous **Type de compartiment**, choisissez **Répertoire**.
**Note**  
Si vous avez choisi une région qui ne prend pas en charge les compartiments de répertoires, l’option **Type de compartiment** disparaît, et le type de compartiment est défini par défaut sur un compartiment à usage général. Pour créer un compartiment de répertoires, vous devez choisir une région prise en charge. Pour obtenir la liste des régions qui prennent en charge les compartiments de répertoires et la classe de stockage Amazon S3 Express One Zone, consultez [Régions et zones de disponibilité S3 Express One Zone](s3-express-Endpoints.md).
Une fois que vous avez créé le compartiment, vous ne pouvez pas modifier son type.
**Note**  
La zone de disponibilité ne peut pas être modifiée une fois le compartiment créé. 

1. Pour **Zone de disponibilité**, choisissez une zone de disponibilité locale pour vos services de calcul. Pour obtenir la liste des zones de disponibilité qui prennent en charge les compartiments de répertoires et la classe de stockage S3 Express One Zone, consultez [Régions et zones de disponibilité S3 Express One Zone](s3-express-Endpoints.md). 

   Sous **Zone de disponibilité**, cochez la case confirmant que vous comprenez qu’en cas de panne de la zone de disponibilité, vos données pourraient être indisponibles ou perdues. 
**Important**  
Les compartiments de répertoires sont stockés sur plusieurs appareils au sein d’une même zone de disponibilité, mais ne stockent pas les données de manière redondante entre les zones de disponibilité.

1. Pour **Nom du compartiment**, entrez un nom pour votre compartiment de répertoires.

   Les règles suivantes s’appliquent pour nommer les compartiments de répertoires :
   + Soyez unique au sein de la zone choisie (zone de AWS disponibilité ou zone AWS locale). 
   + Le nom doit contenir entre 3 (minimum) et 63 caractères (maximum), suffixe inclus.
   + Doit être composé uniquement de lettres minuscules, de chiffres et de traits d’union (-).
   + Il doit commencer et se terminer par une lettre ou un chiffre. 
   + Doit inclure le suffixe suivant : `--zone-id--x-s3`
   + Les noms de compartiment ne doivent pas commencer par le préfixe `xn--`.
   + Les noms de compartiment ne doivent pas commencer par le préfixe `sthree-`.
   + Les noms de compartiment ne doivent pas commencer par le préfixe `sthree-configurator`.
   + Les noms de compartiment ne doivent pas commencer par le préfixe ` amzn-s3-demo-`.
   + Les noms de compartiment ne doivent pas se terminer par le suffixe `-s3alias`. Ce suffixe est réservé aux noms d’alias de point d’accès. Pour plus d’informations, consultez [Alias de point d'accès](access-points-naming.md#access-points-alias).
   + Les noms de compartiment ne doivent pas se terminer par le suffixe `--ol-s3`. Ce suffixe est réservé aux noms d’alias de point d’accès Object Lambda. Pour de plus amples informations, veuillez consulter [Comment utiliser un alias de type compartiment pour votre point d’accès Object Lambda de compartiment S3](olap-use.md#ol-access-points-alias).
   + Les noms de compartiment ne doivent pas se terminer par le suffixe `.mrap`. Ce suffixe est réservé aux noms de point d’accès multi-régions. Pour de plus amples informations, veuillez consulter [Règles relatives à l'attribution de noms pour les points d'accès multi-Régions Amazon S3](multi-region-access-point-naming.md).

   Un suffixe est automatiquement ajouté au nom de base que vous fournissez lorsque vous créez un compartiment de répertoires à l’aide de la console. Ce suffixe inclut l’ID de la zone de disponibilité que vous avez choisie.

   Une fois le compartiment créé, vous ne pouvez pas changer son nom. Pour plus d’informations sur l’attribution de noms à des compartiments, consultez [Règles de dénomination des compartiments à usage général](bucketnamingrules.md). 
**Important**  
N’ajoutez pas d’informations sensibles, notamment des numéros de compte, dans le nom du compartiment. Le nom du bucket est visible URLs là où pointent les objets du bucket.

1. Sous **Propriété de l'objet**, le paramètre **imposé au propriétaire du compartiment** est automatiquement activé et toutes les listes de contrôle d'accès (ACLs) sont désactivées. Impossible d'activer les ACLs compartiments de répertoire. 

    Application par **le propriétaire du compartiment (par défaut)** : ACLs cette option est désactivée, et le propriétaire du compartiment possède automatiquement tous les objets du compartiment à usage général et en a le contrôle total. ACLs n'affectent plus les autorisations d'accès aux données du compartiment à usage général S3. Le compartiment utilise des stratégies exclusivement pour définir le contrôle des accès.

1. Sous **Paramètres de blocage de l’accès public pour ce compartiment**, notez que les paramètres de blocage de l’accès public pour votre compartiment de répertoires sont automatiquement activés. Ces paramètres ne peuvent pas être modifiés pour les compartiments de répertoires. Pour en savoir plus sur le blocage de l’accès public, consultez [Blocage de l’accès public à votre stockage Amazon S3](access-control-block-public-access.md).

1. Pour configurer le chiffrement par défaut, dans **Type de chiffrement**, choisissez l’une des options suivantes : 
   + **Chiffrement côté serveur avec une clé gérée par Amazon S3 (SSE-S3)**
   + **Chiffrement côté serveur avec AWS Key Management Service clé (SSE-KMS)**

   Pour en savoir plus sur l’utilisation du chiffrement côté serveur Amazon S3 pour chiffrer vos données, consultez [Protection et chiffrement des données](s3-express-data-protection.md).
**Important**  
Si vous utilisez l’option SSE-KMS pour votre configuration de chiffrement par défaut, vous êtes soumis aux quotas RPS (demandes par seconde) de AWS KMS. Pour plus d’informations sur les quotas de AWS KMS et sur la procédure à suivre pour demander une augmentation des quotas, consultez [Quotas](https://docs.aws.amazon.com/kms/latest/developerguide/limits.html) dans le *Guide du développeur AWS Key Management Service *.  
Lors de l’activation du chiffrement par défaut, il se peut que vous deviez mettre à jour votre stratégie de compartiment. Pour de plus amples informations, veuillez consulter [Utilisation du chiffrement SSE-KMS pour les opérations intercomptes](bucket-encryption.md#bucket-encryption-update-bucket-policy).

1. Si vous avez choisi **Chiffrement côté serveur avec des clés gérées par Amazon S3 (SSE-S3)**, **Activée** apparaît sous **Clé de compartiment**. Les clés de compartiment S3 sont toujours activées lorsque vous configurez votre compartiment de répertoires pour qu’il utilise le chiffrement SSE-S3 par défaut. Les clés de compartiment S3 sont toujours activées pour les opérations `GET` et `PUT` dans un compartiment de répertoires et ne peuvent pas être désactivées. Les clés de compartiment S3 ne sont pas prises en charge lorsque vous copiez des objets chiffrés avec SSE-KMS depuis des compartiments à usage général vers des compartiments de répertoires, depuis des compartiments de répertoires vers des compartiments à usage général ou entre des compartiments de répertoires, par le biais de [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html), d’[https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html), de l’[opération Copy dans les opérations par lot](directory-buckets-objects-Batch-Ops.md) ou des [tâches import](create-import-job.md). Dans ce cas, Amazon S3 effectue un appel à AWS KMS chaque fois qu'une demande de copie est faite pour un objet chiffré par KMS.

   Les clés de compartiment S3 réduisent le coût du chiffrement en diminuant le trafic de demandes d'Amazon S3 vers AWS KMS. Pour de plus amples informations, veuillez consulter [Réduction du coût du SSE-KMS avec les clés de compartiment Amazon S3](bucket-key.md).

1. Si vous avez choisi le **chiffrement côté serveur avec AWS Key Management Service clé (SSE-KMS)**, sous ** AWS KMS clé**, spécifiez votre AWS Key Management Service clé de l'une des manières suivantes ou créez-en une nouvelle.
   + Pour choisir parmi une liste de clés KMS disponibles, **choisissez Choisir parmi vos AWS KMS keys**, puis choisissez votre **clé KMS** **dans Disponible AWS KMS keys**.

     Seules vos clés gérées par le client apparaissent dans cette liste. Le Clé gérée par AWS (`aws/s3`) n'est pas pris en charge dans les compartiments de répertoire. Pour plus d’informations sur les clés gérées par le client, consultez [Clés de client et clés AWS](https://docs.aws.amazon.com//kms/latest/developerguide/concepts.html#key-mgmt) dans le *Guide du développeur AWS Key Management Service *.
   + Pour saisir l’ARN ou l’alias de la clé KMS, choisissez **Saisir l’ARN de la AWS KMS key **, puis saisissez l’ARN ou l’alias de votre clé KMS dans **ARN AWS KMS key **. 
   + Pour créer une nouvelle clé gérée par le client dans la AWS KMS console, choisissez **Create a KMS key**.

     Pour plus d'informations sur la création d'un AWS KMS key, consultez la section [Création de clés](https://docs.aws.amazon.com//kms/latest/developerguide/create-keys.html) dans le *Guide du AWS Key Management Service développeur*.
**Important**  
Votre configuration SSE-KMS ne peut prendre en charge qu’une seule [clé gérée par le client](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#customer-cmk) par compartiment de répertoires pendant toute la durée de vie du compartiment. La [https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#aws-managed-cmk](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#aws-managed-cmk) (`aws/s3`) n’est pas prise en charge. De même, après avoir spécifié une clé gérée par le client pour SSE-KMS, vous ne pouvez pas remplacer la clé gérée par le client pour la configuration SSE-KMS du compartiment.  
Vous pouvez identifier la clé gérée par le client que vous avez spécifiée pour la configuration SSE-KMS du compartiment de la manière suivante :  
Effectuez une demande d’opération d’API `HeadObject` pour trouver la valeur de `x-amz-server-side-encryption-aws-kms-key-id` dans la réponse.
Pour utiliser une nouvelle clé gérée par le client pour vos données, nous vous recommandons de copier vos objets existants dans un nouveau compartiment de répertoires avec une nouvelle clé gérée par le client.
Vous ne pouvez utiliser que les clés KMS disponibles dans le même compartiment Région AWS que le bucket. La console Amazon S3 répertorie uniquement les 100 premières clés KMS dans la même région que le compartiment. Pour utiliser une clé KMS qui n’est pas répertoriée, vous devez saisir l’ARN de votre clé KMS. Si vous souhaitez utiliser une clé KMS qui appartient à un autre compte, vous devez d’abord avoir l’autorisation d’utiliser cette clé, puis vous devez saisir l’ARN de la clé KMS. Pour plus d’informations sur les autorisations entre comptes pour les clés KMS, consultez [Création de clés KMS que d’autres comptes peuvent utiliser](https://docs.aws.amazon.com//kms/latest/developerguide/key-policy-modifying-external-accounts.html#cross-account-console) dans le *Guide du développeur AWS Key Management Service *. Pour en savoir plus sur SSE-KMS, consultez [Spécification du chiffrement côté serveur avec AWS KMS (SSE-KMS) pour les téléchargements de nouveaux objets dans des compartiments de répertoires](s3-express-specifying-kms-encryption.md).
Lorsque vous utilisez un AWS KMS key pour le chiffrement côté serveur dans des compartiments de répertoire, vous devez choisir une clé KMS de chiffrement symétrique. Amazon S3 prend uniquement en charge les clés KMS symétriques de chiffrement et ne prend pas en charge les clés KMS asymétriques. Pour plus d’informations, consultez [Identification des clés KMS symétriques et asymétriques](https://docs.aws.amazon.com//kms/latest/developerguide/find-symm-asymm.html) dans le *Guide du développeur AWS Key Management Service *.

   Pour plus d'informations sur l'utilisation AWS KMS avec Amazon S3, consultez[Utilisation du chiffrement côté serveur avec des AWS KMS clés (SSE-KMS) dans des compartiments de répertoire](s3-express-UsingKMSEncryption.md).

1. Choisissez **Créer un compartiment**. Après avoir créé le compartiment, vous pouvez y ajouter des fichiers et des dossiers. Pour de plus amples informations, veuillez consulter [Utilisation d’objets dans un compartiment de répertoires](directory-buckets-objects.md).

# Étape 3 : importation de données dans un compartiment de répertoires S3 Express One Zone
<a name="s3-express-tutorial-Import"></a>

Pour effectuer cette étape, vous devez disposer d'un bucket à usage général contenant des objets et situé au même endroit Région AWS que votre bucket de répertoire.

Après avoir créé un compartiment de répertoires dans Amazon S3, vous pouvez remplir le nouveau compartiment avec des données à l’aide de l’action d’importation dans la console Amazon S3. L’importation simplifie la copie de données dans des compartiments de répertoires en vous permettant de choisir un préfixe ou un compartiment à usage général à partir duquel importer les données sans avoir à spécifier tous les objets à copier individuellement. L’importation utilise les opérations par lot S3, qui copient les objets dans le préfixe ou le compartiment à usage général sélectionné. Vous pouvez suivre la progression de la tâche de la copie d’importation via la page de détails de la tâche d’opérations par lot S3. 

**Pour utiliser l’action Importer**

1. Connectez-vous à la console Amazon S3 AWS Management Console et ouvrez-la à l'adresse [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Dans la barre de navigation en haut de la page, sélectionnez le nom de la Région AWS actuellement affichée. Choisissez ensuite la région associée à la zone de disponibilité dans laquelle se trouve votre compartiment de répertoires. 

1. Dans le volet de navigation de gauche, choisissez **Compartiments de répertoires**.

1. Choisissez le bouton d’option en regard du nom du compartiment dans lequel vous souhaitez importer des objets.

1. Choisissez **Importer**.

1. Pour **Source**, entrez le compartiment à usage général (ou le chemin du compartiment, préfixe inclus) qui contient les objets que vous souhaitez importer. Pour choisir un compartiment à usage général existant dans une liste, choisissez **Parcourir S3**.

1.  Dans la section **Autorisations**, vous pouvez choisir de générer automatiquement un rôle IAM. Vous pouvez également sélectionner un rôle IAM dans une liste ou saisir directement l’ARN d’un rôle IAM. 
   + Pour autoriser Amazon S3 à créer un nouveau rôle IAM en votre nom, choisissez **Créer un nouveau rôle IAM**.
**Note**  
Si vos objets sources sont chiffrés avec un chiffrement côté serveur avec des clés AWS Key Management Service (AWS KMS) (SSE-KMS), ne choisissez pas l’option **Créer un nouveau rôle IAM**. Spécifiez plutôt un rôle IAM existant disposant de l’autorisation `kms:Decrypt`.  
Amazon S3 utilisera cette autorisation pour déchiffrer vos objets. Pendant le processus d’importation, Amazon S3 rechiffrera ensuite ces objets à l’aide d’un chiffrement côté serveur avec les clés gérées par Amazon S3 (SSE-S3).
   + Pour choisir un rôle IAM existant dans une liste, choisissez **Sélectionner parmi les rôles IAM existants**.
   + Pour spécifier un rôle IAM existant en entrant son Amazon Resource Name (ARN), choisissez **Saisir l’ARN du rôle IAM**, puis entrez l’ARN dans le champ correspondant.

1. Passez en revue les informations affichées dans les sections **Destination** et **Paramètres de l’objet copié**. Si les informations de la section **Destination** sont correctes, choisissez **Importer** pour démarrer la tâche de copie.

   La console Amazon S3 affiche le statut de votre nouvelle tâche sur la page **Opérations par lot**. Pour plus d’informations sur la tâche, choisissez le bouton d’option à côté du nom de la tâche, puis dans le menu **Actions**, choisissez **Afficher les détails**. Pour ouvrir le compartiment de répertoires dans lequel les objets seront importés, choisissez **Afficher la destination de l’importation**.

# Étape 4 : chargement manuel d’objets dans votre compartiment de répertoires S3 Express One Zone
<a name="s3-express-tutorial-Upload"></a>

Vous pouvez aussi charger des objets manuellement dans votre compartiment de répertoires.

**Pour charger manuellement des objets**

1. Connectez-vous à la console Amazon S3 AWS Management Console et ouvrez-la à l'adresse [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Dans la barre de navigation située dans le coin supérieur droit de la page, choisissez le nom du fichier actuellement affiché Région AWS. Choisissez ensuite la région associée à la zone de disponibilité dans laquelle se trouve votre compartiment de répertoires. 

1. Dans le volet de navigation de gauche, choisissez **Compartiments de répertoires**.

1. Choisissez le nom du compartiment dans lequel vous souhaitez charger vos dossiers ou fichiers. 
**Note**  
 Si vous avez choisi le même compartiment de répertoires que celui que vous avez utilisé dans les étapes précédentes de ce didacticiel, votre compartiment de répertoires contient les objets qui ont été chargés à partir de l’outil d’importation. Notez que ces objets sont désormais stockés dans la classe de stockage S3 Express One Zone. 

1. Dans l’onglet **Objets**, choisissez **Charger**.

1. Sur la page **Charger**, procédez de l’une des manières suivantes : 
   + Faites glisser et déposez les fichiers et les dossiers dans la fenêtre de chargement.
   + Choisissez **Ajouter des fichiers** ou **Ajouter un dossier**, puis choisissez les fichiers ou les dossiers à charger et sélectionnez **Ouvrir** ou **Charger**.

1. Sous **Sommes de contrôle**, choisissez la **fonction de somme de contrôle** que vous souhaitez utiliser. 
**Note**  
 Nous vous recommandons d'utiliser CRC32 et CRC32 C pour obtenir les meilleures performances avec la classe de stockage S3 Express One Zone. Pour plus d’informations, consultez [Bonnes pratiques en matière de sommes de contrôle supplémentaires S3](https://docs.aws.amazon.com//AmazonS3/latest/userguide/s3-express-optimizing-performance-design-patterns.html#s3-express-optimizing--checksums.html). 

   (Facultatif) Si vous importez un seul objet d’une taille inférieure à 16 Mo, vous pouvez également spécifier une valeur de somme de contrôle précalculée. Lorsque vous fournissez une valeur précalculée, Amazon S3 la compare à la valeur calculée à l’aide de la fonction de somme de contrôle sélectionnée. Si les valeurs ne correspondent pas, le chargement ne démarrera pas. 

1. Les options des sections **Autorisations** et **Propriétés** sont automatiquement définies selon les paramètres par défaut et ne peuvent pas être modifiées. Le blocage de l’accès public est automatiquement activé, et la gestion des versions S3 ainsi que le verrouillage d’objet S3 ne peuvent pas être activés pour les compartiments de répertoires. 

   (Facultatif) Si vous souhaitez ajouter des métadonnées sous forme de paires clé-valeur aux objets, développez la section **Propriétés**, puis dans la section **Métadonnées**, choisissez **Ajouter des métadonnées**.

1. Pour charger les fichiers et dossiers répertoriés, choisissez **Charger**.

   Amazon S3 charge les objets et les dossiers. Lorsque le chargement est terminé, un message de réussite s’affiche sur la page **Charger : statut**.

    Vous avez créé avec succès un compartiment de répertoires et y avez chargé des objets. 

# Étape 5 : vidage de votre compartiment de répertoires S3 Express One Zone
<a name="s3-express-tutoiral-Empty"></a>

Vous pouvez vider un compartiment de répertoires Amazon S3 à l’aide de la console Amazon S3.

**Pour vider un compartiment de répertoires.**

1. Connectez-vous à la console Amazon S3 AWS Management Console et ouvrez-la à l'adresse [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Dans la barre de navigation située dans le coin supérieur droit de la page, choisissez le nom du fichier actuellement affiché Région AWS. Choisissez ensuite la région associée à la zone de disponibilité dans laquelle se trouve votre compartiment de répertoires. 

1. Dans le volet de navigation de gauche, choisissez **Compartiments de répertoires**.

1. Choisissez la case d’option située à côté du nom du compartiment à vider, puis choisissez **Vider**.

1. Dans la page **Empty bucket (Vider le compartiment)**, confirmez que vous souhaitez vider le compartiment en saisissant **permanently delete** dans le champ de texte, puis choisissez **Empty (Vider)**.

1. Surveillez la progression du processus de vidage du compartiment sur la page **Vider le compartiment : état**.

# Étape 6 : suppression de votre compartiment de répertoires S3 Express One Zone
<a name="s3-express-tutoiral-Delete"></a>

Une fois que vous avez vidé votre compartiment de répertoires et que vous avez abandonné tous les chargements partitionnés en cours, vous pouvez supprimer le compartiment à l’aide de la console Amazon S3.

**Pour supprimer un compartiment de répertoires**

1. Connectez-vous à la console Amazon S3 AWS Management Console et ouvrez-la à l'adresse [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Dans la barre de navigation située dans le coin supérieur droit de la page, choisissez le nom du fichier actuellement affiché Région AWS. Choisissez ensuite la région associée à la zone de disponibilité dans laquelle se trouve votre compartiment de répertoires. 

1. Dans le volet de navigation de gauche, choisissez **Compartiments de répertoires**.

1. Dans la liste **Compartiments de répertoires**, choisissez la case d’option située à côté du compartiment que vous souhaitez supprimer.

1. Sélectionnez **Delete (Supprimer)**.

1. Sur la page **Supprimer le compartiment**, saisissez le nom du compartiment dans le champ de texte pour confirmer la suppression de ce compartiment. 
**Important**  
La suppression d’un compartiment de répertoires ne peut pas être annulée.

1. Pour supprimer votre compartiment de répertoires, choisissez **Supprimer le compartiment**.

## Étapes suivantes
<a name="s3-express-tutoiral-Next"></a>

Dans ce didacticiel, vous avez appris à créer un compartiment de répertoires et à utiliser la classe de stockage S3 Express One Zone. Au terme ce didacticiel, vous pourrez explorer les services AWS connexes à utiliser avec la classe de stockage S3 Express One Zone.

Vous pouvez utiliser ce qui suit Services AWS avec la classe de stockage S3 Express One Zone pour prendre en charge votre cas d'utilisation spécifique à faible latence.
+ [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/ec2/index.html) : Amazon EC2 offre une capacité de calcul sécurisée et évolutive dans le AWS Cloud. En utilisant Amazon EC2, vous n’avez pas besoin d’investir dans du matériel au départ, ce qui vous permet de développer et de déployer des applications plus rapidement. Vous pouvez utiliser Amazon EC2 pour lancer autant de serveurs virtuels que nécessaire, configurer la sécurité et les réseaux, et gérer le stockage.
+ [AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/welcome.html.html) : Lambda est un service de calcul qui vous permet d’exécuter du code sans provisionner ni gérer de serveurs. Vous configurez des paramètres de notification sur un compartiment et accordez à Amazon S3 l’autorisation d’invoquer une fonction sur la stratégie d’autorisations basée sur une ressource de la fonction. 
+ [Amazon Elastic Kubernetes Service (Amazon EKS) — Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/what-is-eks.html) est un service géré qui élimine le besoin d'installer, d'exploiter et de maintenir Kubernetes votre propre plan de contrôle. AWS[https://kubernetes.io/docs/concepts/overview/](https://kubernetes.io/docs/concepts/overview/)est un système open source qui automatise la gestion, le dimensionnement et le déploiement des applications conteneurisées.
+ [Amazon Elastic Container Service (Amazon ECS)](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/Welcome.html) : Amazon ECS est un service d’orchestration de conteneurs entièrement géré qui vous permet de déployer, de gérer et de mettre à l’échelle aisément des applications conteneurisées.
+ [Amazon EMR —](https://docs.aws.amazon.com//emr/latest/ManagementGuide/emr-express-one-zone.html) Amazon EMR est une plate-forme de clusters gérés qui simplifie l'exécution de frameworks de mégadonnées, tels que Apache Spark le traitement Apache Hadoop et l'analyse AWS de grandes quantités de données. 
+ [Amazon Athena](https://docs.aws.amazon.com//athena/latest/ug/querying-express-one-zone.html) : Amazon Athena est un service de requête interactif qui facilite l’analyse des données directement dans Amazon S3 à l’aide du langage [SQL](https://docs.aws.amazon.com/athena/latest/ug/ddl-sql-reference.html) standard. Vous pouvez également utiliser Athena pour exécuter de façon interactive l’analytique des données à l’aide d’Apache Spark sans avoir à planifier, configurer ni gérer de ressources. Lorsque vous exécutez des applications Apache Spark sur Athena, vous soumettez du code Spark pour traitement et recevez directement les résultats.
+ [AWS Glue Data Catalog](https://docs.aws.amazon.com//glue/latest/dg/catalog-and-crawler.html) AWS Glue est un service d'intégration de données sans serveur qui permet aux utilisateurs d'outils d'analyse de découvrir, de préparer, de déplacer et d'intégrer facilement des données provenant de sources multiples. Vous pouvez l'utiliser AWS Glue pour l'analyse, l'apprentissage automatique et le développement d'applications. AWS Glue Data Catalog est un référentiel centralisé qui stocke les métadonnées relatives aux ensembles de données de votre organisation. Il sert d’index pour l’emplacement, le schéma et les métriques d’exécution de vos sources de données. 
+ [Amazon SageMaker Runtime Model Training](https://docs.aws.amazon.com//sagemaker/latest/dg/model-access-training-data.html) — Amazon SageMaker Runtime est un service d'apprentissage automatique entièrement géré. Avec SageMaker Runtime, les data scientists et les développeurs peuvent rapidement et facilement créer et entraîner des modèles d'apprentissage automatique, puis les déployer directement dans un environnement hébergé prêt pour la production.

 Pour plus d’informations sur S3 Express One Zone, consultez les sections [Qu’est-ce que S3 Express One Zone ?](https://docs.aws.amazon.com//AmazonS3/latest/userguide/s3-express-one-zone.html) et [En quoi S3 Express One Zone est-il différent ?](https://docs.aws.amazon.com//AmazonS3/latest/userguide/s3-express-differences.html)

# Régions et zones de disponibilité S3 Express One Zone
<a name="s3-express-Endpoints"></a>

Une zone de disponibilité est un ou plusieurs centres de données discrets dotés d’une alimentation, d’un réseau et d’une connectivité redondants dans une Région AWS. Pour optimiser les récupérations à faible latence, les objets de la classe de stockage Amazon S3 Express One Zone sont stockés de manière redondante dans des compartiments de répertoires S3 dans une zone de disponibilité unique locale à votre charge de travail de calcul. Lorsque vous créez un bucket d'annuaire, vous choisissez la zone de disponibilité et Région AWS l'emplacement de votre bucket. 

AWS fait correspondre les zones de disponibilité physiques de manière aléatoire aux noms des zones de disponibilité de chacune d'entre elles Compte AWS. Cette approche permet de répartir les ressources entre les zones de disponibilité au lieu de concentrer les ressources dans la première zone de disponibilité de chaque région. Région AWS Par conséquent, il est Compte AWS possible que la zone `us-east-1a` de disponibilité de votre site ne représente pas le même emplacement physique que celle `us-east-1a` d'une autre Compte AWS. Pour plus d’informations, consultez [Régions et zones de disponibilité](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-regions-availability-zones.html) dans le *Guide de l’utilisateur Amazon EC2*.

Pour coordonner les zones de disponibilité entre les comptes, vous devez utiliser un *ID de zone de disponibilité*, qui représente l’identifiant unique et cohérent d’une zone de disponibilité. Par exemple, `use1-az1` il s'agit d'un identifiant AZ pour la `us-east-1` région et il a le même emplacement physique dans chaque région Compte AWS. L'illustration suivante montre comment les AZ IDs sont les mêmes pour tous les comptes, même si les noms des zones de disponibilité peuvent être mappés différemment pour chaque compte.

![\[Illustration montrant le mappage des zones de disponibilité et les régions.\]](http://docs.aws.amazon.com/fr_fr/AmazonS3/latest/userguide/images/availability-zone-mapping.png)


Avec S3 Express One Zone, vos données sont stockées de façon redondante sur plusieurs appareils au sein d’une même zone de disponibilité. S3 Express One Zone est conçu pour garantir une disponibilité de 99,95 % au sein d’une même zone de disponibilité et s’appuie sur le [contrat de niveau de service Amazon S3](https://aws.amazon.com/s3/sla/). Pour de plus amples informations, consultez [Zones de disponibilité](directory-bucket-high-performance.md#s3-express-overview-az).

 Le tableau suivant montre les régions et les zones de disponibilité prises en charge par S3 Express One Zone : 

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/AmazonS3/latest/userguide/s3-express-Endpoints.html)

# Mise en réseau des compartiments de répertoires dans une zone de disponibilité
<a name="directory-bucket-az-networking"></a>

Pour réduire le temps que vos paquets passent sur le réseau, configurez votre cloud privé virtuel (VPC) avec un point de terminaison de passerelle pour accéder aux compartiments de répertoire dans les zones de disponibilité tout en maintenant le trafic sur le AWS réseau, sans frais supplémentaires.

**Topics**
+ [

## Points de terminaison des compartiment de répertoire situés dans des zones de disponibilité
](#s3-express-endpoints-az)
+ [

## Configuration de points de terminaison de VPC de passerelle
](#s3-express-networking-vpc-gateway)

## Points de terminaison des compartiment de répertoire situés dans des zones de disponibilité
<a name="s3-express-endpoints-az"></a>

Le tableau suivant indique les points de terminaison d’API régionaux et zonaux disponibles pour chaque région et zone de disponibilité.


| Nom de la région | Région | Zone de disponibilité IDs | Point de terminaison régional | Point de terminaison zonal | 
| --- | --- | --- | --- | --- | 
|  USA Est (Virginie du Nord)  |  `us-east-1`  |  `use1-az4` `use1-az5` `use1-az6`  |  `s3express-control.us-east-1.amazonaws.com` `s3express-control-dualstack.us-east-1.amazonaws.com `  |  `s3express-use1-az4.us-east-1.amazonaws.com` `s3express-use1-az4.dualstack.us-east-1.amazonaws.com` `s3express-use1-az5.us-east-1.amazonaws.com` `s3express-use1-az5.dualstack.us-east-1.amazonaws.com` `s3express-use1-az6.us-east-1.amazonaws.com` `s3express-use1-az6.dualstack.us-east-1.amazonaws.com`  | 
|  USA Est (Ohio)  |  `us-east-2`  |  `use2-az1` `use2-az2`  |  `s3express-control.us-east-2.amazonaws.com` `s3express-control-dualstack.us-east-2.amazonaws.com`  |  `s3express-use2-az1.us-east-2.amazonaws.com` `s3express-use2-az1.dualstack.us-east-2.amazonaws.com` `s3express-use2-az2.us-east-2.amazonaws.com` `s3express-use2-az2.dualstack.us-east-2.amazonaws.com`  | 
|  USA Ouest (Oregon)  |  `us-west-2`  |  `usw2-az1` `usw2-az3` `usw2-az4`  |  `s3express-control.us-west-2.amazonaws.com` `s3express-control-dualstack.us-west-2.amazonaws.com`  |  `s3express-usw2-az1.us-west-2.amazonaws.com` `s3express-usw2-az1.dualstack.us-west-2.amazonaws.com` `s3express-usw2-az3.us-west-2.amazonaws.com` `s3express-usw2-az3.dualstack.us-west-2.amazonaws.com` `s3express-usw2-az4.us-west-2.amazonaws.com` `s3express-usw2-az4.dualstack.us-west-2.amazonaws.com`  | 
|  Asie-Pacifique (Mumbai)  |  `ap-south-1`  |  `aps1-az1` `aps1-az3`  |  `s3express-control.ap-south-1.amazonaws.com` `s3express-control-dualstack.ap-south-1.amazonaws.com`  |  `s3express-aps1-az1.ap-south-1.amazonaws.com` `s3express-aps1-az1.dualstack.ap-south-1.amazonaws.com` `s3express-aps1-az3.ap-south-1.amazonaws.com` `s3express-aps1-az3.dualstack.ap-south-1.amazonaws.com`  | 
|  Asie-Pacifique (Tokyo)  |  `ap-northeast-1`  |  `apne1-az1` `apne1-az4`  |  `s3express-control.ap-northeast-1.amazonaws.com` `s3express-control-dualstack.ap-northeast-1.amazonaws.com`  |  `s3express-apne1-az1.ap-northeast-1.amazonaws.com` `s3express-apne1-az1.dualstack.ap-northeast-1.amazonaws.com` `s3express-apne1-az4.ap-northeast-1.amazonaws.com` `s3express-apne1-az4.dualstack.ap-northeast-1.amazonaws.com`  | 
|  Europe (Irlande)  |  `eu-west-1`  |  `euw1-az1` `euw1-az3`  |  `s3express-control.eu-west-1.amazonaws.com` `s3express-control-dualstack.eu-west-1.amazonaws.com`  |  `s3express-euw1-az1.eu-west-1.amazonaws.com` `s3express-euw1-az1.dualstack.eu-west-1.amazonaws.com` `s3express-euw1-az3.eu-west-1.amazonaws.com` `s3express-euw1-az3.dualstack.eu-west-1.amazonaws.com`  | 
|  Europe (Stockholm)  |  `eu-north-1`  |  `eun1-az1` `eun1-az2` `eun1-az3`  |  `s3express-control.eu-north-1.amazonaws.com` `s3express-control-dualstack.eu-north-1.amazonaws.com`  |  `s3express-eun1-az1.eu-north-1.amazonaws.com` `s3express-eun1-az1.dualstack.eu-north-1.amazonaws.com` `s3express-eun1-az2.eu-north-1.amazonaws.com` `s3express-eun1-az2.dualstack.eu-north-1.amazonaws.com` `s3express-eun1-az3.eu-north-1.amazonaws.com` `s3express-eun1-az3.dualstack.eu-north-1.amazonaws.com`  | 

## Configuration de points de terminaison de VPC de passerelle
<a name="s3-express-networking-vpc-gateway"></a>

Utilisez la procédure suivante pour créer un point de terminaison de passerelle qui se connecte à des compartiments de répertoires et des objets de classe de stockage Amazon S3 Express One Zone.

**Pour configurer un point de terminaison de VPC de passerelle**

1. Ouvrez la [console Amazon VPC](https://console.aws.amazon.com/vpc/). 

1. Dans le panneau de navigation, choisissez **Points de terminaison**.

1. Choisissez **Créer un point de terminaison**.

1. Créez un nom pour votre point de terminaison.

1. Pour **Service category** (Catégorie de service), choisissez **Services AWS**. 

1. **Pour les **services**, ajoutez le filtre **Type=Gateway**, puis cliquez sur le bouton d'option à côté de com.amazonaws. *region*.s3 express**. 

1. Pour **VPC**, choisissez le VPC dans lequel créer le point de terminaison.

1. Pour les **tables de routage**, choisissez la table de routage de votre VPC à utiliser par le point de terminaison. Une fois le point de terminaison créé, un enregistrement de l’acheminement est ajouté à la table de routage que vous avez sélectionnée à cette étape.

1. Pour **Politique**, choisissez **Accès complet** afin d’autoriser toutes les opérations de tous les principaux sur toutes les ressources via le point de terminaison de VPC. Sinon, choisissez **Personnalisé** pour attacher une politique de point de terminaison de VPC qui contrôle les autorisations dont disposent les principaux pour effectuer des actions au niveau des ressources via le point de terminaison de VPC.

1. Pour **IP address type** (Type d'adresse IP), choisissez l'une des options suivantes :
   +  **IPv4**— Attribuez IPv4 des adresses aux interfaces réseau des terminaux. Cette option n'est prise en charge que si tous les sous-réseaux sélectionnés possèdent des plages d' IPv4 adresses et si le service accepte les IPv4 demandes. 
   +  **IPv6**— Attribuez IPv6 des adresses aux interfaces réseau des terminaux. Cette option n'est prise en charge que si tous les sous-réseaux sélectionnés IPv6 ne sont que des sous-réseaux et que le service accepte IPv6 les demandes.
   +  **Dualstack** — Attribuez à la fois des IPv6 adresses IPv4 et des adresses aux interfaces réseau des terminaux. Cette option n'est prise en charge que si tous les sous-réseaux sélectionnés possèdent à la fois des plages d' IPv6 adresses IPv4 et si le service accepte à la fois les IPv6 demandes IPv4 et les demandes.

1. (Facultatif) Pour ajouter une balise, choisissez **Ajouter une nouvelle balise** et entrez la clé et la valeur de la balise.

1. Choisissez **Créer un point de terminaison**.

Après avoir créé un point de terminaison de passerelle, vous pouvez utiliser les points de terminaison d’API régionaux et les points de terminaison d’API zonaux pour accéder aux compartiments de répertoires et aux objets de classe de stockage Amazon S3 Express One Zone.

Pour en savoir plus sur les points de terminaison d’un VPC de passerelle, consultez [Points de terminaison de VPC de passerelle](https://docs.aws.amazon.com/vpc/latest/privatelink/gateway-endpoints.html) dans le *Guide AWS PrivateLink *. Pour les cas d’utilisation de la résidence des données, nous vous recommandons de n’autoriser l’accès à vos compartiments qu’à partir de votre VPC à l’aide de points de terminaison de VPC de passerelle. Lorsque l'accès est limité à un VPC ou à un point de terminaison VPC, vous pouvez accéder aux objets via l' AWS Management Console API REST et. AWS CLI AWS SDKs

**Note**  
Pour restreindre l'accès à un VPC ou à un point de terminaison VPC à l'aide du AWS Management Console, vous devez utiliser l'accès privé. AWS Management Console Pour plus d'informations, consultez la section [Accès AWS Management Console privé](https://docs.aws.amazon.com/awsconsolehelpdocs/latest/gsg/console-private-access.html) dans le *AWS Management Console AWS Management Console guide*.

# Création de compartiments de répertoires dans une zone de disponibilité
<a name="directory-bucket-create"></a>

Pour commencer à utiliser la classe de stockage Amazon S3 Express One Zone, vous devez créer un compartiment de répertoires. La classe de stockage S3 Express One Zone peut être utilisée uniquement avec des compartiments de répertoires. Elle prend en charge les cas d’utilisation à faible latence et accélère le traitement des données au sein d’une même zone de disponibilité. Si votre application est sensible aux performances et peut bénéficier d’une latence inférieure à dix millisecondes pour les demandes `PUT` et `GET`, nous vous recommandons de créer un compartiment de répertoires afin de pouvoir utiliser la classe de stockage S3 Express One Zone.

Il existe deux types de compartiments Amazon S3 : les compartiments à usage général et les compartiments de répertoires. Vous devez choisir le type de compartiment qui correspond le mieux à votre application et à vos exigences de performances. Les compartiments à usage général constituent le type de compartiment S3 d’origine. Les compartiments à usage général sont recommandés pour la plupart des cas d’utilisation et des modèles d’accès. Ils autorisent le stockage d’objets dans toutes les classes de stockage, à l’exception de S3 Express One Zone. Pour plus d’informations sur les compartiments à usage général, consultez [Présentation des compartiments à usage général](UsingBucket.md).

Les compartiments de répertoires utilisent la classe de stockage S3 Express One Zone, conçue pour être utilisée pour les charges de travail ou les applications critiques en termes de performances qui nécessitent une latence constante inférieure à dix millisecondes. S3 Express One Zone est la première classe de stockage S3 dans laquelle vous pouvez sélectionner une zone de disponibilité unique avec la possibilité de regrouper le stockage d’objets et les ressources de calcul, ce qui assure la vitesse d’accès la plus élevée possible. Lorsque vous créez un bucket d'annuaire, vous pouvez éventuellement spécifier une zone de disponibilité Région AWS et une zone de disponibilité locales pour vos instances de calcul Amazon EC2, Amazon Elastic Kubernetes Service ou Amazon Elastic Container Service (Amazon ECS) afin d'optimiser les performances.

Avec S3 Express One Zone, vos données sont stockées de façon redondante sur plusieurs appareils au sein d’une même zone de disponibilité. S3 Express One Zone est conçu pour garantir une disponibilité de 99,95 % au sein d’une même zone de disponibilité et s’appuie sur le [contrat de niveau de service Amazon S3](https://aws.amazon.com/s3/sla/). Pour de plus amples informations, consultez [Zones de disponibilité](directory-bucket-high-performance.md#s3-express-overview-az).

Les compartiments de répertoires organisent les données de manière hiérarchique dans des répertoires, contrairement à la structure de stockage horizontale des compartiments à usage général. Il n’existe pas de limite de préfixe pour les compartiments de répertoires et les répertoires individuels peuvent faire l’objet d’une mise à l’échelle horizontale. 

Pour plus d’informations sur les compartiments de répertoires, consultez [Utilisation des compartiments de répertoires](directory-buckets-overview.md).

**Noms des compartiments de répertoires**  
Les noms des compartiments de répertoires doivent suivre ce format et respecter les règles de dénomination des compartiments de répertoires :

```
bucket-base-name--zone-id--x-s3
```

Par exemple, le nom de compartiment de répertoires suivant contient l’ID de zone de disponibilité `usw2-az1` :

```
bucket-base-name--usw2-az1--x-s3
```

Pour plus d’informations sur les règles de dénomination des compartiments de répertoires, consultez [Règles de dénomination des compartiments de répertoires](directory-bucket-naming-rules.md).

## Utilisation de la console S3
<a name="create-directory-bucket-console"></a>

1. Connectez-vous à la console Amazon S3 AWS Management Console et ouvrez-la à l'adresse [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Dans la barre de navigation en haut de la page, choisissez le nom du fichier actuellement affiché Région AWS. Choisissez ensuite la région dans laquelle vous souhaitez créer un compartiment. 
**Note**  
Pour limiter la latence et les coûts, et répondre aux exigences légales, choisissez une région proche de vous. Les objets stockés dans une Région ne la quittent jamais, sauf si vous les transférez explicitement vers une autre Région. Pour obtenir la liste d'Amazon S3 Régions AWS, consultez la section sur les [Service AWS points de terminaison](https://docs.aws.amazon.com/general/latest/gr/rande.html#s3_region) dans le *Référence générale d'Amazon Web Services*.

1. Dans le volet de navigation de gauche, choisissez **Compartiments de répertoires**.

1. Choisissez **Créer un compartiment**. La page **Créer un compartiment** s’ouvre.

1. Sous **Configuration générale**, consultez l' Région AWS endroit où votre bucket sera créé. 

   Sous **Type de compartiment**, choisissez **Répertoire**.
**Note**  
Si vous avez choisi une région qui ne prend pas en charge les compartiments de répertoires, l’option **Type de compartiment** disparaît, et le type de compartiment est défini par défaut sur un compartiment à usage général. Pour créer un compartiment de répertoires, vous devez choisir une région prise en charge. Pour obtenir la liste des régions qui prennent en charge les compartiments de répertoires et la classe de stockage Amazon S3 Express One Zone, consultez [Régions et zones de disponibilité S3 Express One Zone](s3-express-Endpoints.md).
Une fois que vous avez créé le compartiment, vous ne pouvez pas modifier son type.
**Note**  
La zone de disponibilité ne peut pas être modifiée une fois le compartiment créé. 

1. Pour **Zone de disponibilité**, choisissez une zone de disponibilité locale pour vos services de calcul. Pour obtenir la liste des zones de disponibilité qui prennent en charge les compartiments de répertoires et la classe de stockage S3 Express One Zone, consultez [Régions et zones de disponibilité S3 Express One Zone](s3-express-Endpoints.md). 

   Sous **Zone de disponibilité**, cochez la case confirmant que vous comprenez qu’en cas de panne de la zone de disponibilité, vos données pourraient être indisponibles ou perdues. 
**Important**  
Les compartiments de répertoires sont stockés sur plusieurs appareils au sein d’une même zone de disponibilité, mais ne stockent pas les données de manière redondante entre les zones de disponibilité.

1. Pour **Nom du compartiment**, entrez un nom pour votre compartiment de répertoires.

   Les règles suivantes s’appliquent pour nommer les compartiments de répertoires :
   + Soyez unique au sein de la zone choisie (zone de AWS disponibilité ou zone AWS locale). 
   + Le nom doit contenir entre 3 (minimum) et 63 caractères (maximum), suffixe inclus.
   + Doit être composé uniquement de lettres minuscules, de chiffres et de traits d’union (-).
   + Il doit commencer et se terminer par une lettre ou un chiffre. 
   + Doit inclure le suffixe suivant : `--zone-id--x-s3`
   + Les noms de compartiment ne doivent pas commencer par le préfixe `xn--`.
   + Les noms de compartiment ne doivent pas commencer par le préfixe `sthree-`.
   + Les noms de compartiment ne doivent pas commencer par le préfixe `sthree-configurator`.
   + Les noms de compartiment ne doivent pas commencer par le préfixe ` amzn-s3-demo-`.
   + Les noms de compartiment ne doivent pas se terminer par le suffixe `-s3alias`. Ce suffixe est réservé aux noms d’alias de point d’accès. Pour plus d’informations, consultez [Alias de point d'accès](access-points-naming.md#access-points-alias).
   + Les noms de compartiment ne doivent pas se terminer par le suffixe `--ol-s3`. Ce suffixe est réservé aux noms d’alias de point d’accès Object Lambda. Pour de plus amples informations, veuillez consulter [Comment utiliser un alias de type compartiment pour votre point d’accès Object Lambda de compartiment S3](olap-use.md#ol-access-points-alias).
   + Les noms de compartiment ne doivent pas se terminer par le suffixe `.mrap`. Ce suffixe est réservé aux noms de point d’accès multi-régions. Pour de plus amples informations, veuillez consulter [Règles relatives à l'attribution de noms pour les points d'accès multi-Régions Amazon S3](multi-region-access-point-naming.md).

   Un suffixe est automatiquement ajouté au nom de base que vous fournissez lorsque vous créez un compartiment de répertoires à l’aide de la console. Ce suffixe inclut l’ID de la zone de disponibilité que vous avez choisie.

   Une fois le compartiment créé, vous ne pouvez pas changer son nom. Pour plus d’informations sur l’attribution de noms à des compartiments, consultez [Règles de dénomination des compartiments à usage général](bucketnamingrules.md). 
**Important**  
N’ajoutez pas d’informations sensibles, notamment des numéros de compte, dans le nom du compartiment. Le nom du bucket est visible URLs là où pointent les objets du bucket.

1. Sous **Propriété de l'objet**, le paramètre **imposé au propriétaire du compartiment** est automatiquement activé et toutes les listes de contrôle d'accès (ACLs) sont désactivées. Impossible d'activer les ACLs compartiments de répertoire. 

    Application par **le propriétaire du compartiment (par défaut)** : ACLs cette option est désactivée, et le propriétaire du compartiment possède automatiquement tous les objets du compartiment à usage général et en a le contrôle total. ACLs n'affectent plus les autorisations d'accès aux données du compartiment à usage général S3. Le compartiment utilise des stratégies exclusivement pour définir le contrôle des accès.

1. Sous **Paramètres de blocage de l’accès public pour ce compartiment**, notez que les paramètres de blocage de l’accès public pour votre compartiment de répertoires sont automatiquement activés. Ces paramètres ne peuvent pas être modifiés pour les compartiments de répertoires. Pour en savoir plus sur le blocage de l’accès public, consultez [Blocage de l’accès public à votre stockage Amazon S3](access-control-block-public-access.md).

1. Pour configurer le chiffrement par défaut, dans **Type de chiffrement**, choisissez l’une des options suivantes : 
   + **Chiffrement côté serveur avec une clé gérée par Amazon S3 (SSE-S3)**
   + **Chiffrement côté serveur avec AWS Key Management Service clé (SSE-KMS)**

   Pour en savoir plus sur l’utilisation du chiffrement côté serveur Amazon S3 pour chiffrer vos données, consultez [Protection et chiffrement des données](s3-express-data-protection.md).
**Important**  
Si vous utilisez l’option SSE-KMS pour votre configuration de chiffrement par défaut, vous êtes soumis aux quotas RPS (demandes par seconde) de AWS KMS. Pour plus d’informations sur les quotas de AWS KMS et sur la procédure à suivre pour demander une augmentation des quotas, consultez [Quotas](https://docs.aws.amazon.com/kms/latest/developerguide/limits.html) dans le *Guide du développeur AWS Key Management Service *.  
Lors de l’activation du chiffrement par défaut, il se peut que vous deviez mettre à jour votre stratégie de compartiment. Pour de plus amples informations, veuillez consulter [Utilisation du chiffrement SSE-KMS pour les opérations intercomptes](bucket-encryption.md#bucket-encryption-update-bucket-policy).

1. Si vous avez choisi **Chiffrement côté serveur avec des clés gérées par Amazon S3 (SSE-S3)**, **Activée** apparaît sous **Clé de compartiment**. Les clés de compartiment S3 sont toujours activées lorsque vous configurez votre compartiment de répertoires pour qu’il utilise le chiffrement SSE-S3 par défaut. Les clés de compartiment S3 sont toujours activées pour les opérations `GET` et `PUT` dans un compartiment de répertoires et ne peuvent pas être désactivées. Les clés de compartiment S3 ne sont pas prises en charge lorsque vous copiez des objets chiffrés avec SSE-KMS depuis des compartiments à usage général vers des compartiments de répertoires, depuis des compartiments de répertoires vers des compartiments à usage général ou entre des compartiments de répertoires, par le biais de [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html), d’[https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html), de l’[opération Copy dans les opérations par lot](directory-buckets-objects-Batch-Ops.md) ou des [tâches import](create-import-job.md). Dans ce cas, Amazon S3 effectue un appel à AWS KMS chaque fois qu'une demande de copie est faite pour un objet chiffré par KMS.

   Les clés de compartiment S3 réduisent le coût du chiffrement en diminuant le trafic de demandes d'Amazon S3 vers AWS KMS. Pour de plus amples informations, veuillez consulter [Réduction du coût du SSE-KMS avec les clés de compartiment Amazon S3](bucket-key.md).

1. Si vous avez choisi le **chiffrement côté serveur avec AWS Key Management Service clé (SSE-KMS)**, sous ** AWS KMS clé**, spécifiez votre AWS Key Management Service clé de l'une des manières suivantes ou créez-en une nouvelle.
   + Pour choisir parmi une liste de clés KMS disponibles, **choisissez Choisir parmi vos AWS KMS keys**, puis choisissez votre **clé KMS** **dans Disponible AWS KMS keys**.

     Seules vos clés gérées par le client apparaissent dans cette liste. Le Clé gérée par AWS (`aws/s3`) n'est pas pris en charge dans les compartiments de répertoire. Pour plus d’informations sur les clés gérées par le client, consultez [Clés de client et clés AWS](https://docs.aws.amazon.com//kms/latest/developerguide/concepts.html#key-mgmt) dans le *Guide du développeur AWS Key Management Service *.
   + Pour saisir l’ARN ou l’alias de la clé KMS, choisissez **Saisir l’ARN de la AWS KMS key **, puis saisissez l’ARN ou l’alias de votre clé KMS dans **ARN AWS KMS key **. 
   + Pour créer une nouvelle clé gérée par le client dans la AWS KMS console, choisissez **Create a KMS key**.

     Pour plus d'informations sur la création d'un AWS KMS key, consultez la section [Création de clés](https://docs.aws.amazon.com//kms/latest/developerguide/create-keys.html) dans le *Guide du AWS Key Management Service développeur*.
**Important**  
Votre configuration SSE-KMS ne peut prendre en charge qu’une seule [clé gérée par le client](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#customer-cmk) par compartiment de répertoires pendant toute la durée de vie du compartiment. La [https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#aws-managed-cmk](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#aws-managed-cmk) (`aws/s3`) n’est pas prise en charge. De même, après avoir spécifié une clé gérée par le client pour SSE-KMS, vous ne pouvez pas remplacer la clé gérée par le client pour la configuration SSE-KMS du compartiment.  
Vous pouvez identifier la clé gérée par le client que vous avez spécifiée pour la configuration SSE-KMS du compartiment de la manière suivante :  
Effectuez une demande d’opération d’API `HeadObject` pour trouver la valeur de `x-amz-server-side-encryption-aws-kms-key-id` dans la réponse.
Pour utiliser une nouvelle clé gérée par le client pour vos données, nous vous recommandons de copier vos objets existants dans un nouveau compartiment de répertoires avec une nouvelle clé gérée par le client.
Vous ne pouvez utiliser que les clés KMS disponibles dans le même compartiment Région AWS que le bucket. La console Amazon S3 répertorie uniquement les 100 premières clés KMS dans la même région que le compartiment. Pour utiliser une clé KMS qui n’est pas répertoriée, vous devez saisir l’ARN de votre clé KMS. Si vous souhaitez utiliser une clé KMS qui appartient à un autre compte, vous devez d’abord avoir l’autorisation d’utiliser cette clé, puis vous devez saisir l’ARN de la clé KMS. Pour plus d’informations sur les autorisations entre comptes pour les clés KMS, consultez [Création de clés KMS que d’autres comptes peuvent utiliser](https://docs.aws.amazon.com//kms/latest/developerguide/key-policy-modifying-external-accounts.html#cross-account-console) dans le *Guide du développeur AWS Key Management Service *. Pour en savoir plus sur SSE-KMS, consultez [Spécification du chiffrement côté serveur avec AWS KMS (SSE-KMS) pour les téléchargements de nouveaux objets dans des compartiments de répertoires](s3-express-specifying-kms-encryption.md).
Lorsque vous utilisez un AWS KMS key pour le chiffrement côté serveur dans des compartiments de répertoire, vous devez choisir une clé KMS de chiffrement symétrique. Amazon S3 prend uniquement en charge les clés KMS symétriques de chiffrement et ne prend pas en charge les clés KMS asymétriques. Pour plus d’informations, consultez [Identification des clés KMS symétriques et asymétriques](https://docs.aws.amazon.com//kms/latest/developerguide/find-symm-asymm.html) dans le *Guide du développeur AWS Key Management Service *.

   Pour plus d'informations sur l'utilisation AWS KMS avec Amazon S3, consultez[Utilisation du chiffrement côté serveur avec des AWS KMS clés (SSE-KMS) dans des compartiments de répertoire](s3-express-UsingKMSEncryption.md).

1. Choisissez **Créer un compartiment**. Après avoir créé le compartiment, vous pouvez y ajouter des fichiers et des dossiers. Pour de plus amples informations, veuillez consulter [Utilisation d’objets dans un compartiment de répertoires](directory-buckets-objects.md).

## À l'aide du AWS SDKs
<a name="create-directory-bucket-sdks"></a>

------
#### [ SDK for Go ]

Cet exemple montre comment créer un compartiment de répertoires à l’aide du kit AWS SDK pour Go. 

**Example**  

```
var bucket = "..."

func runCreateBucket(c *s3.Client) {
    resp, err := c.CreateBucket(context.Background(), &s3.CreateBucketInput{
        Bucket: &bucket,
        CreateBucketConfiguration: &types.CreateBucketConfiguration{
            Location: &types.LocationInfo{
                Name: aws.String("usw2-az1"),
                Type: types.LocationTypeAvailabilityZone,
            },  
            Bucket: &types.BucketInfo{
                DataRedundancy: types.DataRedundancySingleAvailabilityZone,
                Type:           types.BucketTypeDirectory,
            },  
        },  
    })  
    var terr *types.BucketAlreadyOwnedByYou
    if errors.As(err, &terr) {
        fmt.Printf("BucketAlreadyOwnedByYou: %s\n", aws.ToString(terr.Message))
        fmt.Printf("noop...\n")
        return
    }   
    if err != nil {
        log.Fatal(err)
    }   

    fmt.Printf("bucket created at %s\n", aws.ToString(resp.Location))
}
```

------
#### [ SDK for Java 2.x ]

Cet exemple montre comment créer un compartiment de répertoires à l’aide du kit AWS SDK for Java 2.x. 

**Example**  

```
public static void createBucket(S3Client s3Client, String bucketName) {

    //Bucket name format is {base-bucket-name}--{az-id}--x-s3
    //example: doc-example-bucket--usw2-az1--x-s3 is a valid name for a directory bucket created in
    //Region us-west-2, Availability Zone 2  

    CreateBucketConfiguration bucketConfiguration = CreateBucketConfiguration.builder()
             .location(LocationInfo.builder()
                     .type(LocationType.AVAILABILITY_ZONE)
                     .name("usw2-az1").build()) //this must match the Region and Availability Zone in your bucket name
             .bucket(BucketInfo.builder()
                    .type(BucketType.DIRECTORY)
                    .dataRedundancy(DataRedundancy.SINGLE_AVAILABILITY_ZONE)
                    .build()).build();
    try {
    
             CreateBucketRequest bucketRequest = CreateBucketRequest.builder().bucket(bucketName).createBucketConfiguration(bucketConfiguration).build();
             CreateBucketResponse response = s3Client.createBucket(bucketRequest);
             System.out.println(response);
    } 
    
    catch (S3Exception e) {
            System.err.println(e.awsErrorDetails().errorMessage());
            System.exit(1);
         }
    }
```

------
#### [ AWS SDK pour JavaScript ]

Cet exemple montre comment créer un compartiment de répertoires à l’aide du kit AWS SDK pour JavaScript. 

**Example**  

```
// file.mjs, run with Node.js v16 or higher
// To use with the preview build, place this in a folder 
// inside the preview build directory, such as /aws-sdk-js-v3/workspace/

import { S3 } from "@aws-sdk/client-s3";

const region = "us-east-1";
const zone = "use1-az4";
const suffix = `${zone}--x-s3`;

const s3 = new S3({ region });

const bucketName = `...--${suffix}`;

const createResponse = await s3.createBucket( 
    { Bucket: bucketName, 
      CreateBucketConfiguration: {Location: {Type: "AvailabilityZone", Name: zone},
      Bucket: { Type: "Directory", DataRedundancy: "SingleAvailabilityZone" }}
    } 
   );
```

------
#### [ SDK pour .NET ]

Cet exemple montre comment créer un compartiment de répertoires à l’aide du kit SDK pour .NET. 

**Example**  

```
using (var amazonS3Client = new AmazonS3Client())
{
    var putBucketResponse = await amazonS3Client.PutBucketAsync(new PutBucketRequest
    {

       BucketName = "DOC-EXAMPLE-BUCKET--usw2-az1--x-s3",
       PutBucketConfiguration = new PutBucketConfiguration
       {
         BucketInfo = new BucketInfo { DataRedundancy = DataRedundancy.SingleAvailabilityZone, Type = BucketType.Directory },
         Location = new LocationInfo { Name = "usw2-az1", Type = LocationType.AvailabilityZone }
       }
     }).ConfigureAwait(false);
}
```

------
#### [ SDK for PHP ]

Cet exemple montre comment créer un compartiment de répertoires à l’aide du kit AWS SDK for PHP. 

**Example**  

```
require 'vendor/autoload.php';

$s3Client = new S3Client([

    'region'      => 'us-east-1',
]);


$result = $s3Client->createBucket([
    'Bucket' => 'doc-example-bucket--use1-az4--x-s3',
    'CreateBucketConfiguration' => [
        'Location' => ['Name'=> 'use1-az4', 'Type'=> 'AvailabilityZone'],
        'Bucket' => ["DataRedundancy" => "SingleAvailabilityZone" ,"Type" => "Directory"]   ],
]);
```

------
#### [ SDK for Python ]

Cet exemple montre comment créer un compartiment de répertoires à l’aide du kit AWS SDK pour Python (Boto3). 

**Example**  

```
import logging
import boto3
from botocore.exceptions import ClientError

def create_bucket(s3_client, bucket_name, availability_zone):
    '''
    Create a directory bucket in a specified Availability Zone

    :param s3_client: boto3 S3 client
    :param bucket_name: Bucket to create; for example, 'doc-example-bucket--usw2-az1--x-s3'
    :param availability_zone: String; Availability Zone ID to create the bucket in, for example, 'usw2-az1'
    :return: True if bucket is created, else False
    '''

    try:
        bucket_config = {
                'Location': {
                    'Type': 'AvailabilityZone',
                    'Name': availability_zone
                },
                'Bucket': {
                    'Type': 'Directory', 
                    'DataRedundancy': 'SingleAvailabilityZone'
                }
            }
        s3_client.create_bucket(
            Bucket = bucket_name,
            CreateBucketConfiguration = bucket_config
        )
    except ClientError as e:
        logging.error(e)
        return False
    return True


if __name__ == '__main__':
    bucket_name = 'BUCKET_NAME'
    region = 'us-west-2'
    availability_zone = 'usw2-az1'
    s3_client = boto3.client('s3', region_name = region)
    create_bucket(s3_client, bucket_name, availability_zone)
```

------
#### [ SDK for Ruby ]

Cet exemple montre comment créer un compartiment de répertoires à l’aide du kit AWS SDK pour Ruby. 

**Example**  

```
s3 = Aws::S3::Client.new(region:'us-west-2')
s3.create_bucket(
  bucket: "bucket_base_name--az_id--x-s3",
  create_bucket_configuration: {
    location: { name: 'usw2-az1', type: 'AvailabilityZone' },
    bucket: { data_redundancy: 'SingleAvailabilityZone', type: 'Directory' }
  }
)
```

------

## En utilisant le AWS CLI
<a name="create-directory-bucket-cli"></a>

Cet exemple montre comment créer un compartiment de répertoires à l’aide du kit AWS CLI. Pour utiliser la commande, remplacez les *user input placeholders* par vos propres informations.

Lorsque vous créez un compartiment de répertoires, vous devez fournir les détails de configuration et utiliser la convention de dénomination suivante : `bucket-base-name--zone-id--x-s3`

```
aws s3api create-bucket
--bucket bucket-base-name--zone-id--x-s3
--create-bucket-configuration 'Location={Type=AvailabilityZone,Name=usw2-az1},Bucket={DataRedundancy=SingleAvailabilityZone,Type=Directory}'
--region us-west-2
```

Pour plus d’informations, consultez [create-bucket](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/create-bucket.html) dans l’ AWS Command Line Interface.

# Points de terminaison régionaux et zonaux pour les compartiments de répertoires d’une zone de disponibilité
<a name="endpoint-directory-buckets-AZ"></a>

Pour accéder aux objets et aux compartiment de répertoires stockés dans S3 Express One Zone, utilisez des points de terminaison d’un VPC de passerelle. Les compartiments de répertoires utilisent des points de terminaison d’API régionaux et zonaux. Selon l’opération d’API Amazon S3 que vous utilisez, un point de terminaison régional ou zonal est requis. Il n’y a pas de frais supplémentaires pour l’utilisation de points de terminaison de passerelle.

Les opérations d’API de niveau compartiment (ou plan de contrôle) sont disponibles via les points de terminaison régionaux et sont appelées opérations d’API de point de terminaison régional. `CreateBucket` et `DeleteBucket` sont des exemples d’opérations d’API de point de terminaison régional.

 Lorsque vous créez des compartiment de répertoires stockés dans S3 Express One Zone, vous choisissez la zone de disponibilité dans laquelle le compartiment figurera. Vous pouvez utiliser les opérations d’API de point de terminaison zonal pour charger et gérer les objets dans votre compartiment de répertoires.

Les opérations d’API de niveau objet (ou plan de données) sont disponibles via les points de terminaison zonaux et sont appelées opérations d’API de point de terminaison zonal. `CreateSession` et `PutObject` sont des exemples d’opérations d’API de point de terminaison zonal.


| Nom de la région | Région | Zone de disponibilité IDs | Point de terminaison régional | Point de terminaison zonal | 
| --- | --- | --- | --- | --- | 
|  USA Est (Virginie du Nord)  |  `us-east-1`  |  `use1-az4` `use1-az5` `use1-az6`  |  `s3express-control.us-east-1.amazonaws.com` `s3express-control-dualstack.us-east-1.amazonaws.com `  |  `s3express-use1-az4.us-east-1.amazonaws.com` `s3express-use1-az4.dualstack.us-east-1.amazonaws.com` `s3express-use1-az5.us-east-1.amazonaws.com` `s3express-use1-az5.dualstack.us-east-1.amazonaws.com` `s3express-use1-az6.us-east-1.amazonaws.com` `s3express-use1-az6.dualstack.us-east-1.amazonaws.com`  | 
|  USA Est (Ohio)  |  `us-east-2`  |  `use2-az1` `use2-az2`  |  `s3express-control.us-east-2.amazonaws.com` `s3express-control-dualstack.us-east-2.amazonaws.com`  |  `s3express-use2-az1.us-east-2.amazonaws.com` `s3express-use2-az1.dualstack.us-east-2.amazonaws.com` `s3express-use2-az2.us-east-2.amazonaws.com` `s3express-use2-az2.dualstack.us-east-2.amazonaws.com`  | 
|  USA Ouest (Oregon)  |  `us-west-2`  |  `usw2-az1` `usw2-az3` `usw2-az4`  |  `s3express-control.us-west-2.amazonaws.com` `s3express-control-dualstack.us-west-2.amazonaws.com`  |  `s3express-usw2-az1.us-west-2.amazonaws.com` `s3express-usw2-az1.dualstack.us-west-2.amazonaws.com` `s3express-usw2-az3.us-west-2.amazonaws.com` `s3express-usw2-az3.dualstack.us-west-2.amazonaws.com` `s3express-usw2-az4.us-west-2.amazonaws.com` `s3express-usw2-az4.dualstack.us-west-2.amazonaws.com`  | 
|  Asie-Pacifique (Mumbai)  |  `ap-south-1`  |  `aps1-az1` `aps1-az3`  |  `s3express-control.ap-south-1.amazonaws.com` `s3express-control-dualstack.ap-south-1.amazonaws.com`  |  `s3express-aps1-az1.ap-south-1.amazonaws.com` `s3express-aps1-az1.dualstack.ap-south-1.amazonaws.com` `s3express-aps1-az3.ap-south-1.amazonaws.com` `s3express-aps1-az3.dualstack.ap-south-1.amazonaws.com`  | 
|  Asie-Pacifique (Tokyo)  |  `ap-northeast-1`  |  `apne1-az1` `apne1-az4`  |  `s3express-control.ap-northeast-1.amazonaws.com` `s3express-control-dualstack.ap-northeast-1.amazonaws.com`  |  `s3express-apne1-az1.ap-northeast-1.amazonaws.com` `s3express-apne1-az1.dualstack.ap-northeast-1.amazonaws.com` `s3express-apne1-az4.ap-northeast-1.amazonaws.com` `s3express-apne1-az4.dualstack.ap-northeast-1.amazonaws.com`  | 
|  Europe (Irlande)  |  `eu-west-1`  |  `euw1-az1` `euw1-az3`  |  `s3express-control.eu-west-1.amazonaws.com` `s3express-control-dualstack.eu-west-1.amazonaws.com`  |  `s3express-euw1-az1.eu-west-1.amazonaws.com` `s3express-euw1-az1.dualstack.eu-west-1.amazonaws.com` `s3express-euw1-az3.eu-west-1.amazonaws.com` `s3express-euw1-az3.dualstack.eu-west-1.amazonaws.com`  | 
|  Europe (Stockholm)  |  `eu-north-1`  |  `eun1-az1` `eun1-az2` `eun1-az3`  |  `s3express-control.eu-north-1.amazonaws.com` `s3express-control-dualstack.eu-north-1.amazonaws.com`  |  `s3express-eun1-az1.eu-north-1.amazonaws.com` `s3express-eun1-az1.dualstack.eu-north-1.amazonaws.com` `s3express-eun1-az2.eu-north-1.amazonaws.com` `s3express-eun1-az2.dualstack.eu-north-1.amazonaws.com` `s3express-eun1-az3.eu-north-1.amazonaws.com` `s3express-eun1-az3.dualstack.eu-north-1.amazonaws.com`  | 

# Optimisation des performances de S3 Express One Zone
<a name="s3-express-performance"></a>

Amazon S3 Express One Zone est une classe de stockage S3 à zone de disponibilité (AZ) unique, à hautes performances, spécialement conçue pour fournir un accès aux données constant en moins de dix millisecondes pour vos applications les plus sensibles à la latence. S3 Express One Zone est la première classe de stockage S3 qui vous permet de regrouper des ressources de AWS calcul et de stockage d'objets hautes performances, telles qu'Amazon Elastic Compute Cloud, Amazon Elastic Kubernetes Service et Amazon Elastic Container Service, au sein d'une seule zone de disponibilité. Le regroupement des ressources de stockage et de calcul optimise les performances et les coûts de calcul et augmente la vitesse de traitement des données. 

S3 Express One Zone offre une élasticité des performances similaire à celle des autres classes de stockage S3, mais avec des latences du premier octet constantes de demande de lecture et d’écriture en moins de dix millisecondes, jusqu’à 10 fois plus rapides que S3 Standard. S3 Express One Zone est entièrement conçu pour prendre en charge un débit en rafale jusqu’à des niveaux d’agrégation très élevés. La classe de stockage S3 Express One Zone utilise une architecture personnalisée pour optimiser les performances et garantir une faible latence des demandes en stockant les données sur du matériel à hautes performances. Le protocole d’objet pour S3 Express One Zone a été amélioré afin de rationaliser l’authentification et la surcharge de métadonnées. 

Pour réduire davantage la latence et prendre en charge jusqu’à 2 millions de lectures et jusqu’à 200 000 écritures par seconde, S3 Express One Zone stocke les données dans un compartiment de répertoires Amazon S3. Par défaut, chaque compartiment de répertoires prend en charge jusqu’à 200 000 lectures et 100 000 écritures par seconde. Si votre charge de travail nécessite des limites de transactions par seconde supérieures aux limites par défaut, vous pouvez demander à les augmenter auprès de l’[AWS Support](https://support.console.aws.amazon.com/support/home#/case/create?issueType=service-limit-increase).

La combinaison d’un matériel et de logiciels spécialement conçus à hautes performances, offrant une vitesse d’accès aux données de l’ordre de quelques millisecondes, et de compartiments de répertoires pouvant être mis à l’échelle pour un grand nombre de transactions par seconde fait de S3 Express One Zone la meilleure classe de stockage Amazon S3 pour les opérations exigeantes en termes de demandes ou les applications critiques en matière de performances. 

Les rubriques suivantes décrivent les bonnes pratiques à suivre et les modèles de conception pour optimiser les performances des applications qui utilisent la classe de stockage S3 Express One Zone. 

**Topics**
+ [

# Bonnes pratiques pour optimiser les performances de S3 Express One Zone
](s3-express-optimizing-performance-design-patterns.md)

# Bonnes pratiques pour optimiser les performances de S3 Express One Zone
<a name="s3-express-optimizing-performance-design-patterns"></a>

Lors du développement d’applications qui chargent et récupèrent les objets depuis Amazon S3 Express One Zone, suivez nos bonnes pratiques pour optimiser les performances. Pour utiliser la classe de stockage S3 Express One Zone, vous devez créer un compartiment de répertoires S3. La classe de stockage S3 Express One Zone n’est pas prise en charge pour une utilisation avec les compartiments S3 à usage général.

Pour accéder aux directives d’optimisation des performances relatives à toutes les autres classes de stockage Amazon S3 et aux compartiments à usage général S3, consultez [Modèles de conception des bonnes pratiques : optimisation des performances d’Amazon S3](optimizing-performance.md).

Pour optimiser les performances et la capacité de mise à l’échelle de la classe de stockage S3 Express One Zone et des compartiments de répertoires pour les charges de travail à grande échelle, il est important de comprendre en quoi les compartiments de répertoires fonctionnent différemment des compartiments à usage général. Nous vous proposons ensuite de bonnes pratiques pour aligner vos applications sur le fonctionnement des compartiments de répertoires.

## Fonctionnement des compartiments de répertoires
<a name="s3-express-how-directory-buckets-work"></a>

La classe de stockage Amazon S3 Express One Zone peut prendre en charge des charges de travail comportant jusqu’à deux millions de transactions GET et jusqu’à 200 000 transactions PUT par seconde (TPS) par compartiment de répertoires. Avec S3 Express One Zone, les données sont stockées dans des compartiments de répertoires S3 situés dans des zones de disponibilité. Les objets des compartiments de répertoires sont accessibles dans un espace de noms hiérarchique, semblable à un système de fichiers, contrairement aux compartiments à usage général S3 qui disposent d’un espace de noms plat. Contrairement aux compartiments à usage général, les compartiments de répertoires organisent les clés de manière hiérarchique dans des répertoires plutôt qu’avec des préfixes. Un préfixe est une chaîne de caractères au début du nom de la clé d’objet. Vous pouvez utiliser des préfixes pour organiser vos données et gérer une architecture plate de stockage d’objets dans des compartiments à usage général. Pour de plus amples informations, veuillez consulter [Organisation des objets à l’aide de préfixes](using-prefixes.md).

Dans les compartiments de répertoires, les objets sont organisés dans un espace de noms hiérarchique en utilisant la barre oblique (`/`) comme seul délimiteur pris en charge. Lorsque vous chargez un objet avec une clé comme `dir1/dir2/file1.txt`, les répertoires `dir1/` et `dir2/` sont automatiquement créés et gérés par Amazon S3. Les répertoires sont créés pendant l’opération `PutObject` ou `CreateMultiPartUpload` et automatiquement supprimés lorsqu’ils sont vidés après l’opération `DeleteObject` ou `AbortMultiPartUpload`. Le nombre d’objets et de sous-répertoires dans un répertoire n’est pas plafonné.

Les répertoires créés lorsque des objets sont chargés dans des compartiments de répertoires peuvent être mis à l’échelle instantanément afin de réduire les risques d’erreur HTTP `503 (Slow Down)`. Cette mise à l’échelle automatique permet à vos applications de mettre en parallèle les demandes de lecture et d’écriture dans et entre les répertoires, selon les besoins. Pour S3 Express One Zone, les répertoires sont conçus pour prendre en charge le nombre maximal de demandes d’un compartiment de répertoires. Il n’est pas nécessaire de randomiser les préfixes de clé pour optimiser les performances, car le système répartit automatiquement les objets pour équilibrer la charge. Les clés ne sont donc pas stockées par ordre lexicographique dans les compartiments de répertoires. En revanche, dans les compartiments à usage général S3, les clés qui sont plus proches lexicographiquement sont plus susceptibles de se trouver sur le même serveur. 

Pour plus d’exemples d’opérations sur des compartiments de répertoires et d’interactions avec les répertoires, consultez [Exemples d’opérations sur des compartiments de répertoires et d’interactions avec les répertoires](#s3-express-directory-bucket-examples).

## Bonnes pratiques
<a name="s3-express-best-practices-section"></a>

Adoptez les bonnes pratiques pour optimiser les performances de votre compartiment de répertoires et mettre à l’échelle vos charges de travail au fil du temps.

### Utiliser des répertoires contenant de nombreuses entrées (objets ou sous-répertoires)
<a name="s3-express-best-practices-use-directories"></a>

Les compartiments de répertoires offrent des performances élevées par défaut pour toutes les charges de travail. Pour optimiser davantage les performances de certaines opérations, la consolidation d’un grand nombre d’entrées (objets ou sous-répertoires) dans des répertoires permet de réduire le temps de latence et d’augmenter le taux de demandes : 
+ Les opérations d’API mutantes, comme `PutObject`, `DeleteObject`, `CreateMultiPartUpload` et `AbortMultiPartUpload`, atteignent des performances optimales lorsqu’elles sont mises en œuvre avec un nombre réduit de répertoires plus denses contenant des milliers d’entrées, plutôt qu’avec un grand nombre de petits répertoires. 
+ Les opérations `ListObjectsV2` sont plus performantes lorsqu’il y a moins de répertoires à parcourir pour remplir une page de résultats.

#### Ne pas utiliser d’entropie dans les préfixes
<a name="s3-express-best-practices-dont-use-entropy"></a>

Dans les opérations Amazon S3, l’entropie fait référence au caractère aléatoire de la dénomination des préfixes qui permet de répartir les charges de travail de manière uniforme sur les partitions de stockage. Cependant, étant donné que les compartiments de répertoires gèrent en interne la répartition de la charge, il n’est pas recommandé de recourir à l’entropie dans les préfixes pour améliorer les performances. En effet, pour les compartiments de répertoires, l’entropie peut ralentir les demandes en ne réutilisant pas les répertoires déjà créés.

Un modèle de clé comme `$HASH/directory/object` pourrait finir par créer de nombreux répertoires intermédiaires. Dans l’exemple suivant, tous les `job-1` sont des répertoires différents puisque leurs parents sont différents. Les répertoires seront rares et les demandes de mutation et de liste seront plus lentes. Dans cet exemple, il existe 12 répertoires intermédiaires qui ont tous une seule entrée.

```
s3://my-bucket/0cc175b9c0f1b6a831c399e269772661/job-1/file1
  
s3://my-bucket/92eb5ffee6ae2fec3ad71c777531578f/job-1/file2
  
s3://my-bucket/4a8a08f09d37b73795649038408b5f33/job-1/file3
  
s3://my-bucket/8277e0910d750195b448797616e091ad/job-1/file4
  
s3://my-bucket/e1671797c52e15f763380b45e841ec32/job-1/file5
  
s3://my-bucket/8fa14cdd754f91cc6554c9e71929cce7/job-1/file6
```

Pour améliorer les performances, nous pouvons supprimer le composant `$HASH` et autoriser `job-1` à devenir un répertoire unique, et améliorer ainsi la densité du répertoire. Dans l’exemple suivant, l’unique répertoire intermédiaire qui comprend six entrées peut améliorer les performances par rapport à l’exemple précédent.

```
s3://my-bucket/job-1/file1
  
s3://my-bucket/job-1/file2
  
s3://my-bucket/job-1/file3
  
s3://my-bucket/job-1/file4
  
s3://my-bucket/job-1/file5
  
s3://my-bucket/job-1/file6
```

Ce gain de performances s’explique par le fait que lorsqu’une clé d’objet est créée et que son nom inclut un répertoire, celui-ci est automatiquement créé pour l’objet. Les chargements d’objets ultérieurs vers ce même répertoire ne nécessitent pas la création du répertoire, ce qui réduit la latence lors des chargements d’objets vers les répertoires existants.

#### Utiliser un séparateur autre que le délimiteur / pour séparer les parties de votre clé si vous n’avez pas besoin de regrouper des objets de manière logique pendant les appels `ListObjectsV2`
<a name="s3-express-best-practices-use-separator"></a>

Étant donné que le délimiteur `/` est traité de manière particulière pour les compartiments de répertoires, il doit être utilisé à bon escient. Même si les compartiments de répertoires ne classent pas les objets par ordre lexicographique, les objets d’un répertoire sont tout de même regroupés dans les sorties `ListObjectsV2`. Si vous n’avez pas besoin de cette fonctionnalité, vous pouvez remplacer `/` par un autre caractère comme séparateur afin de ne pas provoquer la création de répertoires intermédiaires.

Supposons, par exemple, que les clés suivantes adoptent le modèle de préfixe `YYYY/MM/DD/HH/`.

```
s3://my-bucket/2024/04/00/01/file1
  
s3://my-bucket/2024/04/00/02/file2
  
s3://my-bucket/2024/04/00/03/file3
  
s3://my-bucket/2024/04/01/01/file4
  
s3://my-bucket/2024/04/01/02/file5
  
s3://my-bucket/2024/04/01/03/file6
```

Si vous n’avez pas besoin de regrouper les objets par heure ou par jour dans les résultats `ListObjectsV2`, mais que vous avez besoin de les regrouper par mois, le schéma de clé `YYYY/MM/DD-HH-` permet de réduire considérablement le nombre de répertoires et d’améliorer les performances de l’opération `ListObjectsV2`.

```
s3://my-bucket/2024/04/00-01-file1
  
s3://my-bucket/2024/04/00-01-file2
  
s3://my-bucket/2024/04/00-01-file3
  
s3://my-bucket/2024/04/01-02-file4
  
s3://my-bucket/2024/04/01-02-file5
  
s3://my-bucket/2024/04/01-02-file6
```

#### Utiliser des opérations de listes délimitées dans la mesure du possible
<a name="s3-express-best-practices-use-delimited-list"></a>

Une demande `ListObjectsV2` sans `delimiter` effectue une analyse récursive approfondie de tous les répertoires. Une demande `ListObjectsV2` avec un `delimiter` extrait uniquement les entrées du répertoire spécifié par le paramètre `prefix`, ce qui réduit le temps de latence des demandes et augmente le nombre de clés agrégées par seconde. Pour les compartiments de répertoires, utilisez des opérations de listes délimitées dans la mesure du possible. Les listes délimitées permettent de réduire le nombre de visites des répertoires, ce qui se traduit par un nombre accru de clés par seconde et une latence plus faible des demandes.

Par exemple, pour les répertoires et objets suivants de votre compartiment de répertoires :

```
s3://my-bucket/2024/04/12-01-file1
  
s3://my-bucket/2024/04/12-01-file2
  
...
  
s3://my-bucket/2024/05/12-01-file1
  
s3://my-bucket/2024/05/12-01-file2
  
...
  
s3://my-bucket/2024/06/12-01-file1
  
s3://my-bucket/2024/06/12-01-file2
  
...
  
s3://my-bucket/2024/07/12-01-file1
  
s3://my-bucket/2024/07/12-01-file2
  
...
```

Pour de meilleures performances de `ListObjectsV2`, utilisez une liste délimitée pour répertorier vos sous-répertoires et vos objets, si la logique de votre application le permet. Par exemple, vous pouvez exécuter la commande suivante pour l’opération de liste délimitée :

```
aws s3api list-objects-v2 --bucket my-bucket --prefix '2024/' --delimiter '/'
```

La sortie est la liste des sous-répertoires.

```
{
    "CommonPrefixes": [
        {
            "Prefix": "2024/04/"
        },
        {
            "Prefix": "2024/05/"
        },
        {
            "Prefix": "2024/06/"
        },
        {
            "Prefix": "2024/07/"
        }
    ]
}
```

Pour mieux répertorier chaque sous-répertoire, vous pouvez exécuter une commande semblable à l’exemple suivant :

Commande :

```
aws s3api list-objects-v2 --bucket my-bucket --prefix '2024/04' --delimiter '/'
```

Sortie :

```
{
    "Contents": [
        {
            "Key": "2024/04/12-01-file1"
        },
        {
            "Key": "2024/04/12-01-file2"
        }
    ]
}
```

### Regroupement du stockage S3 Express One Zone et de vos ressources de calcul
<a name="s3-express-best-practices-colocate"></a>

Avec S3 Express One Zone, chaque compartiment de répertoires est stocké dans une zone de disponibilité unique que vous sélectionnez lorsque vous créez le compartiment. Vous pouvez commencer par créer un nouveau compartiment de répertoires dans une zone de disponibilité locale pour vos charges de travail ou vos ressources de calcul. Vous pouvez alors commencer immédiatement des opérations de lecture et d’écriture à très faible latence. Les compartiments de répertoire sont un type de compartiments S3 dans lesquels vous pouvez choisir la zone de disponibilité dans un Région AWS afin de réduire le temps de latence entre le calcul et le stockage.

Si vous accédez à des compartiments de répertoires dans différentes zones de disponibilité, vous risquez de constater une légère augmentation de la latence. Pour optimiser les performances, nous vous recommandons d’accéder à un compartiment de répertoires depuis des instances Amazon Elastic Container Service, Amazon Elastic Kubernetes Service et Amazon Elastic Compute Cloud situées dans la même zone de disponibilité, quand cela est possible.

### Utiliser des connexions simultanées pour atteindre un débit élevé avec les objets de plus de 1 Mo
<a name="s3-express-best-practices-concurrent-connections"></a>

Vous pouvez optimiser les performances en adressant plusieurs demandes simultanées aux compartiments de répertoires pour répartir vos demandes sur des connexions distinctes et augmenter au maximum la bande passante accessible. À l’instar des compartiments à usage général, S3 Express One Zone n’impose aucune limite quant au nombre de connexions établies avec votre compartiment de répertoires. Les répertoires individuels peuvent mettre à l’échelle horizontalement et automatiquement les performances quand un grand nombre d’écritures simultanées sont effectuées dans le même répertoire.

Les connexions TCP aux compartiments de répertoires ont une limite supérieure fixe quant au nombre d’octets pouvant être chargés ou téléchargés par seconde. Lorsque les objets deviennent plus volumineux, les temps de requête sont davantage dominés par le streaming des octets que par le traitement des transactions. Pour utiliser plusieurs connexions afin de paralléliser le chargement ou le téléchargement d'objets plus volumineux, vous pouvez réduire end-to-end le temps de latence. Si vous utilisez le kit `Java 2.x` SDK, vous devriez envisager d’utiliser le [gestionnaire de transferts S3](https://docs.aws.amazon.com/sdk-for-java/latest/developer-guide/transfer-manager.html), qui tirera parti des améliorations de performances telles que les [opérations d’API de chargement partitionné](https://docs.aws.amazon.com/AmazonS3/latest/userguide/mpuoverview.html) et les extractions par plage d’octets pour accéder aux données en parallèle.

### Utiliser des points de terminaison d’un VPC de passerelle
<a name="s3-express-best-practices-vpc-endpoints"></a>

Les points de terminaison de passerelle fournissent une connexion directe entre votre VPC et les compartiments de répertoires, sans nécessiter de passerelle Internet ou d’appareil NAT pour votre VPC. Pour réduire le temps que vos paquets passent sur le réseau, vous devez configurer votre VPC avec un point de terminaison d’un VPC de passerelle pour les compartiments de répertoires. Pour de plus amples informations, veuillez consulter [Mise en réseau des compartiments de répertoires](s3-express-networking.md).

### Utiliser l’authentification de session et réutiliser les jetons de session lorsqu’ils sont valides
<a name="s3-express-best-practices-session-auth"></a>

Les compartiments de répertoires fournissent un mécanisme d’authentification par jeton de session pour réduire la latence lors des opérations d’API sensibles aux performances. Vous pouvez passer un seul appel à `CreateSession` pour obtenir un jeton de session, qui sera ensuite valide pour toutes les demandes pendant les cinq minutes suivantes. Pour réduire au minimum la latence de vos appels d’API, assurez-vous d’acquérir un jeton de session et de le réutiliser pendant toute sa durée de vie avant de l’actualiser.

Si vous l'utilisez AWS SDKs, SDKs gérez automatiquement les actualisations des jetons de session afin d'éviter les interruptions de service à l'expiration d'une session. Nous vous recommandons d'utiliser le AWS SDKs pour lancer et gérer les demandes relatives à l'opération `CreateSession` API.

Pour plus d’informations sur `CreateSession`, consultez [Autorisation des opérations d’API de point de terminaison zonal avec `CreateSession`](s3-express-create-session.md).

### Utiliser un client basé sur le CRT
<a name="s3-express-best-practices-crt"></a>

Le AWS Common Runtime (CRT) est un ensemble de bibliothèques modulaires, performantes et efficaces écrites en C et destinées à servir de base au AWS SDKs. Le CRT offre un débit amélioré, une gestion optimisée des connexions et des temps de démarrage plus rapides. Le CRT est disponible sur tous les réseaux AWS SDKs sauf Go.

[Pour plus d'informations sur la configuration du CRT pour le SDK que vous utilisez, consultez les [bibliothèques AWS Common Runtime (CRT)](https://docs.aws.amazon.com/sdkref/latest/guide/common-runtime.html), Accélérez le [débit d'Amazon S3 avec le AWS Common Runtime, Présentation du](https://aws.amazon.com/blogs//storage/improving-amazon-s3-throughput-for-the-aws-cli-and-boto3-with-the-aws-common-runtime/)[client S3 basé sur CRT et du gestionnaire de transfert S3 dans le SDK pour Java AWS 2.x, Utilisation de S3 pour](https://aws.amazon.com/blogs//developer/introducing-crt-based-s3-client-and-the-s3-transfer-manager-in-the-aws-sdk-for-java-2-x/) les opérations [CrtClient Amazon S3](https://docs.aws.amazon.com/sdk-for-cpp/v1/developer-guide/examples-s3-crt.html) et Configuration des clients HTTP basés sur le CRT. AWS](https://docs.aws.amazon.com/sdk-for-java/latest/developer-guide/http-configuration-crt.html)

### Utilisez la dernière version du AWS SDKs
<a name="s3-express-best-practices-latest-sdks"></a>

Ils AWS SDKs fournissent un support intégré pour de nombreuses directives recommandées pour optimiser les performances d'Amazon S3. Ils SDKs proposent une API plus simple pour tirer parti d'Amazon S3 depuis une application et sont régulièrement mis à jour pour suivre les meilleures pratiques les plus récentes. Par exemple, ils réessayent SDKs automatiquement les demandes après des `503` erreurs HTTP et gèrent les réponses lentes aux connexions.

Si vous utilisez le kit `Java 2.x` SDK, vous devriez envisager d’utiliser le [gestionnaire de transferts S3](https://docs.aws.amazon.com/sdk-for-java/latest/developer-guide/transfer-manager.html), qui met automatiquement les connexions à l’échelle horizontalement pour traiter des milliers de demandes par seconde en utilisant des demandes par plage d’octets, le cas échéant. Les demandes par plage d’octets peuvent améliorer les performances, car vous pouvez utiliser des connexions simultanées à S3 pour extraire différentes plages d’octets du même objet. Vous pouvez ainsi parvenir au regroupement de débits le plus élevé, par opposition à une seule demande d’objet entier. Il est donc important d'utiliser la dernière version du AWS SDKs pour obtenir les dernières fonctionnalités d'optimisation des performances.

## Dépannage des performances
<a name="s3-express-performance-troubleshooting"></a>

### Configurez-vous des demandes de nouvelle tentative pour les applications sensibles à la latence ?
<a name="s3-express-performance-troubleshooting-retry"></a>

La classe S3 Express One Zone est spécialement conçue pour fournir des niveaux élevés constants de performances sans réglages supplémentaires. Toutefois, la définition de valeurs de délai d’attente et de nouvelles tentatives agressives contribue également à garantir une latence et des performances constantes. Ils AWS SDKs ont des valeurs de délai d'expiration et de nouvelle tentative configurables que vous pouvez ajuster en fonction des tolérances de votre application spécifique.

### Utilisez-vous des bibliothèques CRT ( AWS Common Runtime) et des types d'instances Amazon EC2 optimaux ?
<a name="s3-express-performance-troubleshooting-crt-ec2"></a>

Les applications qui effectuent un grand nombre d’opérations de lecture et d’écriture ont probablement besoin de plus de mémoire et de capacité de calcul que les autres. Lorsque vous lancez vos instances Amazon Elastic Compute Cloud (Amazon EC2) pour votre charge de travail exigeante en performances, choisissez les types d’instances qui disposent de la quantité de ces ressources dont votre application a besoin. Le stockage hautes performances S3 Express One Zone est idéalement associé à des types d'instances plus grands et plus récents, dotés d'une plus grande quantité de mémoire système et plus puissants, CPUs et GPUs qui peuvent tirer parti d'un stockage plus performant. Nous vous recommandons également d'utiliser les dernières versions de la technologie compatible CRT AWS SDKs, qui permettent de mieux accélérer les requêtes de lecture et d'écriture en parallèle.

### Utilisez-vous une authentification basée sur AWS SDKs les sessions ?
<a name="s3-express-performance-troubleshooting-session-auth"></a>

Avec Amazon S3, vous pouvez également optimiser les performances lorsque vous utilisez des requêtes d'API HTTP REST en suivant les mêmes bonnes pratiques que celles décrites dans le AWS SDKs. Toutefois, compte tenu du mécanisme d'autorisation et d'authentification basé sur les sessions utilisé par S3 Express One Zone, nous vous recommandons vivement d'utiliser le AWS SDKs to manage `CreateSession` et son jeton de session géré. Créez et actualisez AWS SDKs automatiquement les jetons en votre nom à l'aide de l'opération `CreateSession` API. Utilisation d'`CreateSession`économies sur le temps de latence aller-retour par demande vers Gestion des identités et des accès AWS (IAM) pour autoriser chaque demande.

## Exemples d’opérations sur des compartiments de répertoires et d’interactions avec les répertoires
<a name="s3-express-directory-bucket-examples"></a>

Voici trois exemples illustrant le fonctionnement des compartiments de répertoires.

### Exemple 1 : interaction de demandes S3 `PutObject` adressées à un compartiment de répertoires avec les répertoires
<a name="s3-express-directory-bucket-examples-put"></a>

1. Lorsque l’opération `PUT(<bucket>, "documents/reports/quarterly.txt")` est exécutée dans un compartiment vide, le répertoire `documents/` situé à la racine du compartiment est créé, le répertoire `reports/` dans `documents/` est créé, et l’objet `quarterly.txt` dans `reports/`est créé. Pour cette opération, deux répertoires ont été créés en plus de l’objet.  
![\[Schéma illustrant la structure d’un répertoire après l’opération PUT pour documents/reports/quarterly.txt\]](http://docs.aws.amazon.com/fr_fr/AmazonS3/latest/userguide/images/directory-examples-foo-bar-baz.png)

1. Ensuite, lorsqu’une autre opération `PUT(<bucket>, "documents/logs/application.txt")` est exécutée, le répertoire `documents/` existe déjà, le répertoire `logs/` dans `documents/` n’existe pas et est créé, et l’objet `application.txt` dans `logs/` est créé. Pour cette opération, un seul répertoire a été créé en plus de l’objet.  
![\[Schéma illustrant la structure d’un répertoire après l’opération PUT pour documents/logs/application.txt\]](http://docs.aws.amazon.com/fr_fr/AmazonS3/latest/userguide/images/directory-examples-foo-baz-quux.png)

1. Enfin, lorsqu’une opération `PUT(<bucket>, "documents/readme.txt")` est exécutée, le répertoire `documents/` situé à la racine existe déjà et l’objet `readme.txt` est créé. Pour cette opération, aucun répertoire n’est créé.  
![\[Schéma illustrant la structure d’un répertoire après l’opération PUT pour documents/readme.txt\]](http://docs.aws.amazon.com/fr_fr/AmazonS3/latest/userguide/images/directory-examples-foo-bar.png)

### Exemple 2 : interaction de demandes S3 `ListObjectsV2` adressées à un compartiment de répertoires avec les répertoires
<a name="s3-express-directory-bucket-examples-list"></a>

Pour les demandes S3 `ListObjectsV2` sans délimiteur, un compartiment est parcouru en profondeur. Les sorties sont renvoyées dans un ordre cohérent. Cependant, bien qu’il reste identique entre les demandes, cet ordre n’est pas lexicographique. Pour le compartiment et les répertoires créés dans l’exemple précédent :

1. Lorsqu’un `LIST(<bucket>)` est exécuté, le répertoire `documents/` est saisi et le parcours commence.

1. Le sous-répertoire `logs/` est saisi et le parcours commence.

1. L’objet `application.txt` est trouvé dans `logs/`.

1. Il n’existe aucune autre entrée dans `logs/`. L’opération Liste sort de `logs/`, puis entre à nouveau dans `documents/`.

1. Le répertoire `documents/` continue d’être parcouru et l’objet `readme.txt` est trouvé.

1. Le répertoire `documents/` continue d’être parcouru, le sous-répertoire `reports/` est saisi et le parcours commence.

1. L’objet `quarterly.txt` est trouvé dans `reports/`.

1. Il n’existe aucune autre entrée dans `reports/`. L’opération Liste sort de `reports/`, puis entre à nouveau dans `documents/`.

1. Il n’existe aucune autre entrée dans `documents/` et l’opération Liste revient.

Dans cet exemple, `logs/` est classé avant `readme.txt`, et `readme.txt` avant `reports/`.

### Exemple 3 : interaction de demandes S3 `DeleteObject` adressées à un compartiment de répertoires avec les répertoires
<a name="s3-express-directory-bucket-examples-delete"></a>

![\[Schéma illustrant la structure initiale du répertoire avant l’opération DELETE\]](http://docs.aws.amazon.com/fr_fr/AmazonS3/latest/userguide/images/directory-examples-delete-before.png)


1. Dans ce même compartiment, lorsque l’opération `DELETE(<bucket>, "documents/reports/quarterly.txt")` est exécutée, l’objet `quarterly.txt` est supprimé, laissant le répertoire `reports/` vide, ce qui entraîne sa suppression immédiate. Le répertoire `documents/` n’est pas vide, car il contient le répertoire `logs/` et l’objet `readme.txt`. Il n’est donc pas supprimé. Pour cette opération, un seul objet et un seul répertoire ont été supprimés.  
![\[Schéma illustrant la structure du répertoire après l’opération DELETE pour documents/reports/quarterly.txt\]](http://docs.aws.amazon.com/fr_fr/AmazonS3/latest/userguide/images/directory-examples-delete1.png)

1. Lorsque l’opération `DELETE(<bucket>, "documents/readme.txt")` est exécutée, l’objet `readme.txt` est supprimé. Le répertoire `documents/` n’est toujours pas vide, car il contient le répertoire `logs/`. Il n’est donc pas supprimé. Pour cette opération, aucun répertoire n’est supprimé. Seul l’objet l’est.  
![\[Schéma illustrant la structure du répertoire après l’opération DELETE pour documents/readme.txt\]](http://docs.aws.amazon.com/fr_fr/AmazonS3/latest/userguide/images/directory-examples-delete2.png)

1. Enfin, lorsque l’opération `DELETE(<bucket>, "documents/logs/application.txt")` est exécutée, l’objet `application.txt` est supprimé, laissant le sous-répertoire `logs/` vide, ce qui entraîne sa suppression immédiate. Le répertoire `documents/` est alors vide et immédiatement supprimé. Pour cette opération, deux répertoires et un objet sont supprimés. Le compartiment est maintenant vide.  
![\[Schéma illustrant la structure du répertoire après l’opération DELETE pour documents/logs/application.txt\]](http://docs.aws.amazon.com/fr_fr/AmazonS3/latest/userguide/images/directory-examples-delete3.png)