

# Cargas de trabajo de alto rendimiento
<a name="directory-bucket-high-performance"></a>

## S3 Express One Zone
<a name="s3-express-one-zone"></a>

 Puede utilizar Amazon S3 Express One Zone para las cargas de trabajo de alto rendimiento. S3 Express One Zone es la primera clase de almacenamiento de S3 en la que se puede seleccionar una única zona de disponibilidad con la opción de coubicar el almacenamiento de objetos junto con los recursos de computación, lo que brinda la mayor velocidad de acceso posible. Los objetos en S3 Express One Zone se almacenan en buckets de directorio ubicados en las zonas de disponibilidad. Para obtener más información acerca de los buckets de directorio, consulte [Buckets de directorio](https://docs.aws.amazon.com//AmazonS3/latest/userguide/directory-buckets-overview.html). 

Amazon S3 Express One Zone es una clase de almacenamiento de Amazon S3 en zona única de alto rendimiento que está diseñada específicamente para ofrecer acceso constante a los datos en milisegundos de un solo dígito para los datos a los que accede para las aplicaciones sensibles a la latencia. S3 Express One Zone es la clase de almacenamiento de objetos en la nube con la latencia más baja disponible en la actualidad, con una velocidad de acceso a los datos hasta 10 veces más rápida y unos costos de solicitud un 50 % más bajos que los de S3 Standard. Las aplicaciones pueden beneficiarse inmediatamente de que las solicitudes se completen en un orden de magnitud más rápido. S3 Express One Zone ofrece una elasticidad de rendimiento similar a la de otras clases de almacenamiento de S3. S3 Express One Zone se utiliza para cargas de trabajo o aplicaciones de rendimiento crítico que requieren una latencia constante de milisegundos de un solo dígito. 

De igual modo que con otras clases de almacenamiento de Amazon S3, no es necesario planificar ni aprovisionar los requisitos de capacidad o rendimiento por adelantado. Puede ampliar o reducir su almacenamiento, según sus necesidades, y acceder a sus datos a través de la API de Amazon S3.

La clase de almacenamiento Amazon S3 Express One Zone está diseñada para ofrecer una disponibilidad del 99,95 % dentro de una única zona de disponibilidad y está respaldada por el [contrato de nivel de servicio de Amazon S3](https://aws.amazon.com/s3/sla/). Con S3 Express One Zone, sus datos se almacenan de forma redundante en varios dispositivos dentro de una única zona de disponibilidad. S3 Express One Zone está diseñado para controlar los fallos simultáneos de dispositivos mediante la detección y la reparación rápidas de cualquier redundancia perdida. Si el dispositivo existente detecta un fallo, S3 Express One Zone transfiere automáticamente las solicitudes a los nuevos dispositivos dentro de una zona de disponibilidad. Esta redundancia ayuda a garantizar el acceso ininterrumpido a los datos dentro de una zona de disponibilidad.

S3 Express One Zone es ideal para cualquier aplicación en la que sea importante minimizar la latencia necesaria para acceder a un objeto. Estas aplicaciones pueden ser flujos de trabajo interactivos entre humanos, como la edición de vídeo, en los que los profesionales creativos necesitan un acceso fluido al contenido desde sus interfaces de usuario. S3 Express One Zone también beneficia a las cargas de trabajo de análisis y machine learning que tienen requisitos de capacidad de respuesta similares a los de sus datos, especialmente las cargas de trabajo con muchos accesos más pequeños o un gran número de accesos aleatorios. S3 Express One Zone se puede usar con otros Servicios de AWS para admitir cargas de trabajo de análisis, inteligencia artificial y machine learning (IA y ML), como Amazon EMR, Amazon SageMaker AI y Amazon Athena.

![\[Diagrama que muestra el funcionamiento de S3 Express One Zone.\]](http://docs.aws.amazon.com/es_es/AmazonS3/latest/userguide/images/s3-express-one-zone.png)


En los buckets de directorio que utilizan la clase de almacenamiento S3 Express One Zone, los datos se almacenan en varios dispositivos dentro de una única zona de disponibilidad, pero no almacenan datos de forma redundante entre zonas de disponibilidad. Al crear un bucket de directorio para usar la clase de almacenamiento S3 Express One, recomendamos que especifique una Región de AWS y una zona de disponibilidad que sean locales para las instancias de computación de Amazon EC2, Amazon Elastic Kubernetes Service o Amazon Elastic Container Service (Amazon ECS) a fin de optimizar el rendimiento. 

Al usar S3 Express One Zone, puede interactuar con su bucket de directorio en una nube privada virtual (VPC) mediante un punto de conexión de VPC de puerta de enlace. Los puntos de conexión de puerta de enlace permiten acceder a buckets de directorio de S3 Express One Zone desde su VPC sin necesidad de una puerta de enlace de Internet ni de un dispositivo NAT para la VPC, y sin costo adicional. 

Con los buckets de directorio puede usar muchas de las operaciones y características de la API de Amazon S3 que usa con los buckets de uso general y otras clases de almacenamiento. Estos incluyen Mountpoint para Amazon S3, cifrado del servidor con claves administradas por Amazon S3 (SSE-S3), cifrado del servidor con claves de AWS Key Management Service (AWS KMS) (SSE-KMS), operaciones por lotes de S3 y S3 Block Public Access. También puede acceder a S3 Express One Zone desde la consola de Amazon S3, la AWS Command Line Interface (AWS CLI), los SDK de AWS y la API de REST de Amazon S3.

Para obtener más información acerca de S3 Express One Zone, consulte los siguientes temas.
+ [Descripción general](#s3-express-one-zone-overview)
+ [Características de S3 Express One Zone](#s3-express-features)
+ [Servicios relacionados](#s3-express-related-services)
+ [Siguientes pasos](#s3-express-next-steps)

### Descripción general
<a name="s3-express-one-zone-overview"></a>

Para optimizar el rendimiento y reducir la latencia, S3 Express One Zone presenta los siguientes conceptos nuevos.

#### Zonas de disponibilidad
<a name="s3-express-overview-az"></a>

La clase de almacenamiento Amazon S3 Express One Zone está diseñada para ofrecer una disponibilidad del 99,95 % dentro de una única zona de disponibilidad y está respaldada por el [contrato de nivel de servicio de Amazon S3](https://aws.amazon.com/s3/sla/). Con S3 Express One Zone, sus datos se almacenan de forma redundante en varios dispositivos dentro de una única zona de disponibilidad. S3 Express One Zone está diseñado para controlar los fallos simultáneos de dispositivos mediante la detección y la reparación rápidas de cualquier redundancia perdida. Si el dispositivo existente detecta un fallo, S3 Express One Zone transfiere automáticamente las solicitudes a los nuevos dispositivos dentro de una zona de disponibilidad. Esta redundancia ayuda a garantizar el acceso ininterrumpido a los datos dentro de una zona de disponibilidad.

Una zona de disponibilidad consiste en uno o varios centros de datos discretos con alimentación, redes y conectividad redundantes en una Región de AWS. Al crear un bucket de directorio, debe elegir la zona de disponibilidad y la Región de AWS donde se colocará el bucket. 

##### Una sola zona de disponibilidad
<a name="directory-buckets-availability-zone"></a>

Al crear un bucket de directorio, elige la zona de disponibilidad y Región de AWS.

Los buckets de directorio utilizan la clase de almacenamiento S3 Express One Zone, que está diseñada para que la utilicen aplicaciones sensibles al rendimiento. S3 Express One Zone es la primera clase de almacenamiento de S3 en la que se puede seleccionar una única zona de disponibilidad con la opción de coubicar su almacenamiento de objetos junto con sus recursos informáticos, lo que brinda la mayor velocidad de acceso posible.

Con S3 Express One Zone, sus datos se almacenan de forma redundante en varios dispositivos dentro de una única zona de disponibilidad. S3 Express One Zone está diseñado para ofrecer una disponibilidad del 99,95 % dentro de una única zona de disponibilidad y está respaldado por el [contrato de nivel de servicio de Amazon S3](https://aws.amazon.com/s3/sla/). Para obtener más información, consulte [Zonas de disponibilidad](#s3-express-overview-az)

#### Puntos de conexión y puntos de conexión de VPC de puerta de enlace
<a name="s3-express-overview-endpoints"></a>

Las operaciones de la API de administración para buckets de directorio están disponibles a través de un punto de conexión regional y se denominan operaciones de la API de puntos de conexión regionales. Algunos ejemplos de operaciones de la API de puntos de conexión regionales son `CreateBucket` y `DeleteBucket`. Tras crear un bucket de directorio, puede utilizar las operaciones de la API de puntos de conexión zonales para cargar y administrar los objetos de su bucket de directorio. Las operaciones de la API de puntos de conexión zonales están disponibles a través de un punto de conexión zonal. Algunos ejemplos de operaciones de la API de puntos de conexión zonales son `PutObject` y `CopyObject`.

Puede acceder a S3 Express One Zone desde la VPC mediante los puntos de conexión de VPC de puerta de enlace. Después de crear un punto de conexión de la puerta de enlace, puede agregarlo como destino en la tabla de enrutamiento para el tráfico destinado desde la VPC a S3 Express One Zone. Al igual que con Amazon S3, el uso de puntos de conexión de puertas de enlace no conlleva ningún cargo adicional. Para obtener más información acerca de cómo configurar los puntos de conexión de VPC de puerta de enlace, consulte [Redes para buckets de directorio](s3-express-networking.md).

#### Autorización basada en sesiones
<a name="s3-express-overview-authorization"></a>

Con S3 Express One Zone, puede autenticar y autorizar las solicitudes mediante un nuevo mecanismo basado en sesiones, que está optimizado para ofrecer la latencia más baja. Puede utilizar `CreateSession` para solicitar credenciales temporales que otorgan acceso de baja latencia a su bucket. Estas credenciales temporales tienen el alcance de un bucket de directorio de S3 específico. Los tokens de sesión se utilizan solo con operaciones (de nivel de objeto) zonales (con la excepción de [CopyObject](directory-buckets-objects-copy.md)). Para obtener más información, consulte [Autorización de operaciones de la API de puntos de conexión zonales con `CreateSession`](s3-express-create-session.md). 

Los [SDK de AWS compatibles con S3 Express One Zone](s3-express-SDKs.md#s3-express-getting-started-accessing-sdks) controlan el establecimiento y la actualización de la sesión en su nombre. Para proteger sus sesiones, las credenciales de seguridad temporales caducan a los 5 minutos. Esto significa que puede empezar a usar las operaciones de la API inmediatamente después de descargar e instalar los SDK de AWS y configurar los permisos de AWS Identity and Access Management (IAM) necesarios.

### Características de S3 Express One Zone
<a name="s3-express-features"></a>

Las siguientes características de S3 están disponibles para S3 Express One Zone. Para obtener una lista completa de las operaciones de la API compatibles y las características no compatibles, consulte [Diferencias de los buckets de directorio](s3-express-differences.md).

#### Gestión de acceso y seguridad
<a name="s3-express-features-access-management"></a>

Puede utilizar las siguientes características para auditar y administrar el acceso. De forma predeterminada, los buckets de directorio son privados y solo pueden acceder a ellos los usuarios a los que se concede explícitamente el acceso. A diferencia de los buckets de uso general, que pueden establecer el límite de control de acceso en el nivel de bucket, prefijo o etiqueta de objeto, el límite de control de acceso de los buckets de directorio se establece únicamente en el nivel de bucket. Para obtener más información, consulte [Autorización de API de puntos de conexión regionales con IAM](s3-express-security-iam.md). 
+ [S3 Block Public Access](access-control-block-public-access.md): todas las configuraciones de S3 Block Public Access están habilitadas de forma predeterminada en el nivel de bucket. Esta configuración predeterminada no se puede modificar. 
+ [S3 Object Ownership](about-object-ownership.md) (Aplicada al propietario del bucket es la opción predeterminada): las listas de control de acceso (ACL) no son compatibles con los buckets de directorio. Los buckets de directorio utilizan automáticamente la configuración Aplicada al propietario del bucket en la S3 Object Ownership. Aplicada al propietario del bucket significa que las ACL están desactivadas y el propietario del bucket tiene automáticamente la propiedad y el control total sobre cada objeto del bucket. Esta configuración predeterminada no se puede modificar. 
+ [AWS Identity and Access Management (IAM)](s3-express-security-iam.md): IAM ayuda a controlar de forma segura el acceso a los buckets de directorio. Puede utilizar IAM para conceder acceso a las operaciones de la API de administración de buckets (regionales) y a las operaciones de la API de administración de objetos (zonales) mediante la acción `s3express:CreateSession`. Para obtener más información, consulte [Autorización de API de puntos de conexión regionales con IAM](s3-express-security-iam.md). A diferencia de las acciones de administración de objetos, las acciones de administración de buckets no pueden ser entre cuentas. Solo el propietario del bucket puede realizar esas acciones.
+ [Políticas de buckets](s3-express-security-iam-example-bucket-policies.md): utilice el lenguaje de políticas basado en IAM para configurar permisos basados en recursos para sus buckets de directorio. También puede usar IAM para controlar el acceso a la operación de la API `CreateSession`, que le permite usar las operaciones de la API de administración de objetos o zonales. Puede conceder acceso a la misma cuenta o entre cuentas a las operaciones de la API zonales. Para obtener más información acerca de las políticas y los permisos de S3 Express One Zone, consulte [Autorización de API de puntos de conexión regionales con IAM](s3-express-security-iam.md).
+ [Analizador de acceso de IAM para S3](access-analyzer.md): para evaluar y monitorear sus políticas de acceso, asegúrese de que las políticas solo proporcionen el acceso previsto a sus recursos de S3.

#### Registro y supervisión
<a name="s3-express-features-logging-monitoring"></a>

S3 Express One Zone usa las siguientes herramientas de registro y monitoreo de S3 que puede utilizar para monitorear y controlar cómo se utilizan sus recursos:
+ [Métricas de Amazon CloudWatch](cloudwatch-monitoring.md): para monitorear sus recursos y aplicaciones de AWS, utilice CloudWatch para recopilar y realizar el seguimiento de métricas. S3 Express One Zone utiliza el mismo espacio de nombres de CloudWatch que otras clases de almacenamiento de Amazon S3 (`AWS/S3`) y admite métricas de almacenamiento diarias para los buckets de directorio: `BucketSizeBytes` y `NumberOfObjects`. Para obtener más información, consulte [Monitorización de métricas con Amazon CloudWatch](cloudwatch-monitoring.md).
+ [Registros de AWS CloudTrail](cloudtrail-logging-s3-info.md): AWS CloudTrail es un Servicio de AWS que lo ayuda a implementar la auditoría de riesgos y operaciones, la gobernanza y el cumplimiento de su Cuenta de AWS mediante el registro de las acciones realizadas por un usuario, un rol o un Servicio de AWS. Para S3 Express One Zone, CloudTrail captura las operaciones de la API de puntos de conexión regionales (por ejemplo, `CreateBucket` y `PutBucketPolicy`) como eventos de administración y operaciones de API zonales (por ejemplo, `GetObject` y `PutObject`) como eventos de datos. Estos eventos incluyen las acciones realizadas en la Consola de administración de AWS, la AWS Command Line Interface (AWS CLI), los SDK de AWS y las operaciones de la API de AWS. Para obtener más información, consulte [Registro con AWS CloudTrail para S3 Express One Zone](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-one-zone-logging.html).

**nota**  
S3 Express One Zone no admite registros de acceso al servidor de Amazon S3.

#### Administración de objetos
<a name="s3-express-features-object-management"></a>

Puede administrar el almacenamiento de objetos mediante la consola de Amazon S3, los SDK de AWS y la AWS CLI. Las siguientes características están disponibles para la administración de objetos con S3 Express One Zone:
+ [Operaciones por lotes de S3](batch-ops-create-job.md): utilice las operaciones por lotes para realizar operaciones masivas en objetos de buckets de directorio, por ejemplo, **Copiar** y la **función Invoke AWS Lambda**. Por ejemplo, puede usar las operaciones por lotes para copiar objetos entre buckets de directorio y buckets de uso general. Con Operaciones por lotes, puede administrar miles de millones de objetos a escala con una sola solicitud de S3 mediante los SDK de AWS o la AWS CLI, o con unos pocos clics en la consola de Amazon S3. 
+ [Importación](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-import-job.html): después de crear un bucket de directorio, puede rellenar el bucket con objetos mediante la característica de importación de la consola de Amazon S3. Importar es un método simplificado para crear trabajos de Batch Operations a fin de copiar objetos de buckets de uso general a buckets de directorio.

#### SDK de AWS y bibliotecas de clientes
<a name="s3-express-features-client-libraries"></a>

 Puede administrar el almacenamiento de objetos mediante los SDK de AWS y las bibliotecas de cliente. 
+ [Mountpoint para Amazon S3](https://github.com/awslabs/mountpoint-s3/blob/main/doc/SEMANTICS.md): Mountpoint para Amazon S3 es un cliente de archivos de código abierto que ofrece un acceso de alto rendimiento, lo que reduce los costos de computación de los lagos de datos en Amazon S3. Mountpoint para Amazon S3 traduce las llamadas a la API del sistema de archivos local en llamadas a la API de objetos de S3, como `GET` y `LIST`. Es ideal para cargas de trabajo de lagos de datos de lectura intensiva que procesan petabytes de datos y necesitan el alto rendimiento elástico proporcionado por Amazon S3 para escalar vertical y horizontalmente en miles de instancias.
+ [https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#Introducing_the_Hadoop_S3A_client](https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#Introducing_the_Hadoop_S3A_client): S3A es una interfaz compatible con Hadoop recomendada para acceder a los almacenes de datos en Amazon S3. S3A reemplaza al cliente de sistema de archivos S3N Hadoop.
+ [PyTorch en AWS](https://docs.aws.amazon.com//sagemaker/latest/dg/pytorch.html): PyTorch en AWS es un marco de aprendizaje profundo de código abierto que facilita el desarrollo de modelos de machine learning y la implementación en producción. 
+ [SDK de AWS](https://aws.amazon.com//developer/tools/): puede utilizar los SDK de AWS para desarrollar aplicaciones con Amazon S3. Los SDK de AWS simplifican las tareas de programación dado que incluyen la API de REST de Amazon S3 subyacente. Para obtener más información sobre el uso de los SDK de AWS con S3 Express One Zone, consulte [AWS SDK](s3-express-SDKs.md#s3-express-getting-started-accessing-sdks).

### Cifrado y protección de datos
<a name="s3-express-features-encryption"></a>

Los objetos en S3 Express One Zone se cifran de forma automática mediante el cifrado del servidor con claves administradas por Amazon S3 (SSE-S3). S3 Express One Zone también admite el cifrado del servidor con claves de AWS Key Management Service (AWS KMS) (SSE-KMS). S3 Express One Zone no admite el cifrado del servidor con claves de cifrado proporcionadas por el cliente (SSE-C) ni el cifrado del servidor de doble capa con AWS KMS keys (DSSE-KMS). Para obtener más información, consulte [Protección y cifrado de datos](s3-express-data-protection.md).

S3 Express One Zone le ofrece la opción de elegir el algoritmo de suma de comprobación que se utiliza para validar los datos durante la carga o descarga. Puede seleccionar uno de los siguientes algoritmos de comprobación de integridad de datos Secure Hash Algorithms (SHA) o Cyclic Redundancy Check (CRC): CRC32, CRC32C, SHA-1 y SHA-256. Las sumas de comprobación basadas en MD5 no son compatibles con la clase de almacenamiento S3 Express One Zone. 

Para obtener más información, consulte [Prácticas recomendadas adicionales para la suma de comprobación de S3](s3-express-optimizing-performance.md#s3-express-optimizing-performance-checksums).

### AWS Signature Version 4 (SigV4)
<a name="s3-express-features-sigv4"></a>

S3 Express One Zone utiliza AWS Signature Version 4 (SigV4). SigV4 es un protocolo de firma que se utiliza para autenticar las solicitudes a Amazon S3 a través de HTTPS. S3 Express One Zone firma las solicitudes con AWS Sigv4. Para obtener más información, consulte [Autenticación de solicitudes (AWS Signature Version 4)](https://docs.aws.amazon.com//AmazonS3/latest/API/sig-v4-authenticating-requests.html) en la *Referencia de la API de Amazon Simple Storage Service*.

### Consistencia sólida
<a name="s3-express-features-strong-consistency"></a>

S3 Express One Zone proporciona una sólida coherencia de lectura tras escritura para las solicitudes `PUT` y `DELETE` de objetos en sus buckets de directorio en todas las Regiones de AWS. Para obtener más información, consulte [Modelo de consistencia de datos de Amazon S3](Welcome.md#ConsistencyModel).

### Servicios relacionados
<a name="s3-express-related-services"></a>

Puede utilizar los siguientes Servicios de AWS con la clase de almacenamiento S3 Express One Zone para admitir su caso de uso específico de baja latencia.
+ [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/ec2/index.html): Amazon EC2 proporciona capacidad de computación escalable y segura en la Nube de AWS. El uso de Amazon EC2 reduce la necesidad de invertir inicialmente en hardware, de manera que puede desarrollar e implementar aplicaciones en menos tiempo. Puede usar Amazon EC2 para lanzar tantos servidores virtuales como necesite, configurar la seguridad y las redes, y administrar el almacenamiento.
+ [AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/welcome.html.html) – Lambda es un servicio informático que permite ejecutar código sin aprovisionar ni administrar servidores. Puede configurar las opciones de notificación en un bucket y conceder a Amazon S3 permiso para invocar una función en la política de permisos basada en recursos de la función. 
+ [Amazon Elastic Kubernetes Service (Amazon EKS)](https://docs.aws.amazon.com/eks/latest/userguide/what-is-eks.html): Amazon EKS es un servicio administrado que elimina la necesidad de instalar, operar y mantener el propio plano de control de Kubernetes en AWS. [https://kubernetes.io/docs/concepts/overview/](https://kubernetes.io/docs/concepts/overview/) es un sistema de código abierto que automatiza la administración, el escalado y la implementación de aplicaciones en contenedores.
+ [Amazon Elastic Container Service (Amazon ECS)](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/Welcome.html): Amazon ECS es un servicio de orquestación de contenedores completamente administrado que facilita la implementación, la administración y el escalado de aplicaciones en contenedores.
+ [AWS Key Management Service (AWS KMS)](https://docs.aws.amazon.com/kms/latest/developerguide/overview.html): AWS Key Management Service (AWS KMS) es un servicio administrado por AWS que permite crear y controlar fácilmente las claves de cifrado que se utilizan para cifrar los datos. Las claves de AWS KMS que cree en AWS KMS están protegidas por módulos de seguridad de hardware (HSM) validados por FIPS 140-2. Para usar o administrar las claves de KMS, debe interactuar con AWS KMS.
+ [Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/what-is.html): Athena es un servicio de consultas interactivo que facilita el análisis de datos directamente en Amazon S3 con [SQL](https://docs.aws.amazon.com/athena/latest/ug/ddl-sql-reference.html) estándar. También puede usar Athena para ejecutar análisis de datos de forma interactiva mediante Apache Spark sin tener que planificar, configurar ni administrar los recursos. Cuando ejecuta aplicaciones de Apache Spark en Athena, envía el código de Spark para su procesamiento y recibe los resultados directamente.
+ [Entrenamiento de Amazon SageMaker](https://docs.aws.amazon.com//sagemaker/latest/dg/how-it-works-training.html): revise las opciones de entrenamiento de modelos con Amazon SageMaker, incluidos los algoritmos integrados, los algoritmos personalizados, las bibliotecas y los modelos de AWS Marketplace.
+ [AWS Glue](https://docs.aws.amazon.com/glue/latest/dg/what-is-glue.html) – AWS Glue es un servicio de integración de datos sin servidor que facilita a los usuarios de análisis descubrir, preparar, trasladar e integrar datos desde varios orígenes. Puede usar AWS Glue para análisis, machine learning y desarrollo de aplicaciones. AWS Glue también incluye herramientas adicionales de productividad y operaciones de datos para la creación, la ejecución de trabajos y la implementación de flujos de trabajo empresariales.
+ [Amazon EMR](https://docs.aws.amazon.com//emr/latest/ManagementGuide/emr-what-is-emr.html): Amazon EMR es una plataforma de clúster administrada que simplifica la ejecución de los marcos de macrodatos, tales como Apache Hadoop y Apache Spark, en AWS para procesar y analizar grandes cantidades de datos. 
+ [AWSCloudTrail](https://docs.aws.amazon.com//awscloudtrail/latest/userguide/cloudtrail-user-guide.html): AWSCloudTrail es un servicio de AWS que lo ayuda a la auditoría de operaciones y riesgos, la gobernanza y el cumplimiento de la cuenta de AWS. Las acciones que realiza un usuario, rol o servicio de AWS se registran como eventos en CloudTrail. Los eventos incluyen las acciones llevadas a cabo en la consola de administración de AWS, la interfaz de la línea de comandos de AWS y las API y los SDK de AWS. 
+ [AWS CloudFormation ](https://docs.aws.amazon.com//AWSCloudFormation/latest/UserGuide/Welcome.html): es un servicio que lo ayuda a modelar y configurar los recursos de AWS, por lo que podrá dedicar menos tiempo a la administración de dichos recursos y más tiempo a centrarse en las aplicaciones que se ejecutan en AWS. Puede crear una plantilla que describa todos los recursos de AWS que desea (como instancias de Amazon EC2 o instancias de base de datos de Amazon RDS) y CloudFormation se encargará del aprovisionamiento y la configuración de dichos recursos. No es necesario crear y configurar individualmente los recursos de AWS ni averiguar qué depende de qué; CloudFormation se encarga de todo eso.

### Siguientes pasos
<a name="s3-express-next-steps"></a>

Para obtener más información acerca de cómo trabajar con la clase de almacenamiento S3 Express One Zone y los buckets de directorio, consulte los siguientes temas:
+ [Tutorial: introducción a S3 Express One Zone](s3-express-getting-started.md)
+ [Zonas y regiones de disponibilidad de S3 Express One Zone](s3-express-Endpoints.md)
+ [Redes para buckets de directorio en una zona de disponibilidad](directory-bucket-az-networking.md)
+ [Creación de buckets de directorio en una zona de disponibilidad](directory-bucket-create.md)
+ [Puntos de conexión regionales y zonales para buckets de directorio en una zona de disponibilidad](endpoint-directory-buckets-AZ.md)
+ [Optimización del rendimiento de S3 Express One Zone](s3-express-performance.md)

# Tutorial: introducción a S3 Express One Zone
<a name="s3-express-getting-started"></a>

Amazon S3 Express One Zone es la primera clase de almacenamiento de S3 en la que se puede seleccionar una única zona de disponibilidad con la opción de coubicar su almacenamiento de objetos junto con sus recursos de computación, lo que ofrece la mayor velocidad de acceso posible. Los datos de S3 Express One Zone se almacenan en buckets de directorio ubicados en zonas de disponibilidad. Para obtener más información acerca de los buckets de directorio, consulte [Buckets de directorio](https://docs.aws.amazon.com//AmazonS3/latest/userguide/directory-buckets-overview.html). 

 S3 Express One Zone es ideal para cualquier aplicación en la que sea importante minimizar la latencia de las solicitudes. Estas aplicaciones pueden ser flujos de trabajo interactivos entre humanos, como la edición de vídeo, en los que los profesionales creativos necesitan un acceso fluido al contenido desde sus interfaces de usuario. S3 Express One Zone también beneficia a las cargas de trabajo de análisis y machine learning que tienen requisitos de capacidad de respuesta similares a los de sus datos, especialmente las cargas de trabajo con muchos accesos más pequeños o un gran número de accesos aleatorios. S3 Express One Zone puede utilizarse con otros servicios de AWS como Amazon EMR, Amazon Athena, AWS Glue Data Catalog y Amazon SageMaker Model Training para admitir cargas de trabajo de análisis, inteligencia artificial y machine learning (IA/ML). Puede trabajar con la clase de almacenamiento S3 Express One Zone y los buckets de directorio mediante la consola de Amazon S3, los AWS SDK, la interfaz de la línea de comandos de AWS (CLI de AWS) y la API de REST de Amazon S3. Para obtener más información, consulte [¿Qué es S3 Express One Zone?](https://docs.aws.amazon.com//AmazonS3/latest/userguide/s3-express-one-zone.html) y [¿En qué se diferencia S3 Express One Zone?](https://docs.aws.amazon.com//AmazonS3/latest/userguide/s3-express-differences.html) 

![\[Este es un diagrama de flujo de trabajo de S3 Express One Zone.\]](http://docs.aws.amazon.com/es_es/AmazonS3/latest/userguide/images/s3-express-one-zone.png)


**Objetivo**  
En este tutorial, aprenderá a crear un punto de conexión de puerta de enlace, a crear y asociar una política de IAM, a crear un bucket de directorio y, a continuación, a utilizar la acción de importación para rellenar el bucket de directorio con los objetos que actualmente están almacenados en el bucket de uso general. También puede cargar objetos de forma manual en el bucket de directorio. 

**Topics**
+ [Requisitos previos](#s3-express-tutorial-prerequisites)
+ [Paso 1: configurar un punto de conexión de VPC de puerta de enlace para llegar a los buckets de directorio de S3 Express One Zone](s3-express-tutorial-endpoints.md)
+ [Paso 2: crear un bucket de directorio de S3 Express One Zone](s3-express-tutorial-create-directory-bucket.md)
+ [Paso 3: importar datos a un bucket de directorio de S3 Express One Zone](s3-express-tutorial-Import.md)
+ [Paso 4: cargar manualmente objetos al bucket de directorio de S3 Express One Zone](s3-express-tutorial-Upload.md)
+ [Paso 5: vaciar el bucket de directorio de S3 Express One Zone](s3-express-tutoiral-Empty.md)
+ [Paso 6: eliminar el bucket de directorio de S3 Express One Zone](s3-express-tutoiral-Delete.md)
+ [Siguientes pasos](#s3-express-tutoiral-Next)

## Requisitos previos
<a name="s3-express-tutorial-prerequisites"></a>

Antes de empezar este tutorial, debe tener una Cuenta de AWS en la que puede iniciar sesión como usuario de AWS Identity and Access Management (IAM) con los permisos correctos.

**Topics**
+ [Cree una Cuenta de AWS](#s3-express-create-account)
+ [Creación de un usuario de IAM en su Cuenta de AWS (consola)](#s3-express-tutorial-user)
+ [Creación de una política de IAM personalizada y asociación de esta a un rol o usuario de IAM (consola)](#s3-express-tutorial-polict)

### Cree una Cuenta de AWS
<a name="s3-express-create-account"></a>

Para completar este tutorial, se necesita una Cuenta de AWS. Cuando se registra en AWS, su Cuenta de AWS se registra automáticamente en todos los servicios de AWS, incluido Amazon S3. Solo se le cobrará por los servicios que utilice. Para obtener más información acerca de los precios, consulte [Precios de S3](https://aws.amazon.com/s3/pricing/). 

### Creación de un usuario de IAM en su Cuenta de AWS (consola)
<a name="s3-express-tutorial-user"></a>

AWS Identity and Access Management (IAM) es un Servicio de AWS que ayuda a los administradores a controlar de forma segura el acceso a los recursos de AWS. Los administradores de IAM controlan quién puede autenticarse (iniciar sesión) y autorizarse (tener permisos) para acceder a los objetos y utilizar buckets de directorio en S3 Express One Zone. El uso de IAM no está sujeto a ningún cargo adicional. 

De forma predeterminada, los usuarios no tienen permisos para acceder a buckets de directorio y realizar operaciones en S3 Express One Zone. Para conceder permisos de acceso a los buckets de directorio y a las operaciones de S3 Express One Zone, puede usar IAM para crear usuarios o roles y asociar permisos a esas identidades. Para obtener más información acerca de cómo crear un usuario de IAM, consulte [Creación del primer grupo de usuarios y administradores de IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_users_create.html#id_users_create_console) en la *guía del usuario de IAM*. Para obtener más información sobre cómo crear un rol de IAM, consulte [Creación de un rol para delegar permisos a un usuario de IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_create_for-user.html) en la *Guía del usuario de IAM*. 

Para simplificar, este tutorial crea y utiliza un usuario de IAM. Después de completar este tutorial, recuerde [Eliminación del rol de IAM](tutorial-s3-object-lambda-uppercase.md#ol-upper-step8-delete-user). Para uso en producción, le recomendamos que siga las [Prácticas recomendadas de seguridad de IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/best-practices.html) en la *Guía del usuario de IAM*. Una práctica recomendada exige que los usuarios humanos utilicen la federación con un proveedor de identidades para acceder a AWS con credenciales temporales. Otra práctica recomendada es exigir a las cargas de trabajo que utilicen credenciales temporales con roles de IAM para acceder a AWS. Para obtener más información sobre el uso de AWS IAM Identity Center para crear usuarios con credenciales temporales, consulte [Introducción](https://docs.aws.amazon.com/singlesignon/latest/userguide/getting-started.html) en la *Guía del usuario de AWS IAM Identity Center*. 

**aviso**  
Los usuarios de IAM tienen credenciales de larga duración, lo que supone un riesgo de seguridad. Para ayudar a mitigar este riesgo, le recomendamos que brinde a estos usuarios únicamente los permisos que necesitan para realizar la tarea y que los elimine cuando ya no los necesiten.

### Creación de una política de IAM personalizada y asociación de esta a un rol o usuario de IAM (consola)
<a name="s3-express-tutorial-polict"></a>

De forma predeterminada, los usuarios no tienen permisos para los buckets de directorio ni para las operaciones de S3 Express One Zone. Para conceder permisos de acceso a los buckets de directorio, puede usar IAM para crear usuarios, grupos o roles y asociar permisos a esas identidades. Los buckets de directorio son el único recurso que puede incluir en las políticas de bucket o en las políticas de identidad de IAM para el acceso a S3 Express One Zone. 

Para utilizar las operaciones de la API de puntos de conexión regionales (operaciones de bucket o plano de control) con S3 Express One Zone, utilice el modelo de autorización de IAM, que no implica la administración de sesiones. Los permisos se conceden para las acciones de forma individual. Para utilizar las operaciones de la API de puntos de conexión zonales (operaciones de objeto o plano de datos), utilice [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateSession.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateSession.html) para crear y administrar sesiones optimizadas para la autorización de solicitudes de datos con baja latencia. Para recuperar y usar un token de sesión, debe permitir la acción `s3express:CreateSession` para su bucket de directorio en una política basada en identidades o en una política de bucket. Si accede a S3 Express One Zone en la consola de Amazon S3, a través de la interfaz de la línea de comandos de AWS (CLI de AWS) o mediante los AWS SDK, S3 Express One Zone crea una sesión en su nombre. Para obtener más información, consulte [Autorización de `CreateSession`](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-create-session.html) y [AWS Identity and Access Management (IAM) para S3 Express One Zone](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-security-iam.html). 

**Creación de una política de IAM y asociación de esta a un usuario (o rol) de IAM**

1. Inicie sesión en la consola de administración de AWS y abra la consola de administración de IAM.

1. En el panel de navegación, seleccione **Políticas**.

1. Seleccione **Crear política**.

1. Seleccione **JSON**.

1. Copie la siguiente política en la ventana del **Editor de políticas**. Para poder crear buckets de directorio o utilizar S3 Express One Zone, debe conceder los permisos necesarios a su rol o usuarios de AWS Identity and Access Management (IAM). Esta política de ejemplo permite el acceso a la operación de la API `CreateSession` (para utilizarla con las operaciones de la API zonales o de objeto) y a todas las operaciones de la API del punto de conexión regional (de bucket). Esta política permite que la operación de la API `CreateSession` se utilice con todos los buckets de directorio, pero las operaciones de la API de punto de conexión regional solo se permiten con el bucket de directorio especificado. Para utilizar esta política de ejemplo, sustituya `user input placeholders` por su propia información.

------
#### [ JSON ]

****  

   ```
   {
        "Version":"2012-10-17",		 	 	 
        "Statement": [ 
            {
                "Sid": "AllowAccessRegionalEndpointAPIs",
                "Effect": "Allow",
                "Action": [
                    "s3express:DeleteBucket",
                    "s3express:DeleteBucketPolicy",
                    "s3express:CreateBucket",
                    "s3express:PutBucketPolicy",
                    "s3express:GetBucketPolicy",
                    "s3express:ListAllMyDirectoryBuckets"
                ],
   
                "Resource": "arn:aws:s3express:us-east-1:111122223333:bucket/amzn-s3-demo-bucket--usw2-az1--x-s3/*"
            },
            {
                "Sid": "AllowCreateSession",
                "Effect": "Allow",
                "Action": "s3express:CreateSession",
                "Resource": "*"
            }
        ]
    }
   ```

------

1. Elija **Siguiente**.

1. Asigne un nombre a la política.
**nota**  
Las etiquetas de bucket no son compatibles con S3 Express One Zone.

1. Seleccione **Crear política**.

1.  Ahora que ha creado una política de IAM, puede asociarla a un usuario de IAM. En el panel de navegación, seleccione **Políticas**.

1. En la **barra de búsqueda**, escriba el nombre de la política.

1. En el menú **Acciones**, seleccione **Asociar**. 

1. En **Filtrar por tipo de entidad**, seleccione **Usuarios de IAM** o **Roles**. 

1. En el **campo de búsqueda**, escriba el nombre del usuario o rol que desee utilizar.

1. Seleccione **Asociar política**.

**Topics**
+ [Cree una Cuenta de AWS](#s3-express-create-account)
+ [Creación de un usuario de IAM en su Cuenta de AWS (consola)](#s3-express-tutorial-user)
+ [Creación de una política de IAM personalizada y asociación de esta a un rol o usuario de IAM (consola)](#s3-express-tutorial-polict)

# Paso 1: configurar un punto de conexión de VPC de puerta de enlace para llegar a los buckets de directorio de S3 Express One Zone
<a name="s3-express-tutorial-endpoints"></a>

 Puede acceder a las operaciones de API zonales y regionales a través de puntos de conexión de la nube privada virtual (VPC) de puerta de enlace. Los puntos de conexión de puerta de enlace pueden permitir que el tráfico llegue a S3 Express One Zone sin atravesar una puerta de enlace NAT. Recomendamos encarecidamente utilizar puntos de conexión de puerta de enlace, ya que son la ruta de red más óptima cuando se trabaja con S3 Express One Zone. Puede acceder a buckets de directorio de S3 Express One Zone desde su VPC sin necesidad de una puerta de enlace de Internet ni de un dispositivo NAT para la VPC, y sin costo adicional. Utilice el siguiente procedimiento para configurar un punto de conexión de una puerta de enlace que se conecte a buckets de directorio y objetos de clase de almacenamiento de S3 Express One Zone.

Para acceder a S3 Express One Zone, utilice puntos de conexión regionales y zonales que sean diferentes de los puntos de conexión estándar de Amazon S3. Según la operación de API de Amazon S3 que utilice, es necesario un punto de conexión zonal o regional. Para obtener una lista completa de las operaciones de API admitidas por tipo de punto de conexión, consulte [Operaciones de la API compatibles con S3 Express One Zone](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-differences.html#s3-express-differences-api-operations). Debe acceder a los puntos de conexión zonales y regionales a través de un punto de conexión de la nube privada virtual (VPC) de puerta de enlace. 

 Utilice el siguiente procedimiento para crear un punto de conexión de una puerta de enlace que se conecte a buckets de directorio y objetos de clase de almacenamiento de S3 Express One Zone.

**Para configurar un punto de conexión de VPC de puerta de enlace**

1. Abra la consola de Amazon VPC en [https://console.aws.amazon.com/vpc/](https://console.aws.amazon.com/vpc/).

1. En el panel de navegación lateral, en **Nube virtual privada**, seleccione **Puntos de conexión**.

1. Seleccione **Crear punto de conexión**.

1. Cree un nombre para el punto de conexión.

1. En **Categoría de servicios**, elija **Servicios de AWS**. 

1. En **Servicios**, realice una búsqueda con el filtro **Type=Gateway** y luego seleccione el botón de opción situado junto a **com.amazonaws.*region*.s3express**. 

1. En **VPC**, elija la VPC en la que desea crear el punto de conexión.

1. Para **Tablas de enrutamiento**, elija la tabla de enrutamiento de la zona local que utilizará el punto de conexión. Una vez creado el punto de conexión, se agregará un registro de ruta a la tabla de enrutamiento que seleccione en este paso.

1. En **Política**, elija **Acceso completo** para permitir todas las operaciones de todas las entidades principales en todos los recursos del punto de conexión de VPC. De lo contrario, elija **Personalizar** para adjuntar una política de punto de conexión de VPC que controle los permisos de las entidades principales para realizar acciones en los recursos a través del punto de conexión de VPC.

1. En **Tipo de dirección IP**, elija entre las siguientes opciones:
   +  **IPv4**: se asignan direcciones IPv4 a las interfaces de red del punto de conexión. Esta opción solo se admite si todas las subredes seleccionadas tienen rangos de direcciones IPv4 y el servicio acepta solicitudes IPv4. 
   +  **IPv6**: se asignan direcciones IPv6 a las interfaces de red del punto de conexión. Esta opción solo se admite si todas las subredes seleccionadas son solo subredes IPv6 y el servicio acepta solicitudes IPv6.
   +  **Doble pila**: se asignan direcciones IPv4 e IPv6 a las interfaces de red del punto de conexión. Esta opción solo se admite si todas las subredes seleccionadas tienen rangos de direcciones IPv4 e IPv6 y el servicio acepta solicitudes IPv4 e IPV6.

1. (Opcional) Para añadir una etiqueta, elija **Agregar etiqueta nueva** e ingrese la clave y el valor de la etiqueta.

1. Seleccione **Crear punto de conexión**.

Tras crear un punto de conexión de puerta de enlace, puede utilizar los puntos de conexión de API regionales y los puntos de conexión de API zonales para acceder a buckets de directorio y objetos de clase de almacenamiento Amazon S3 Express One Zone.

# Paso 2: crear un bucket de directorio de S3 Express One Zone
<a name="s3-express-tutorial-create-directory-bucket"></a>

1. Inicie sesión en la Consola de administración de AWS y abra la consola de Amazon S3 en [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. En la barra de navegación de la parte superior de la página, elija el nombre de la Región de AWS que aparece. A continuación, en Región, elija la región en la que desea crear un bucket. 
**nota**  
Puede seleccionar una región cercana para minimizar la latencia y los costos, así como para satisfacer los requisitos normativos. Los objetos almacenados en una región nunca abandonarán esa región salvo que usted los transfiera de forma específica a otra. Para una lista de Regiones de AWS de Amazon S3, consulte [Puntos de conexión de Servicio de AWS](https://docs.aws.amazon.com/general/latest/gr/rande.html#s3_region) en la *Referencia general de Amazon Web Services*.

1. En el panel de navegación izquierdo, elija **Buckets de directorio**.

1. Elija **Crear bucket**. Se abrirá la página **Crear bucket**.

1. En **Configuración general**, vea la Región de AWS donde se creará el bucket. 

   En **Bucket type (Tipo de bucket)**, elija **Directory (Directorio)**.
**nota**  
Si ha elegido una región que no admite buckets de directorio, la opción **Tipo de bucket** desaparece y el tipo de bucket pasa a ser un bucket de uso general de forma predeterminada. Para crear un bucket de directorio, debe elegir una región compatible. Para obtener una lista de las regiones que admiten buckets de directorio y la clase de almacenamiento Amazon S3 Express One Zone, consulte [Zonas y regiones de disponibilidad de S3 Express One Zone](s3-express-Endpoints.md).
No se puede cambiar el tipo de bucket después de haberlo creado.
**nota**  
La zona de disponibilidad no se puede cambiar una vez creado el bucket. 

1. En **Zona de disponibilidad**, elija una zona de disponibilidad local para sus servicios de computación. Para obtener una lista de las zonas de disponibilidad que admiten buckets de directorio y la clase de almacenamiento S3 Express One Zone, consulte [Zonas y regiones de disponibilidad de S3 Express One Zone](s3-express-Endpoints.md). 

   En **Zona de disponibilidad**, seleccione la casilla para confirmar que, en caso de que se produzca una interrupción de la zona de disponibilidad, es posible que los datos no estén disponibles o se pierdan. 
**importante**  
Los buckets de directorio se almacenan en varios dispositivos dentro de una única zona de disponibilidad, pero no almacenan datos de forma redundante en todas las zonas de disponibilidad.

1. En **Nombre del bucket**, escriba un nombre para el bucket de directorio.

   Las siguientes reglas de nomenclatura se aplican a los buckets de directorio.
   + Ser únicos en la zona elegida (zona de disponibilidad de AWS o zona local de AWS). 
   + El nombre debe tener entre 3 (mín.) y 63 caracteres (máx.), incluido el sufijo.
   + Constar de letras minúsculas, números y guiones (-).
   + Comenzar y terminar por un número o una letra. 
   + Debe incluir el siguiente sufijo: `--zone-id--x-s3`.
   + Los nombres de los buckets no deben comenzar con el prefijo `xn--`.
   + Los nombres de los buckets no deben comenzar con el prefijo `sthree-`.
   + Los nombres de los buckets no deben comenzar con el prefijo `sthree-configurator`.
   + Los nombres de los buckets no deben comenzar con el prefijo ` amzn-s3-demo-`.
   + Los nombres de los buckets no deben terminar con el sufijo `-s3alias`. Este sufijo está reservado para nombres de alias de punto de acceso. Para obtener más información, consulte [Alias de punto de acceso](access-points-naming.md#access-points-alias).
   + Los nombres de los buckets no deben terminar con el sufijo `--ol-s3`. Este sufijo está reservado para nombres de alias de punto de acceso de Object Lambda. Para obtener más información, consulte [Cómo usar un alias de estilo de bucket para su punto de acceso de Object Lambda de bucket de S3](olap-use.md#ol-access-points-alias).
   + Los nombres de los buckets no deben terminar con el sufijo `.mrap`. Este sufijo está reservado para nombres de punto de acceso multirregionales. Para obtener más información, consulte [Reglas para asignar nombres a los puntos de acceso de varias regiones de Amazon S3](multi-region-access-point-naming.md).

   Se añade automáticamente un sufijo al nombre base que proporciona cuando crea un bucket de directorio utilizando la consola. Este sufijo incluye el ID de zona de disponibilidad de la que haya elegido.

   Una vez que haya creado el bucket, no podrá modificar su nombre. Para obtener más información sobre la nomenclatura de los buckets, consulte [Reglas de nomenclatura de buckets de uso general](bucketnamingrules.md). 
**importante**  
No incluya información confidencial, como números de cuenta, en el nombre del bucket. El nombre del bucket será visible en las URL que señalan a los objetos almacenados en él.

1. En **Propiedad del objeto**, la opción **Aplicada al propietario del bucket** se activa de forma automática y se desactivan todas las listas de control de acceso (ACL). En el caso de los buckets de directorio, las ACL no se pueden habilitar. 

    **Propietario del bucket obligatorio (predeterminado)**: las ACL están desactivadas y el propietario del bucket tiene automáticamente la propiedad y el control total sobre cada objeto del bucket de uso general. Las ACL ya no afectan a los permisos de acceso de los datos del bucket de uso general de S3. El bucket utiliza políticas exclusivamente para definir el control de acceso.

1. En **Configuración de bloqueo de acceso público para este bucket**, tenga en cuenta que la configuración Bloquear acceso público para su bucket de directorio se habilita automáticamente. Esta configuración no se puede modificar para los bucket de directorio. Para obtener más información acerca del bloqueo del acceso público, consulte [Bloquear el acceso público a su almacenamiento de Amazon S3](access-control-block-public-access.md).

1. Para configurar el cifrado predeterminado, en **Tipo de cifrado**, elija una de las siguientes opciones: 
   + **Cifrado del servidor con clave administrada por Amazon S3 (SSE-S3)**
   + **Cifrado del servidor con clave de AWS Key Management Service (SSE-KMS)**

   Para obtener más información sobre el uso del cifrado del lado del servidor de Amazon S3 para cifrar los datos, consulte [Protección y cifrado de datos](s3-express-data-protection.md).
**importante**  
Si utiliza la opción de SSE-KMS para la configuración de cifrado predeterminado, se le aplicará la cuota de solicitudes por segundo (RPS) de AWS KMS. Para obtener más información acerca de las cuotas de AWS KMS y cómo solicitar un aumento de cuota, consulte [Cuotas](https://docs.aws.amazon.com/kms/latest/developerguide/limits.html) en la *Guía para desarrolladores de AWS Key Management Service*.  
Cuando habilite el cifrado predeterminado, es posible que deba actualizar la política de bucket. Para obtener más información, consulte [Uso del cifrado SSE-KMS para operaciones entre cuentas](bucket-encryption.md#bucket-encryption-update-bucket-policy).

1. Si ha elegido **Cifrado del servidor con claves administradas por Amazon S3 (SSE-S3)**, en **Clave de bucket**, aparece **Habilitado**. Las claves de bucket de S3 siempre están habilitadas cuando configura el bucket de directorio para usar el cifrado predeterminado con SSE-S3. Las claves de bucket de S3 siempre están habilitadas para las operaciones `GET` y `PUT` en un bucket de directorio y no se pueden desactivar. Las claves de bucket de S3 no son compatibles, cuando se copian objetos cifrados con SSE-KMS de buckets de uso general a buckets de directorio, de buckets de directorio a buckets de uso general o entre buckets de directorio, mediante la operación [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html), [Copy](directory-buckets-objects-Batch-Ops.md) en operaciones por lotes o [los trabajos de import](create-import-job.md). En ese caso, Amazon S3 realiza una llamada a AWS KMS cada vez que se realiza una solicitud de copia para un objeto cifrado con KMS.

   Las claves de bucket de S3 reducen el costo del cifrado al reducir el tráfico de solicitudes de Amazon S3 a AWS KMS. Para obtener más información, consulte [Reducción del costo de SSE-KMS con las claves de bucket de Amazon S3](bucket-key.md).

1. Si ha elegido **Cifrado del servidor con clave de AWS Key Management Service (SSE-KMS)**, en **Clave de AWS KMS**, especifique la clave de AWS Key Management Service de una de las siguientes maneras o cree una nueva clave.
   + Para elegir de una lista de claves de KMS disponibles, seleccione **Elija entre sus AWS KMS keys** y elija la **Clave de KMS** en **AWS KMS keys disponibles**.

     En esta lista solo aparecen las claves administradas por el cliente. La Clave administrada de AWS (`aws/s3`) no es compatible con los buckets de directorio. Para obtener más información acerca de las claves administradas por el cliente, consulte [Claves de cliente y claves de AWS](https://docs.aws.amazon.com//kms/latest/developerguide/concepts.html#key-mgmt) en la *Guía para desarrolladores de AWS Key Management Service*.
   + Para introducir el ARN o alias de la clave de KMS, elija **Introducir ARN de AWS KMS key** e introduzca el ARN o alias de la clave de KMS en **ARN de AWS KMS key**. 
   + Para crear una nueva clave administrada por el cliente en la consola de AWS KMS, elija **Crear una clave de KMS**.

     Para obtener más información acerca de cómo crear una AWS KMS key, consulte [Creación de claves](https://docs.aws.amazon.com//kms/latest/developerguide/create-keys.html) en la *AWS Key Management Service Guía para desarrolladores*.
**importante**  
La configuración de SSE-KMS solo admite 1 [clave administrada por el cliente](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#customer-cmk) por bucket de directorio durante la vida útil del bucket. La [https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#aws-managed-cmk](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#aws-managed-cmk) (`aws/s3`) no es compatible. Además, después de especificar una clave administrada por el cliente para SSE-KMS, no puede invalidar la clave administrada por el cliente para la configuración de SSE-KMS del bucket.  
Puede identificar la clave administrada por el cliente que especificó para la configuración de SSE-KMS del bucket, de la siguiente manera:  
Realice una solicitud de operación de API de `HeadObject` para encontrar el valor de `x-amz-server-side-encryption-aws-kms-key-id` en la respuesta.
Para usar una nueva clave administrada por el cliente para los datos, le recomendamos copiar los objetos existentes en un nuevo bucket de directorio con una nueva clave administrada por el cliente.
Solo puede utilizar las claves de KMS que estén disponibles en la misma Región de AWS del bucket. La consola de Amazon S3 solo muestra las primeras 100 claves de KMS de la misma región del bucket. Para utilizar una clave de KMS que no aparezca en la lista, debe introducir el ARN de la clave de KMS. Si desea utilizar una clave de KMS propiedad de una cuenta de diferente, primero debe tener permiso para utilizar la clave y, después, debe introducir el ARN de la clave de KMS. Para obtener más información sobre los permisos entre cuentas para las claves de KMS, consulte [Crear claves de KMS que otras cuentas puedan utilizar](https://docs.aws.amazon.com//kms/latest/developerguide/key-policy-modifying-external-accounts.html#cross-account-console) en la *Guía para desarrolladores de AWS Key Management Service*. Para obtener más información sobre SSE-KMS, consulte [Especificación del cifrado del servidor con AWS KMS (SSE-KMS) para la carga de nuevos objetos en buckets de directorio](s3-express-specifying-kms-encryption.md).
Cuando utilice una AWS KMS key para el cifrado del servidor en buckets de directorio, debe elegir una clave de KMS de cifrado simétrico. Amazon S3 admite solo claves de KMS de cifrado simétricas y no claves de KMS asimétricas. Para obtener más información, consulte [Identificación de claves de KMS simétricas y asimétricas](https://docs.aws.amazon.com//kms/latest/developerguide/find-symm-asymm.html) en la *Guía para desarrolladores de AWS Key Management Service*.

   Para obtener más información acerca del uso de AWS KMS con Amazon S3, consulte [Uso del cifrado del servidor con claves de AWS KMS (SSE-KMS) en buckets de directorio](s3-express-UsingKMSEncryption.md).

1. Elija **Crear bucket**. Después de crear el bucket, puede añadir archivos y carpetas al bucket. Para obtener más información, consulte [Uso de objetos en un bucket de directorio](directory-buckets-objects.md).

# Paso 3: importar datos a un bucket de directorio de S3 Express One Zone
<a name="s3-express-tutorial-Import"></a>

Para completar este paso, debe tener un bucket de uso general que contenga objetos y que esté ubicado en la misma Región de AWS que su bucket de directorio.

Tras crear un bucket de directorio en Amazon S3, puede rellenar el nuevo bucket con datos mediante la acción de importación de la consola de Amazon S3. La importación simplifica la copia de datos en los buckets de directorio, ya que permite elegir un prefijo o un bucket de uso general desde el que importar los datos sin tener que especificar todos los objetos que se van a copiar de forma individual. La importación utiliza Operaciones por lotes de Amazon S3, que copia los objetos en el prefijo seleccionado o en el bucket de uso general. Puede supervisar el progreso del trabajo de importación de copias a través de la página de detalles del trabajo de Operaciones por lotes de Amazon S3. 

**Uso de la acción de importación**

1. Inicie sesión en la Consola de administración de AWS y abra la consola de Amazon S3 en [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. En la barra de navegación de la parte superior de la página, elija el nombre de la Región de AWS que aparece. A continuación, elija la región asociada a la zona de disponibilidad en la que se encuentra su bucket de directorio. 

1. En el panel de navegación izquierdo, elija **Buckets de directorio**.

1. Seleccione el botón de opción junto al nombre del bucket al que desea importar objetos.

1. Seleccione **Importar**.

1. En **Origen**, introduzca el bucket de uso general (o la ruta del bucket, incluido el prefijo) que contiene los objetos que desea importar. Para elegir un bucket de uso general existente de una lista, seleccione **Examinar S3**.

1.  En la sección **Permisos**, puede elegir que un rol de IAM se genere automáticamente. También puede seleccionar un rol de IAM de una lista o introducir directamente un ARN de rol de IAM. 
   + Para que Amazon S3 pueda crear un nuevo rol de IAM en su nombre, seleccione **Crear un nuevo rol de IAM**.
**nota**  
Si los objetos de origen se cifran en el servidor con claves de AWS Key Management Service (AWS KMS) (SSE-KMS), no elija la opción **Crear un nuevo rol de IAM**. En su lugar, especifique un rol de IAM existente que tenga el permiso `kms:Decrypt`.  
Amazon S3 utilizará este permiso para descifrar sus objetos. Durante el proceso de importación, Amazon S3 volverá a cifrar esos objetos mediante un cifrado del servidor con claves administradas de Amazon S3 (SSE-S3).
   + Para elegir un rol de IAM existente de una lista, seleccione **Elegir entre los roles de IAM existentes**.
   + Para especificar un rol de IAM existente con su nombre de recurso de Amazon (ARN), seleccione **Introducir ARN del rol de IAM** y, a continuación, introduzca el ARN en el campo correspondiente.

1. Revise la información que aparece en las secciones **Destino** y **Configuración de objetos copiada**. Si la información de la sección **Destino** es correcta, seleccione **Importar** para iniciar el trabajo de copia.

   La consola de Amazon S3 muestra el estado del nuevo trabajo en la página **Operaciones por lotes**. Para obtener más información sobre el trabajo, pulse el botón de opción junto al nombre del trabajo y, a continuación, en el menú **Acciones**, seleccione **Ver detalles**. Para abrir el bucket de directorio al que se importarán los objetos, seleccione **Ver destino de la importación**.

# Paso 4: cargar manualmente objetos al bucket de directorio de S3 Express One Zone
<a name="s3-express-tutorial-Upload"></a>

También puede cargar objetos de forma manual en el bucket de directorio.

**Carga manual de objetos**

1. Inicie sesión en la Consola de administración de AWS y abra la consola de Amazon S3 en [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. En la barra de navegación de la esquina superior derecha de la página, elija el nombre de la Región de AWS que se muestra actualmente. A continuación, elija la región asociada a la zona de disponibilidad en la que se encuentra su bucket de directorio. 

1. En el panel de navegación izquierdo, elija **Buckets de directorio**.

1. Elija el nombre del bucket en el que desea cargar sus carpetas o archivos. 
**nota**  
 Si eligió el mismo bucket de directorio que utilizó en los pasos anteriores de este tutorial, el bucket de directorio contendrá los objetos que se cargaron desde la herramienta de importación. Observe que estos objetos ahora están almacenados en la clase de almacenamiento S3 Express One Zone. 

1. En la pestaña **Objetos**, elija **Cargar**.

1. En la página **Cargar**, lleve a cabo alguna de las siguientes acciones: 
   + Arrastre y suelte archivos y carpetas en el área de carga punteada.
   + Elija **Agregar archivos** o **Agregar carpeta**, elija los archivos o carpetas que desee cargar y, a continuación, seleccione **Abrir** o **Cargar**.

1. En **Sumas de comprobación**, seleccione la **función de suma de comprobación** que desee usar. 
**nota**  
 Recomendamos utilizar CRC32 y CRC32C para obtener el mejor rendimiento con la clase de almacenamiento S3 Express One Zone. Para obtener más información, consulte [Prácticas recomendadas adicionales para la suma de comprobación de S3](https://docs.aws.amazon.com//AmazonS3/latest/userguide/s3-express-optimizing-performance-design-patterns.html#s3-express-optimizing--checksums.html). 

   (Opcional) Si va a cargar un único objeto de un tamaño inferior a 16 MB, también puede especificar un valor de suma de comprobación precalculado. Al proporcionar un valor precalculado, Amazon S3 lo compara con el valor que calcula mediante la función de suma de comprobación seleccionada. Si los valores no coinciden, la carga no se iniciará. 

1. Las opciones de las secciones **Permisos** y **Propiedades** se configuran automáticamente con la configuración predeterminada y no se pueden modificar. El bloqueo de acceso público se habilita automáticamente. El control de versiones de S3 y el bloqueo de objetos de S3 no se pueden habilitar en los buckets de directorio. 

   (Opcional) Si quiere agregar metadatos en pares clave-valor a sus objetos, expanda la sección **Propiedades** y, a continuación, en la sección **Metadatos**, elija **Agregar metadatos**.

1. Para cargar inmediatamente los archivos y carpetas indicados, elija **Cargar**.

   Amazon S3 carga sus objetos y carpetas. Cuando finalice la carga, puede ver un mensaje de éxito en la página **Cargar: estado**.

    Ha creado correctamente un bucket de directorio y ha cargado objetos en su bucket. 

# Paso 5: vaciar el bucket de directorio de S3 Express One Zone
<a name="s3-express-tutoiral-Empty"></a>

Puede vaciar su bucket de directorio de Amazon S3 con la consola de Amazon S3.

**Cómo vaciar un bucket de directorio**

1. Inicie sesión en la Consola de administración de AWS y abra la consola de Amazon S3 en [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. En la barra de navegación de la esquina superior derecha de la página, elija el nombre de la Región de AWS que se muestra actualmente. A continuación, elija la región asociada a la zona de disponibilidad en la que se encuentra su bucket de directorio. 

1. En el panel de navegación izquierdo, elija **Buckets de directorio**.

1. Elija el botón de opción junto al nombre del bucket que desea vaciar y, a continuación, **Vaciar**.

1. En la página **Vaciar bucket**, confirme que desea vaciar el bucket; para ello, ingrese **permanently delete** en el campo de texto y luego, elija **Vaciar**.

1. Supervise el progreso del proceso de vaciado del bucket en la página **Vaciar bucket: estado**.

# Paso 6: eliminar el bucket de directorio de S3 Express One Zone
<a name="s3-express-tutoiral-Delete"></a>

Después de vaciar el bucket de directorio y anular todas las cargas multiparte en curso, ya puede eliminar el bucket utilizando la consola de Amazon S3.

**Eliminación de un bucket de directorio**

1. Inicie sesión en la Consola de administración de AWS y abra la consola de Amazon S3 en [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. En la barra de navegación de la esquina superior derecha de la página, elija el nombre de la Región de AWS que se muestra actualmente. A continuación, elija la región asociada a la zona de disponibilidad en la que se encuentra su bucket de directorio. 

1. En el panel de navegación izquierdo, elija **Buckets de directorio**.

1. En la lista **Buckets de directorio**, elija el botón de opción junto al bucket que desea eliminar.

1. Elija **Eliminar**.

1. En la página **Eliminar bucket**, escriba el nombre del bucket en el campo de texto para confirmar la eliminación del bucket. 
**importante**  
La eliminación de un bucket de directorio no se puede revertir.

1. Para eliminar el bucket de directorio, elija **Eliminar bucket**.

## Siguientes pasos
<a name="s3-express-tutoiral-Next"></a>

En este tutorial, ha aprendido a crear un bucket de directorio y a utilizar la clase de almacenamiento S3 Express One Zone. Después de completar este tutorial, puede explorar los servicios relacionados de AWS que puede utilizar con la clase de almacenamiento S3 Express One Zone.

Puede utilizar los siguientes Servicios de AWS con la clase de almacenamiento S3 Express One Zone para admitir su caso de uso específico de baja latencia.
+ [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/ec2/index.html): Amazon EC2 proporciona capacidad de computación escalable y segura en la Nube de AWS. El uso de Amazon EC2 reduce la necesidad de invertir inicialmente en hardware, de manera que puede desarrollar e implementar aplicaciones en menos tiempo. Puede usar Amazon EC2 para lanzar tantos servidores virtuales como necesite, configurar la seguridad y las redes, y administrar el almacenamiento.
+ [AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/welcome.html.html) – Lambda es un servicio informático que permite ejecutar código sin aprovisionar ni administrar servidores. Puede configurar las opciones de notificación en un bucket y conceder a Amazon S3 permiso para invocar una función en la política de permisos basada en recursos de la función. 
+ [Amazon Elastic Kubernetes Service (Amazon EKS)](https://docs.aws.amazon.com/eks/latest/userguide/what-is-eks.html): Amazon EKS es un servicio administrado que elimina la necesidad de instalar, operar y mantener su propio plano de control de Kubernetes en AWS. [https://kubernetes.io/docs/concepts/overview/](https://kubernetes.io/docs/concepts/overview/) es un sistema de código abierto que automatiza la administración, el escalado y la implementación de aplicaciones en contenedores.
+ [Amazon Elastic Container Service (Amazon ECS)](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/Welcome.html): Amazon ECS es un servicio de orquestación de contenedores completamente administrado que facilita la implementación, la administración y el escalado de aplicaciones en contenedores.
+ [Amazon EMR](https://docs.aws.amazon.com//emr/latest/ManagementGuide/emr-express-one-zone.html): Amazon EMR es una plataforma de clúster administrada que simplifica la ejecución de los marcos de macrodatos, tales como Apache Hadoop y Apache Spark, en AWS para procesar y analizar grandes cantidades de datos. 
+ [Amazon Athena](https://docs.aws.amazon.com//athena/latest/ug/querying-express-one-zone.html): Athena es un servicio de consultas interactivo que facilita el análisis de datos directamente en Amazon S3 con [SQL](https://docs.aws.amazon.com/athena/latest/ug/ddl-sql-reference.html) estándar. También puede usar Athena para ejecutar análisis de datos de forma interactiva mediante Apache Spark sin tener que planificar, configurar ni administrar los recursos. Cuando ejecuta aplicaciones de Apache Spark en Athena, envía el código de Spark para su procesamiento y recibe los resultados directamente.
+ [Catálogo de datos de AWS Glue](https://docs.aws.amazon.com//glue/latest/dg/catalog-and-crawler.html): AWS Glue es un servicio de integración de datos sin servidor que hace más fácil a los usuarios de análisis descubrir, preparar, trasladar e integrar datos desde varios orígenes. Puede utilizar AWS Glue para análisis, machine learning y desarrollo de aplicaciones. AWS Catálogo de datos de AWS Glue es un repositorio centralizado que almacena metadatos sobre los conjuntos de datos de su organización. Actúa como un índice para las métricas de tiempo de ejecución, esquema y ubicación de sus orígenes de datos. 
+ [Entrenamiento del modelo de tiempo de ejecución de Amazon SageMaker](https://docs.aws.amazon.com//sagemaker/latest/dg/model-access-training-data.html): el tiempo de ejecución de Amazon SageMaker es un servicio de machine learning completamente administrado. El tiempo de ejecución de SageMaker permite a los desarrolladores y a los analistas de datos crear y entrenar modelos de machine learning de forma rápida y sencilla y, a continuación, implementarlos directamente en un entorno alojado listo para producción.

 Para obtener más información sobre S3 Express One Zone, consulte [¿Qué es S3 Express One Zone?](https://docs.aws.amazon.com//AmazonS3/latest/userguide/s3-express-one-zone.html) y [¿En qué se diferencia S3 Express One Zone?](https://docs.aws.amazon.com//AmazonS3/latest/userguide/s3-express-differences.html)

# Zonas y regiones de disponibilidad de S3 Express One Zone
<a name="s3-express-Endpoints"></a>

Una zona de disponibilidad consiste en uno o varios centros de datos discretos con alimentación, redes y conectividad redundantes en una Región de AWS. Para optimizar las recuperaciones de baja latencia, los objetos de la clase de almacenamiento Amazon S3 Express One Zone se almacenan de forma redundante en buckets de directorio de S3 en una única zona de disponibilidad local para su carga de trabajo informática. Al crear un bucket de directorio, debe elegir la zona de disponibilidad y la Región de AWS donde se colocará el bucket. 

AWS asigna las zonas de disponibilidad física aleatoriamente a los nombres de las zonas de disponibilidad de cada Cuenta de AWS. Este enfoque facilita la distribución de los recursos entre las zonas de disponibilidad de una Región de AWS, para reducir la probabilidad de que los recursos se concentren en la primera zona de disponibilidad de cada región. Como resultado, es posible que la zona de disponibilidad `us-east-1a` de su Cuenta de AWS no se refiera a la misma ubicación física que `us-east-1a` de otra Cuenta de AWS. Para obtener más información, consulte [Regiones y zonas de disponibilidad](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-regions-availability-zones.html) en la *Guía del usuario de Amazon EC2*.

Para coordinar las zonas de disponibilidad entre cuentas, debe usar el *ID de AZ*, que es un identificador único y constante de una zona de disponibilidad. Por ejemplo, `use1-az1` es un ID de zona de disponibilidad de la región `us-east-1` y tiene la misma ubicación física en cada Cuenta de AWS. En la siguiente ilustración se muestra cómo los ID de zona de disponibilidad son los mismos para todas las cuentas, a pesar de los nombres de las zonas de disponibilidad pueden asignarse de forma diferente para cada cuenta.

![\[Ilustración que muestra el mapeo de zonas de disponibilidad y regiones.\]](http://docs.aws.amazon.com/es_es/AmazonS3/latest/userguide/images/availability-zone-mapping.png)


Con S3 Express One Zone, sus datos se almacenan de forma redundante en varios dispositivos dentro de una única zona de disponibilidad. S3 Express One Zone está diseñado para ofrecer una disponibilidad del 99,95 % dentro de una única zona de disponibilidad y está respaldado por el [contrato de nivel de servicio de Amazon S3](https://aws.amazon.com/s3/sla/). Para obtener más información, consulte [Zonas de disponibilidad](directory-bucket-high-performance.md#s3-express-overview-az)

 La siguiente tabla muestra las regiones y zonas de disponibilidad admitidas de S3 Express One Zone. 

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/AmazonS3/latest/userguide/s3-express-Endpoints.html)

# Redes para buckets de directorio en una zona de disponibilidad
<a name="directory-bucket-az-networking"></a>

Para reducir el tiempo que los paquetes pasan en la red, configure la nube privada virtual (VPC) con un punto de conexión de puerta de enlace para acceder a buckets de directorio en zonas de disponibilidad y, al mismo tiempo, mantener el tráfico en la red de AWS y sin costo adicional.

**Topics**
+ [Puntos de conexión para buckets de directorio en zonas de disponibilidad](#s3-express-endpoints-az)
+ [Configuración de puntos de conexión de puerta de enlace de VPC](#s3-express-networking-vpc-gateway)

## Puntos de conexión para buckets de directorio en zonas de disponibilidad
<a name="s3-express-endpoints-az"></a>

En la siguiente tabla se muestran los puntos de conexión de las API regionales y zonales que están disponibles para cada región y zona de disponibilidad.


| Nombre de la región | Región | ID de zona de disponibilidad | Punto de conexión regional | Punto de conexión zonal | 
| --- | --- | --- | --- | --- | 
|  Este de EE. UU. (Norte de Virginia)  |  `us-east-1`  |  `use1-az4` `use1-az5` `use1-az6`  |  `s3express-control.us-east-1.amazonaws.com` `s3express-control-dualstack.us-east-1.amazonaws.com `  |  `s3express-use1-az4.us-east-1.amazonaws.com` `s3express-use1-az4.dualstack.us-east-1.amazonaws.com` `s3express-use1-az5.us-east-1.amazonaws.com` `s3express-use1-az5.dualstack.us-east-1.amazonaws.com` `s3express-use1-az6.us-east-1.amazonaws.com` `s3express-use1-az6.dualstack.us-east-1.amazonaws.com`  | 
|  Este de EE. UU. (Ohio)  |  `us-east-2`  |  `use2-az1` `use2-az2`  |  `s3express-control.us-east-2.amazonaws.com` `s3express-control-dualstack.us-east-2.amazonaws.com`  |  `s3express-use2-az1.us-east-2.amazonaws.com` `s3express-use2-az1.dualstack.us-east-2.amazonaws.com` `s3express-use2-az2.us-east-2.amazonaws.com` `s3express-use2-az2.dualstack.us-east-2.amazonaws.com`  | 
|  Oeste de EE. UU. (Oregón)  |  `us-west-2`  |  `usw2-az1` `usw2-az3` `usw2-az4`  |  `s3express-control.us-west-2.amazonaws.com` `s3express-control-dualstack.us-west-2.amazonaws.com`  |  `s3express-usw2-az1.us-west-2.amazonaws.com` `s3express-usw2-az1.dualstack.us-west-2.amazonaws.com` `s3express-usw2-az3.us-west-2.amazonaws.com` `s3express-usw2-az3.dualstack.us-west-2.amazonaws.com` `s3express-usw2-az4.us-west-2.amazonaws.com` `s3express-usw2-az4.dualstack.us-west-2.amazonaws.com`  | 
|  Asia-Pacífico (Mumbai)  |  `ap-south-1`  |  `aps1-az1` `aps1-az3`  |  `s3express-control.ap-south-1.amazonaws.com` `s3express-control-dualstack.ap-south-1.amazonaws.com`  |  `s3express-aps1-az1.ap-south-1.amazonaws.com` `s3express-aps1-az1.dualstack.ap-south-1.amazonaws.com` `s3express-aps1-az3.ap-south-1.amazonaws.com` `s3express-aps1-az3.dualstack.ap-south-1.amazonaws.com`  | 
|  Asia-Pacífico (Tokio)  |  `ap-northeast-1`  |  `apne1-az1` `apne1-az4`  |  `s3express-control.ap-northeast-1.amazonaws.com` `s3express-control-dualstack.ap-northeast-1.amazonaws.com`  |  `s3express-apne1-az1.ap-northeast-1.amazonaws.com` `s3express-apne1-az1.dualstack.ap-northeast-1.amazonaws.com` `s3express-apne1-az4.ap-northeast-1.amazonaws.com` `s3express-apne1-az4.dualstack.ap-northeast-1.amazonaws.com`  | 
|  Europa (Irlanda)  |  `eu-west-1`  |  `euw1-az1` `euw1-az3`  |  `s3express-control.eu-west-1.amazonaws.com` `s3express-control-dualstack.eu-west-1.amazonaws.com`  |  `s3express-euw1-az1.eu-west-1.amazonaws.com` `s3express-euw1-az1.dualstack.eu-west-1.amazonaws.com` `s3express-euw1-az3.eu-west-1.amazonaws.com` `s3express-euw1-az3.dualstack.eu-west-1.amazonaws.com`  | 
|  Europa (Estocolmo)  |  `eu-north-1`  |  `eun1-az1` `eun1-az2` `eun1-az3`  |  `s3express-control.eu-north-1.amazonaws.com` `s3express-control-dualstack.eu-north-1.amazonaws.com`  |  `s3express-eun1-az1.eu-north-1.amazonaws.com` `s3express-eun1-az1.dualstack.eu-north-1.amazonaws.com` `s3express-eun1-az2.eu-north-1.amazonaws.com` `s3express-eun1-az2.dualstack.eu-north-1.amazonaws.com` `s3express-eun1-az3.eu-north-1.amazonaws.com` `s3express-eun1-az3.dualstack.eu-north-1.amazonaws.com`  | 

## Configuración de puntos de conexión de puerta de enlace de VPC
<a name="s3-express-networking-vpc-gateway"></a>

Utilice el siguiente procedimiento para crear un punto de conexión de una puerta de enlace que se conecte a buckets de directorio y objetos de clase de almacenamiento de Amazon S3 Express One Zone.

**Para configurar un punto de conexión de VPC de puerta de enlace**

1. Abra la [Consola de Amazon VPC](https://console.aws.amazon.com/vpc/). 

1. En el panel de navegación, elija **Puntos de conexión**.

1. Elija **Crear punto de conexión**.

1. Cree un nombre para el punto de conexión.

1. En **Categoría de servicios**, elija **Servicios de AWS**. 

1. En **Servicios**, añada el filtro **Type=Gateway** y luego seleccione el botón de opción situado junto a **com.amazonaws.*region*.s3express**. 

1. En **VPC**, elija la VPC en la que desea crear el punto de conexión.

1. Para **Tablas de enrutamiento**, elija la tabla de enrutamiento de la VPC que utilizará el punto de conexión. Una vez creado el punto de conexión, se agregará un registro de ruta a la tabla de enrutamiento que seleccione en este paso.

1. En **Política**, elija **Acceso completo** para permitir todas las operaciones de todas las entidades principales en todos los recursos del punto de conexión de VPC. De lo contrario, elija **Personalizar** para adjuntar una política de punto de conexión de VPC que controle los permisos de las entidades principales para realizar acciones en los recursos a través del punto de conexión de VPC.

1. En **Tipo de dirección IP**, elija entre las siguientes opciones:
   +  **IPv4**: se asignan direcciones IPv4 a las interfaces de red del punto de conexión. Esta opción solo se admite si todas las subredes seleccionadas tienen rangos de direcciones IPv4 y el servicio acepta solicitudes IPv4. 
   +  **IPv6**: se asignan direcciones IPv6 a las interfaces de red del punto de conexión. Esta opción solo se admite si todas las subredes seleccionadas son solo subredes IPv6 y el servicio acepta solicitudes IPv6.
   +  **Doble pila**: se asignan direcciones IPv4 e IPv6 a las interfaces de red del punto de conexión. Esta opción solo se admite si todas las subredes seleccionadas tienen rangos de direcciones IPv4 e IPv6 y el servicio acepta solicitudes IPv4 e IPV6.

1. (Opcional) Para añadir una etiqueta, elija **Agregar etiqueta nueva** e ingrese la clave y el valor de la etiqueta.

1. Seleccione **Crear punto de conexión**.

Tras crear un punto de conexión de puerta de enlace, puede utilizar los puntos de conexión de API regionales y los puntos de conexión de API zonales para acceder a buckets de directorio y objetos de clase de almacenamiento Amazon S3 Express One Zone.

Para obtener más información sobre los puntos de conexión de VPC de puerta de enlace, consulte [Puntos de conexión de puerta de enlace](https://docs.aws.amazon.com/vpc/latest/privatelink/gateway-endpoints.html) en la *Guía de AWS PrivateLink*. Para los casos de uso de residencia de datos, recomendamos habilitar el acceso a los buckets solo desde la VPC mediante puntos de conexión de VPC de puerta de enlace. Cuando el acceso está restringido a una VPC o un punto de conexión de VPC, puede acceder a los objetos a través de la Consola de administración de AWS, la API de REST, la AWS CLI y los SDK de AWS.

**nota**  
Para restringir el acceso a una VPC o un punto de conexión de VPC mediante la Consola de administración de AWS, debe utilizar el acceso privado a la Consola de administración de AWS. Para obtener más información, consulte [Acceso privado a la Consola de administración de AWS](https://docs.aws.amazon.com/awsconsolehelpdocs/latest/gsg/console-private-access.html) en la *Guía de la Consola de administración de AWS*Guía de la Consola de administración de AWS.

# Creación de buckets de directorio en una zona de disponibilidad
<a name="directory-bucket-create"></a>

Para empezar a utilizar la clase de almacenamiento Amazon S3 Express One Zone, debe crear un bucket de directorio. La clase de almacenamiento S3 Express One Zone solo se puede usar con buckets de directorio. La clase de almacenamiento S3 Express One Zone admite casos de uso de baja latencia y proporciona un procesamiento de datos más rápido dentro de una única zona de disponibilidad. Si su aplicación es sensible al rendimiento y se beneficia de latencias `PUT` y `GET` de milisegundos de un solo dígito, le recomendamos que cree un bucket de directorio para poder utilizar la clase de almacenamiento S3 Express One Zone.

Existen dos tipos de buckets de Amazon S3: buckets de uso general y buckets de directorio. Debe elegir el tipo de bucket que mejor se adapte a sus requisitos de rendimiento y aplicación. Los buckets de uso general son del tipo de bucket de S3 original. Se recomienda usar los buckets de uso general para la mayoría de los casos de uso y patrones de acceso, pues permiten almacenar objetos en todas las clases de almacenamiento, excepto en S3 Express One Zone. Para obtener más información acerca de los buckets de uso general, consulte [Información general de los buckets de uso general](UsingBucket.md).

Los buckets de directorio utilizan la clase de almacenamiento S3 Express One Zone, que está diseñada para utilizarse en cargas de trabajo o aplicaciones fundamentales para el rendimiento que requieren una latencia uniforme en milisegundos de un solo dígito. S3 Express One Zone es la primera clase de almacenamiento de S3 en la que se puede seleccionar una única zona de disponibilidad con la opción de coubicar su almacenamiento de objetos junto con sus recursos informáticos, lo que brinda la mayor velocidad de acceso posible. Al crear un bucket de directorio, si lo desea, puede especificar una Región de AWS y una zona de disponibilidad local para sus instancias de computación de Amazon EC2, Amazon Elastic Kubernetes Service o Amazon Elastic Container Service (Amazon ECS) a fin de optimizar el rendimiento.

Con S3 Express One Zone, sus datos se almacenan de forma redundante en varios dispositivos dentro de una única zona de disponibilidad. S3 Express One Zone está diseñado para ofrecer una disponibilidad del 99,95 % dentro de una única zona de disponibilidad y está respaldado por el [contrato de nivel de servicio de Amazon S3](https://aws.amazon.com/s3/sla/). Para obtener más información, consulte [Zonas de disponibilidad](directory-bucket-high-performance.md#s3-express-overview-az)

Los buckets de directorio organizan los datos jerárquicamente en directorios, a diferencia de la estructura de almacenamiento plana de los buckets de uso general. No hay límites de prefijos para los buckets de directorio y los directorios individuales pueden realizar un escalado horizontal. 

Para obtener más información acerca de estos buckets de directorio, consulte [Trabajar con buckets de de directorio](directory-buckets-overview.md).

**Nombres de los buckets de directorio**  
Los nombres de los buckets de directorio deben seguir este formato y cumplir con las reglas de denominación de los buckets de directorio:

```
bucket-base-name--zone-id--x-s3
```

Por ejemplo, el siguiente nombre del bucket de directorio contiene el ID de zona de disponibilidad `usw2-az1`:

```
bucket-base-name--usw2-az1--x-s3
```

Para obtener más información acerca de las reglas de nomenclatura de los bucket de directorio, consulte [Reglas de nomenclatura de buckets de directorio](directory-bucket-naming-rules.md).

## Uso de la consola de S3
<a name="create-directory-bucket-console"></a>

1. Inicie sesión en la Consola de administración de AWS y abra la consola de Amazon S3 en [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. En la barra de navegación de la parte superior de la página, elija el nombre de la Región de AWS que aparece. A continuación, en Región, elija la región en la que desea crear un bucket. 
**nota**  
Puede seleccionar una región cercana para minimizar la latencia y los costos, así como para satisfacer los requisitos normativos. Los objetos almacenados en una región nunca abandonarán esa región salvo que usted los transfiera de forma específica a otra. Para una lista de Regiones de AWS de Amazon S3, consulte [Puntos de conexión de Servicio de AWS](https://docs.aws.amazon.com/general/latest/gr/rande.html#s3_region) en la *Referencia general de Amazon Web Services*.

1. En el panel de navegación izquierdo, elija **Buckets de directorio**.

1. Elija **Crear bucket**. Se abrirá la página **Crear bucket**.

1. En **Configuración general**, vea la Región de AWS donde se creará el bucket. 

   En **Bucket type (Tipo de bucket)**, elija **Directory (Directorio)**.
**nota**  
Si ha elegido una región que no admite buckets de directorio, la opción **Tipo de bucket** desaparece y el tipo de bucket pasa a ser un bucket de uso general de forma predeterminada. Para crear un bucket de directorio, debe elegir una región compatible. Para obtener una lista de las regiones que admiten buckets de directorio y la clase de almacenamiento Amazon S3 Express One Zone, consulte [Zonas y regiones de disponibilidad de S3 Express One Zone](s3-express-Endpoints.md).
No se puede cambiar el tipo de bucket después de haberlo creado.
**nota**  
La zona de disponibilidad no se puede cambiar una vez creado el bucket. 

1. En **Zona de disponibilidad**, elija una zona de disponibilidad local para sus servicios de computación. Para obtener una lista de las zonas de disponibilidad que admiten buckets de directorio y la clase de almacenamiento S3 Express One Zone, consulte [Zonas y regiones de disponibilidad de S3 Express One Zone](s3-express-Endpoints.md). 

   En **Zona de disponibilidad**, seleccione la casilla para confirmar que, en caso de que se produzca una interrupción de la zona de disponibilidad, es posible que los datos no estén disponibles o se pierdan. 
**importante**  
Los buckets de directorio se almacenan en varios dispositivos dentro de una única zona de disponibilidad, pero no almacenan datos de forma redundante en todas las zonas de disponibilidad.

1. En **Nombre del bucket**, escriba un nombre para el bucket de directorio.

   Las siguientes reglas de nomenclatura se aplican a los buckets de directorio.
   + Ser únicos en la zona elegida (zona de disponibilidad de AWS o zona local de AWS). 
   + El nombre debe tener entre 3 (mín.) y 63 caracteres (máx.), incluido el sufijo.
   + Constar de letras minúsculas, números y guiones (-).
   + Comenzar y terminar por un número o una letra. 
   + Debe incluir el siguiente sufijo: `--zone-id--x-s3`.
   + Los nombres de los buckets no deben comenzar con el prefijo `xn--`.
   + Los nombres de los buckets no deben comenzar con el prefijo `sthree-`.
   + Los nombres de los buckets no deben comenzar con el prefijo `sthree-configurator`.
   + Los nombres de los buckets no deben comenzar con el prefijo ` amzn-s3-demo-`.
   + Los nombres de los buckets no deben terminar con el sufijo `-s3alias`. Este sufijo está reservado para nombres de alias de punto de acceso. Para obtener más información, consulte [Alias de punto de acceso](access-points-naming.md#access-points-alias).
   + Los nombres de los buckets no deben terminar con el sufijo `--ol-s3`. Este sufijo está reservado para nombres de alias de punto de acceso de Object Lambda. Para obtener más información, consulte [Cómo usar un alias de estilo de bucket para su punto de acceso de Object Lambda de bucket de S3](olap-use.md#ol-access-points-alias).
   + Los nombres de los buckets no deben terminar con el sufijo `.mrap`. Este sufijo está reservado para nombres de punto de acceso multirregionales. Para obtener más información, consulte [Reglas para asignar nombres a los puntos de acceso de varias regiones de Amazon S3](multi-region-access-point-naming.md).

   Se añade automáticamente un sufijo al nombre base que proporciona cuando crea un bucket de directorio utilizando la consola. Este sufijo incluye el ID de zona de disponibilidad de la que haya elegido.

   Una vez que haya creado el bucket, no podrá modificar su nombre. Para obtener más información sobre la nomenclatura de los buckets, consulte [Reglas de nomenclatura de buckets de uso general](bucketnamingrules.md). 
**importante**  
No incluya información confidencial, como números de cuenta, en el nombre del bucket. El nombre del bucket será visible en las URL que señalan a los objetos almacenados en él.

1. En **Propiedad del objeto**, la opción **Aplicada al propietario del bucket** se activa de forma automática y se desactivan todas las listas de control de acceso (ACL). En el caso de los buckets de directorio, las ACL no se pueden habilitar. 

    **Propietario del bucket obligatorio (predeterminado)**: las ACL están desactivadas y el propietario del bucket tiene automáticamente la propiedad y el control total sobre cada objeto del bucket de uso general. Las ACL ya no afectan a los permisos de acceso de los datos del bucket de uso general de S3. El bucket utiliza políticas exclusivamente para definir el control de acceso.

1. En **Configuración de bloqueo de acceso público para este bucket**, tenga en cuenta que la configuración Bloquear acceso público para su bucket de directorio se habilita automáticamente. Esta configuración no se puede modificar para los bucket de directorio. Para obtener más información acerca del bloqueo del acceso público, consulte [Bloquear el acceso público a su almacenamiento de Amazon S3](access-control-block-public-access.md).

1. Para configurar el cifrado predeterminado, en **Tipo de cifrado**, elija una de las siguientes opciones: 
   + **Cifrado del servidor con clave administrada por Amazon S3 (SSE-S3)**
   + **Cifrado del servidor con clave de AWS Key Management Service (SSE-KMS)**

   Para obtener más información sobre el uso del cifrado del lado del servidor de Amazon S3 para cifrar los datos, consulte [Protección y cifrado de datos](s3-express-data-protection.md).
**importante**  
Si utiliza la opción de SSE-KMS para la configuración de cifrado predeterminado, se le aplicará la cuota de solicitudes por segundo (RPS) de AWS KMS. Para obtener más información acerca de las cuotas de AWS KMS y cómo solicitar un aumento de cuota, consulte [Cuotas](https://docs.aws.amazon.com/kms/latest/developerguide/limits.html) en la *Guía para desarrolladores de AWS Key Management Service*.  
Cuando habilite el cifrado predeterminado, es posible que deba actualizar la política de bucket. Para obtener más información, consulte [Uso del cifrado SSE-KMS para operaciones entre cuentas](bucket-encryption.md#bucket-encryption-update-bucket-policy).

1. Si ha elegido **Cifrado del servidor con claves administradas por Amazon S3 (SSE-S3)**, en **Clave de bucket**, aparece **Habilitado**. Las claves de bucket de S3 siempre están habilitadas cuando configura el bucket de directorio para usar el cifrado predeterminado con SSE-S3. Las claves de bucket de S3 siempre están habilitadas para las operaciones `GET` y `PUT` en un bucket de directorio y no se pueden desactivar. Las claves de bucket de S3 no son compatibles, cuando se copian objetos cifrados con SSE-KMS de buckets de uso general a buckets de directorio, de buckets de directorio a buckets de uso general o entre buckets de directorio, mediante la operación [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html), [Copy](directory-buckets-objects-Batch-Ops.md) en operaciones por lotes o [los trabajos de import](create-import-job.md). En ese caso, Amazon S3 realiza una llamada a AWS KMS cada vez que se realiza una solicitud de copia para un objeto cifrado con KMS.

   Las claves de bucket de S3 reducen el costo del cifrado al reducir el tráfico de solicitudes de Amazon S3 a AWS KMS. Para obtener más información, consulte [Reducción del costo de SSE-KMS con las claves de bucket de Amazon S3](bucket-key.md).

1. Si ha elegido **Cifrado del servidor con clave de AWS Key Management Service (SSE-KMS)**, en **Clave de AWS KMS**, especifique la clave de AWS Key Management Service de una de las siguientes maneras o cree una nueva clave.
   + Para elegir de una lista de claves de KMS disponibles, seleccione **Elija entre sus AWS KMS keys** y elija la **Clave de KMS** en **AWS KMS keys disponibles**.

     En esta lista solo aparecen las claves administradas por el cliente. La Clave administrada de AWS (`aws/s3`) no es compatible con los buckets de directorio. Para obtener más información acerca de las claves administradas por el cliente, consulte [Claves de cliente y claves de AWS](https://docs.aws.amazon.com//kms/latest/developerguide/concepts.html#key-mgmt) en la *Guía para desarrolladores de AWS Key Management Service*.
   + Para introducir el ARN o alias de la clave de KMS, elija **Introducir ARN de AWS KMS key** e introduzca el ARN o alias de la clave de KMS en **ARN de AWS KMS key**. 
   + Para crear una nueva clave administrada por el cliente en la consola de AWS KMS, elija **Crear una clave de KMS**.

     Para obtener más información acerca de cómo crear una AWS KMS key, consulte [Creación de claves](https://docs.aws.amazon.com//kms/latest/developerguide/create-keys.html) en la *AWS Key Management Service Guía para desarrolladores*.
**importante**  
La configuración de SSE-KMS solo admite 1 [clave administrada por el cliente](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#customer-cmk) por bucket de directorio durante la vida útil del bucket. La [https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#aws-managed-cmk](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#aws-managed-cmk) (`aws/s3`) no es compatible. Además, después de especificar una clave administrada por el cliente para SSE-KMS, no puede invalidar la clave administrada por el cliente para la configuración de SSE-KMS del bucket.  
Puede identificar la clave administrada por el cliente que especificó para la configuración de SSE-KMS del bucket, de la siguiente manera:  
Realice una solicitud de operación de API de `HeadObject` para encontrar el valor de `x-amz-server-side-encryption-aws-kms-key-id` en la respuesta.
Para usar una nueva clave administrada por el cliente para los datos, le recomendamos copiar los objetos existentes en un nuevo bucket de directorio con una nueva clave administrada por el cliente.
Solo puede utilizar las claves de KMS que estén disponibles en la misma Región de AWS del bucket. La consola de Amazon S3 solo muestra las primeras 100 claves de KMS de la misma región del bucket. Para utilizar una clave de KMS que no aparezca en la lista, debe introducir el ARN de la clave de KMS. Si desea utilizar una clave de KMS propiedad de una cuenta de diferente, primero debe tener permiso para utilizar la clave y, después, debe introducir el ARN de la clave de KMS. Para obtener más información sobre los permisos entre cuentas para las claves de KMS, consulte [Crear claves de KMS que otras cuentas puedan utilizar](https://docs.aws.amazon.com//kms/latest/developerguide/key-policy-modifying-external-accounts.html#cross-account-console) en la *Guía para desarrolladores de AWS Key Management Service*. Para obtener más información sobre SSE-KMS, consulte [Especificación del cifrado del servidor con AWS KMS (SSE-KMS) para la carga de nuevos objetos en buckets de directorio](s3-express-specifying-kms-encryption.md).
Cuando utilice una AWS KMS key para el cifrado del servidor en buckets de directorio, debe elegir una clave de KMS de cifrado simétrico. Amazon S3 admite solo claves de KMS de cifrado simétricas y no claves de KMS asimétricas. Para obtener más información, consulte [Identificación de claves de KMS simétricas y asimétricas](https://docs.aws.amazon.com//kms/latest/developerguide/find-symm-asymm.html) en la *Guía para desarrolladores de AWS Key Management Service*.

   Para obtener más información acerca del uso de AWS KMS con Amazon S3, consulte [Uso del cifrado del servidor con claves de AWS KMS (SSE-KMS) en buckets de directorio](s3-express-UsingKMSEncryption.md).

1. Elija **Crear bucket**. Después de crear el bucket, puede añadir archivos y carpetas al bucket. Para obtener más información, consulte [Uso de objetos en un bucket de directorio](directory-buckets-objects.md).

## Uso de los AWS SDK
<a name="create-directory-bucket-sdks"></a>

------
#### [ SDK for Go ]

En este ejemplo se muestra cómo crear un bucket de directorio con el AWS SDK para Go. 

**Example**  

```
var bucket = "..."

func runCreateBucket(c *s3.Client) {
    resp, err := c.CreateBucket(context.Background(), &s3.CreateBucketInput{
        Bucket: &bucket,
        CreateBucketConfiguration: &types.CreateBucketConfiguration{
            Location: &types.LocationInfo{
                Name: aws.String("usw2-az1"),
                Type: types.LocationTypeAvailabilityZone,
            },  
            Bucket: &types.BucketInfo{
                DataRedundancy: types.DataRedundancySingleAvailabilityZone,
                Type:           types.BucketTypeDirectory,
            },  
        },  
    })  
    var terr *types.BucketAlreadyOwnedByYou
    if errors.As(err, &terr) {
        fmt.Printf("BucketAlreadyOwnedByYou: %s\n", aws.ToString(terr.Message))
        fmt.Printf("noop...\n")
        return
    }   
    if err != nil {
        log.Fatal(err)
    }   

    fmt.Printf("bucket created at %s\n", aws.ToString(resp.Location))
}
```

------
#### [ SDK for Java 2.x ]

En este ejemplo se muestra cómo crear un bucket de directorio con el AWS SDK for Java 2.x. 

**Example**  

```
public static void createBucket(S3Client s3Client, String bucketName) {

    //Bucket name format is {base-bucket-name}--{az-id}--x-s3
    //example: doc-example-bucket--usw2-az1--x-s3 is a valid name for a directory bucket created in
    //Region us-west-2, Availability Zone 2  

    CreateBucketConfiguration bucketConfiguration = CreateBucketConfiguration.builder()
             .location(LocationInfo.builder()
                     .type(LocationType.AVAILABILITY_ZONE)
                     .name("usw2-az1").build()) //this must match the Region and Availability Zone in your bucket name
             .bucket(BucketInfo.builder()
                    .type(BucketType.DIRECTORY)
                    .dataRedundancy(DataRedundancy.SINGLE_AVAILABILITY_ZONE)
                    .build()).build();
    try {
    
             CreateBucketRequest bucketRequest = CreateBucketRequest.builder().bucket(bucketName).createBucketConfiguration(bucketConfiguration).build();
             CreateBucketResponse response = s3Client.createBucket(bucketRequest);
             System.out.println(response);
    } 
    
    catch (S3Exception e) {
            System.err.println(e.awsErrorDetails().errorMessage());
            System.exit(1);
         }
    }
```

------
#### [ AWS SDK para JavaScript ]

En este ejemplo se muestra cómo crear un bucket de directorio con el AWS SDK para JavaScript. 

**Example**  

```
// file.mjs, run with Node.js v16 or higher
// To use with the preview build, place this in a folder 
// inside the preview build directory, such as /aws-sdk-js-v3/workspace/

import { S3 } from "@aws-sdk/client-s3";

const region = "us-east-1";
const zone = "use1-az4";
const suffix = `${zone}--x-s3`;

const s3 = new S3({ region });

const bucketName = `...--${suffix}`;

const createResponse = await s3.createBucket( 
    { Bucket: bucketName, 
      CreateBucketConfiguration: {Location: {Type: "AvailabilityZone", Name: zone},
      Bucket: { Type: "Directory", DataRedundancy: "SingleAvailabilityZone" }}
    } 
   );
```

------
#### [ SDK para .NET ]

En este ejemplo se muestra cómo crear un bucket de directorio con el SDK para .NET. 

**Example**  

```
using (var amazonS3Client = new AmazonS3Client())
{
    var putBucketResponse = await amazonS3Client.PutBucketAsync(new PutBucketRequest
    {

       BucketName = "DOC-EXAMPLE-BUCKET--usw2-az1--x-s3",
       PutBucketConfiguration = new PutBucketConfiguration
       {
         BucketInfo = new BucketInfo { DataRedundancy = DataRedundancy.SingleAvailabilityZone, Type = BucketType.Directory },
         Location = new LocationInfo { Name = "usw2-az1", Type = LocationType.AvailabilityZone }
       }
     }).ConfigureAwait(false);
}
```

------
#### [ SDK for PHP ]

En este ejemplo se muestra cómo crear un bucket de directorio con el AWS SDK for PHP. 

**Example**  

```
require 'vendor/autoload.php';

$s3Client = new S3Client([

    'region'      => 'us-east-1',
]);


$result = $s3Client->createBucket([
    'Bucket' => 'doc-example-bucket--use1-az4--x-s3',
    'CreateBucketConfiguration' => [
        'Location' => ['Name'=> 'use1-az4', 'Type'=> 'AvailabilityZone'],
        'Bucket' => ["DataRedundancy" => "SingleAvailabilityZone" ,"Type" => "Directory"]   ],
]);
```

------
#### [ SDK for Python ]

En este ejemplo se muestra cómo crear un bucket de directorio con el AWS SDK para Python (Boto3). 

**Example**  

```
import logging
import boto3
from botocore.exceptions import ClientError

def create_bucket(s3_client, bucket_name, availability_zone):
    '''
    Create a directory bucket in a specified Availability Zone

    :param s3_client: boto3 S3 client
    :param bucket_name: Bucket to create; for example, 'doc-example-bucket--usw2-az1--x-s3'
    :param availability_zone: String; Availability Zone ID to create the bucket in, for example, 'usw2-az1'
    :return: True if bucket is created, else False
    '''

    try:
        bucket_config = {
                'Location': {
                    'Type': 'AvailabilityZone',
                    'Name': availability_zone
                },
                'Bucket': {
                    'Type': 'Directory', 
                    'DataRedundancy': 'SingleAvailabilityZone'
                }
            }
        s3_client.create_bucket(
            Bucket = bucket_name,
            CreateBucketConfiguration = bucket_config
        )
    except ClientError as e:
        logging.error(e)
        return False
    return True


if __name__ == '__main__':
    bucket_name = 'BUCKET_NAME'
    region = 'us-west-2'
    availability_zone = 'usw2-az1'
    s3_client = boto3.client('s3', region_name = region)
    create_bucket(s3_client, bucket_name, availability_zone)
```

------
#### [ SDK for Ruby ]

En este ejemplo se muestra cómo crear un bucket de directorio con el AWS SDK para Ruby. 

**Example**  

```
s3 = Aws::S3::Client.new(region:'us-west-2')
s3.create_bucket(
  bucket: "bucket_base_name--az_id--x-s3",
  create_bucket_configuration: {
    location: { name: 'usw2-az1', type: 'AvailabilityZone' },
    bucket: { data_redundancy: 'SingleAvailabilityZone', type: 'Directory' }
  }
)
```

------

## Uso de AWS CLI
<a name="create-directory-bucket-cli"></a>

En este ejemplo se muestra cómo crear un bucket de directorio con el AWS CLI. Para usar el comando, sustituya los *marcadores de posición de entrada del usuario* con su propia información.

Al crear un bucket de directorio, debe proporcionar los detalles de configuración y utilizar la siguiente convención de nomenclatura: `bucket-base-name--zone-id--x-s3`

```
aws s3api create-bucket
--bucket bucket-base-name--zone-id--x-s3
--create-bucket-configuration 'Location={Type=AvailabilityZone,Name=usw2-az1},Bucket={DataRedundancy=SingleAvailabilityZone,Type=Directory}'
--region us-west-2
```

Para obtener más información, consulte [create-bucket](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/create-bucket.html) en AWS Command Line Interface.

# Puntos de conexión regionales y zonales para buckets de directorio en una zona de disponibilidad
<a name="endpoint-directory-buckets-AZ"></a>

Para acceder a los objetos y buckets de directorio almacenados en S3 Express One Zone, se usan los puntos de conexión de VPC de puerta de enlace. Los buckets de directorio utilizan puntos de conexión de API regionales y zonales. Según la operación de API de Amazon S3 que utilice, es necesario un punto de conexión regional o zonal. El uso de puntos de conexión de puerta de enlace no supone ningún cargo adicional.

Las operaciones de API de nivel de bucket (o plano de control) están disponibles a través de los puntos de conexión regionales y se denominan operaciones de la API de puntos de conexión regionales. Algunos ejemplos de operaciones de la API de puntos de conexión regionales son `CreateBucket` y `DeleteBucket`.

 Al crear buckets de directorio que se almacenan en S3 Express One Zone, debe elegir la zona de disponibilidad donde se ubicará el bucket. Puede utilizar las operaciones de la API de puntos de conexión zonales para cargar y administrar los objetos del bucket de directorio.

Las operaciones de API de nivel de objeto (o plano de datos) están disponibles a través de los puntos de conexión zonales y se denominan operaciones de la API de puntos de conexión zonales. Algunos ejemplos de operaciones de la API de puntos de conexión zonales son `CreateSession` y `PutObject`.


| Nombre de la región | Región | ID de zona de disponibilidad | Punto de conexión regional | Punto de conexión zonal | 
| --- | --- | --- | --- | --- | 
|  Este de EE. UU. (Norte de Virginia)  |  `us-east-1`  |  `use1-az4` `use1-az5` `use1-az6`  |  `s3express-control.us-east-1.amazonaws.com` `s3express-control-dualstack.us-east-1.amazonaws.com `  |  `s3express-use1-az4.us-east-1.amazonaws.com` `s3express-use1-az4.dualstack.us-east-1.amazonaws.com` `s3express-use1-az5.us-east-1.amazonaws.com` `s3express-use1-az5.dualstack.us-east-1.amazonaws.com` `s3express-use1-az6.us-east-1.amazonaws.com` `s3express-use1-az6.dualstack.us-east-1.amazonaws.com`  | 
|  Este de EE. UU. (Ohio)  |  `us-east-2`  |  `use2-az1` `use2-az2`  |  `s3express-control.us-east-2.amazonaws.com` `s3express-control-dualstack.us-east-2.amazonaws.com`  |  `s3express-use2-az1.us-east-2.amazonaws.com` `s3express-use2-az1.dualstack.us-east-2.amazonaws.com` `s3express-use2-az2.us-east-2.amazonaws.com` `s3express-use2-az2.dualstack.us-east-2.amazonaws.com`  | 
|  Oeste de EE. UU. (Oregón)  |  `us-west-2`  |  `usw2-az1` `usw2-az3` `usw2-az4`  |  `s3express-control.us-west-2.amazonaws.com` `s3express-control-dualstack.us-west-2.amazonaws.com`  |  `s3express-usw2-az1.us-west-2.amazonaws.com` `s3express-usw2-az1.dualstack.us-west-2.amazonaws.com` `s3express-usw2-az3.us-west-2.amazonaws.com` `s3express-usw2-az3.dualstack.us-west-2.amazonaws.com` `s3express-usw2-az4.us-west-2.amazonaws.com` `s3express-usw2-az4.dualstack.us-west-2.amazonaws.com`  | 
|  Asia-Pacífico (Mumbai)  |  `ap-south-1`  |  `aps1-az1` `aps1-az3`  |  `s3express-control.ap-south-1.amazonaws.com` `s3express-control-dualstack.ap-south-1.amazonaws.com`  |  `s3express-aps1-az1.ap-south-1.amazonaws.com` `s3express-aps1-az1.dualstack.ap-south-1.amazonaws.com` `s3express-aps1-az3.ap-south-1.amazonaws.com` `s3express-aps1-az3.dualstack.ap-south-1.amazonaws.com`  | 
|  Asia-Pacífico (Tokio)  |  `ap-northeast-1`  |  `apne1-az1` `apne1-az4`  |  `s3express-control.ap-northeast-1.amazonaws.com` `s3express-control-dualstack.ap-northeast-1.amazonaws.com`  |  `s3express-apne1-az1.ap-northeast-1.amazonaws.com` `s3express-apne1-az1.dualstack.ap-northeast-1.amazonaws.com` `s3express-apne1-az4.ap-northeast-1.amazonaws.com` `s3express-apne1-az4.dualstack.ap-northeast-1.amazonaws.com`  | 
|  Europa (Irlanda)  |  `eu-west-1`  |  `euw1-az1` `euw1-az3`  |  `s3express-control.eu-west-1.amazonaws.com` `s3express-control-dualstack.eu-west-1.amazonaws.com`  |  `s3express-euw1-az1.eu-west-1.amazonaws.com` `s3express-euw1-az1.dualstack.eu-west-1.amazonaws.com` `s3express-euw1-az3.eu-west-1.amazonaws.com` `s3express-euw1-az3.dualstack.eu-west-1.amazonaws.com`  | 
|  Europa (Estocolmo)  |  `eu-north-1`  |  `eun1-az1` `eun1-az2` `eun1-az3`  |  `s3express-control.eu-north-1.amazonaws.com` `s3express-control-dualstack.eu-north-1.amazonaws.com`  |  `s3express-eun1-az1.eu-north-1.amazonaws.com` `s3express-eun1-az1.dualstack.eu-north-1.amazonaws.com` `s3express-eun1-az2.eu-north-1.amazonaws.com` `s3express-eun1-az2.dualstack.eu-north-1.amazonaws.com` `s3express-eun1-az3.eu-north-1.amazonaws.com` `s3express-eun1-az3.dualstack.eu-north-1.amazonaws.com`  | 

# Optimización del rendimiento de S3 Express One Zone
<a name="s3-express-performance"></a>

Amazon S3 Express One Zone es una clase de almacenamiento de S3 en una única zona de disponibilidad (AZ) de alto rendimiento que está diseñada específicamente para ofrecer acceso constante a los datos en milisegundos de un solo dígito para los datos a los que accede para las aplicaciones sensibles a la latencia. S3 Express One Zone es la primera clase de almacenamiento de S3 que le da la opción de coubicar recursos de almacenamiento de objetos de alto rendimiento e informáticos de AWS, como Amazon Elastic Compute Cloud, Amazon Elastic Kubernetes Service y Amazon Elastic Container Service, dentro de una única zona de disponibilidad. La ubicación conjunta de los recursos informáticos y de almacenamiento optimiza el rendimiento y los costes de computación y proporciona una mayor velocidad de procesamiento de datos. 

S3 Express One Zone ofrece una elasticidad de rendimiento similar a la de otras clases de almacenamiento de S3, pero con latencias uniformes de solicitud de lectura y escritura de milisegundos de un solo dígito del primer byte, hasta 10 veces más rápidas que las de S3 Standard. S3 Express One Zone está diseñado desde cero para admitir un rendimiento de ráfaga hasta niveles de agregación muy elevados. La clase de almacenamiento S3 Express One Zone utiliza una arquitectura personalizada para optimizar el rendimiento y brindar una latencia de solicitud baja y uniforme mediante el almacenamiento de datos en hardware de alto rendimiento. Se ha mejorado el protocolo de objetos de S3 Express One Zone para agilizar la autenticación y la sobrecarga de metadatos. 

Para reducir aún más la latencia y admitir hasta dos millones de lecturas y hasta 200 000 escrituras por segundo, S3 Express One Zone almacena los datos en un bucket: un bucket de directorio de Amazon S3. De forma predeterminada, cada bucket de directorio admite hasta 200 000 lecturas y hasta 100 000 escrituras por segundo. Si la carga de trabajo requiere límites de TPS superiores a los predeterminados, puede solicitar un aumento a través de [AWS Support](https://support.console.aws.amazon.com/support/home#/case/create?issueType=service-limit-increase).

La combinación de hardware y software de alto rendimiento diseñados específicamente, que ofrece una velocidad de acceso en un dígito de milisegundos a los datos y buckets de directorio que se escalan para un gran número de transacciones por segundo, convierte a S3 Express One Zone en la mejor clase de almacenamiento de Amazon S3 para operaciones que requieren un uso intensivo de solicitudes o aplicaciones de rendimiento crítico. 

En los siguientes temas se describen las directrices y patrones de diseño recomendados a fin de optimizar el rendimiento con aplicaciones que usan la clase de almacenamiento S3 Express One Zone. 

**Topics**
+ [Prácticas recomendadas para optimizar el rendimiento de S3 Express One Zone](s3-express-optimizing-performance-design-patterns.md)

# Prácticas recomendadas para optimizar el rendimiento de S3 Express One Zone
<a name="s3-express-optimizing-performance-design-patterns"></a>

Al crear aplicaciones que cargan y recuperan objetos de Amazon S3 Express One Zone, siga las directrices de nuestras prácticas recomendadas para optimizar el rendimiento. Para usar la clase de almacenamiento S3 Express One Zone, debe crear un bucket de directorio de S3. La clase de almacenamiento S3 Express One Zone no se admite para su uso con los buckets de uso general de S3.

Para ver las directrices de rendimiento para el resto de clases de almacenamiento de Amazon S3 y los buckets de uso general de S3, consulte [Prácticas recomendadas para patrones de diseño: optimizar el rendimiento de Amazon S3](optimizing-performance.md).

Para obtener un rendimiento y una escalabilidad óptimos con la clase de almacenamiento S3 Express One Zone y los buckets de directorio en cargas de trabajo a gran escala, es importante comprender cómo funcionan los buckets de directorio de forma diferente a los buckets de uso general. A continuación, le ofrecemos las prácticas recomendadas para alinear las aplicaciones con la forma en que funcionan los buckets de directorio.

## Cómo funcionan los buckets de directorio
<a name="s3-express-how-directory-buckets-work"></a>

La clase de almacenamiento Amazon S3 Express One Zone puede admitir cargas de trabajo con hasta 2 000 000 de transacciones GET y hasta 200 000 transacciones PUT por segundo (TPS) por bucket de directorio. Con S3 Express One Zone, los datos se almacenan en buckets de directorio de S3 en zonas de disponibilidad. Los objetos en los buckets de directorio son accesibles en un espacio de nombres jerárquico, similar a un sistema de archivos y a diferencia de los buckets de uso general de S3 que tienen un espacio de nombres plano. A diferencia de los buckets de uso general, los buckets de directorio organizan las claves jerárquicamente en directorios en lugar de prefijos. Un prefijo es una cadena de caracteres al principio del nombre de la clave de objeto. Puede utilizar prefijos para organizar los datos y administrar una arquitectura plana de almacenamiento de objetos en buckets de uso general. Para obtener más información, consulte [Organizar objetos con prefijos](using-prefixes.md).

En los buckets de directorio, los objetos se organizan en un espacio de nombres jerárquico mediante la barra diagonal (`/`) como único delimitador admitido. Cuando carga un objeto con una clave como `dir1/dir2/file1.txt`, Amazon S3 crea y administra automáticamente los directorios `dir1/` y `dir2/`. Los directorios se crean durante las operaciones `PutObject` o `CreateMultiPartUpload` y se eliminan automáticamente cuando quedan vacíos tras las operaciones `DeleteObject` o `AbortMultiPartUpload`. No existe un límite máximo en el número de objetos y subdirectorios de un directorio.

Los directorios que se crean cuando se cargan objetos en los buckets de directorio pueden escalarse instantáneamente para reducir la posibilidad de errores HTTP `503 (Slow Down)`. Este escalado automático permite a sus aplicaciones paralelizar las solicitudes de lectura y escritura dentro de los directorios y entre ellos, según sea necesario. Para S3 Express One Zone, los directorios individuales están diseñados para admitir la tasa máxima de solicitudes de un bucket de directorio. No es necesario aleatorizar los prefijos de clave para lograr un rendimiento óptimo, ya que el sistema distribuye automáticamente los objetos para lograr una distribución uniforme de la carga, pero, como resultado, las claves no se almacenan lexicográficamente en los buckets de directorio. Esto contrasta con los buckets de uso general de S3, en los que las claves que están lexicográficamente más cerca tienen más probabilidades de estar ubicadas en el mismo servidor. 

Para obtener más información sobre ejemplos de operaciones de bucket de directorio e interacciones de directorio, consulte [Ejemplos de funcionamiento del bucket de directorio y de interacciones con el directorio](#s3-express-directory-bucket-examples).

## Prácticas recomendadas
<a name="s3-express-best-practices-section"></a>

Siga las prácticas recomendadas para optimizar el rendimiento del bucket de directorio y contribuir a que las cargas de trabajo escalen con el tiempo.

### Uso de directorios que contengan muchas entradas (objetos o subdirectorios)
<a name="s3-express-best-practices-use-directories"></a>

Los buckets de directorio ofrecen un alto rendimiento de forma predeterminada para todas las cargas de trabajo. Para obtener una optimización aún mayor del rendimiento con determinadas operaciones, consolidar más entradas (que sean objetos o subdirectorios) en directorios dará lugar a una menor latencia y a una mayor tasa de solicitudes: 
+ Las operaciones de API de mutación, como `PutObject`, `DeleteObject`, `CreateMultiPartUpload` y `AbortMultiPartUpload`, alcanzan un rendimiento óptimo cuando se implementan con menos directorios, más densos, que contengan miles de entradas, en lugar de hacerlo con un gran número de directorios más pequeños. 
+ Las operaciones `ListObjectsV2` tienen mejor rendimiento cuando hay que recorrer menos directorios para rellenar una página de resultados.

#### No usar entropía en los prefijos
<a name="s3-express-best-practices-dont-use-entropy"></a>

En las operaciones de Amazon S3, la entropía se refiere a la asignación al azar de la denominación de los prefijos que ayuda a distribuir las cargas de trabajo de manera uniforme entre las particiones de almacenamiento. No obstante, dado que los buckets de directorio administran internamente la distribución de la carga, no se recomienda utilizar entropía en los prefijos para obtener el mejor rendimiento. Esto se debe a que, en el caso de los buckets de directorio, la entropía puede hacer que las solicitudes sean más lentas al no reutilizar los directorios que ya se han creado.

Un patrón clave como `$HASH/directory/object` podría acabar creando muchos directorios intermedios. En el siguiente ejemplo, todos los valores de `job-1` son directorios diferentes ya que los elementos principales son diferentes. Los directorios serán dispersos y las solicitudes de mutación y enumeración serán más lentas. En este ejemplo hay 12 directorios intermedios que tienen todos una única entrada.

```
s3://my-bucket/0cc175b9c0f1b6a831c399e269772661/job-1/file1
  
s3://my-bucket/92eb5ffee6ae2fec3ad71c777531578f/job-1/file2
  
s3://my-bucket/4a8a08f09d37b73795649038408b5f33/job-1/file3
  
s3://my-bucket/8277e0910d750195b448797616e091ad/job-1/file4
  
s3://my-bucket/e1671797c52e15f763380b45e841ec32/job-1/file5
  
s3://my-bucket/8fa14cdd754f91cc6554c9e71929cce7/job-1/file6
```

En cambio, para mejorar el rendimiento, podemos eliminar el componente `$HASH` y permitir que `job-1` se convierta en un único directorio, lo que mejora la densidad de un directorio. En el siguiente ejemplo, el directorio intermedio único que tiene seis entradas puede dar lugar a un mejor rendimiento, en comparación con el ejemplo anterior.

```
s3://my-bucket/job-1/file1
  
s3://my-bucket/job-1/file2
  
s3://my-bucket/job-1/file3
  
s3://my-bucket/job-1/file4
  
s3://my-bucket/job-1/file5
  
s3://my-bucket/job-1/file6
```

Esta ventaja de rendimiento se produce porque, cuando se crea inicialmente una clave de objeto y el nombre de clave incluye un directorio, el directorio se crea automáticamente para el objeto. Las cargas de objetos posteriores a ese mismo directorio no requieren que se cree el directorio, lo que reduce la latencia de las cargas de objetos a los directorios existentes.

#### Utilice un separador distinto del delimitador / para separar partes de la clave si no necesita la capacidad de agrupar lógicamente objetos durante las llamadas a `ListObjectsV2`
<a name="s3-express-best-practices-use-separator"></a>

Dado que el delimitador `/` recibe un tratamiento especial para los buckets de directorio, se debe utilizar con intención. Aunque los buckets de directorio no ordenan los objetos lexicográficamente, los objetos dentro de un directorio se siguen agrupando en las salidas de `ListObjectsV2`. Si no necesita esta funcionalidad, puede reemplazar `/` por otro carácter como separador a fin de no provocar la creación de directorios intermedios.

Por ejemplo, suponga que las siguientes claves están en un patrón de prefijo `YYYY/MM/DD/HH/`

```
s3://my-bucket/2024/04/00/01/file1
  
s3://my-bucket/2024/04/00/02/file2
  
s3://my-bucket/2024/04/00/03/file3
  
s3://my-bucket/2024/04/01/01/file4
  
s3://my-bucket/2024/04/01/02/file5
  
s3://my-bucket/2024/04/01/03/file6
```

Si no tiene la necesidad de agrupar objetos por hora o día en los resultados de `ListObjectsV2`, pero necesita agrupar objetos por mes, el siguiente patrón de claves de `YYYY/MM/DD-HH-` conducirá a un número significativamente menor de directorios y a un mejor rendimiento de la operación `ListObjectsV2`.

```
s3://my-bucket/2024/04/00-01-file1
  
s3://my-bucket/2024/04/00-01-file2
  
s3://my-bucket/2024/04/00-01-file3
  
s3://my-bucket/2024/04/01-02-file4
  
s3://my-bucket/2024/04/01-02-file5
  
s3://my-bucket/2024/04/01-02-file6
```

#### Uso de operaciones de listas delimitadas siempre que sea posible
<a name="s3-express-best-practices-use-delimited-list"></a>

Una solicitud `ListObjectsV2` sin `delimiter` realiza un recorrido recursivo en profundidad de todos los directorios. Una solicitud `ListObjectsV2` con `delimiter` recupera solo las entradas del directorio especificado por el parámetro `prefix`, lo que reduce la latencia de la solicitud y aumenta las claves agregadas por segundo. Para los buckets de directorio, utilice operaciones de listas delimitadas siempre que sea posible. Las listas delimitadas hacen que los directorios se visiten menos veces, lo que se traduce en un mayor número de claves por segundo y una menor latencia de las solicitudes.

Por ejemplo, para los siguientes directorios y objetos del bucket de directorio:

```
s3://my-bucket/2024/04/12-01-file1
  
s3://my-bucket/2024/04/12-01-file2
  
...
  
s3://my-bucket/2024/05/12-01-file1
  
s3://my-bucket/2024/05/12-01-file2
  
...
  
s3://my-bucket/2024/06/12-01-file1
  
s3://my-bucket/2024/06/12-01-file2
  
...
  
s3://my-bucket/2024/07/12-01-file1
  
s3://my-bucket/2024/07/12-01-file2
  
...
```

Para mejorar el rendimiento de `ListObjectsV2`, utilice una lista delimitada para enumerar los subdirectorios y objetos, si la lógica de la aplicación lo permite. Por ejemplo, puede ejecutar el siguiente comando para la operación de lista delimitada,

```
aws s3api list-objects-v2 --bucket my-bucket --prefix '2024/' --delimiter '/'
```

El resultado es la lista de subdirectorios.

```
{
    "CommonPrefixes": [
        {
            "Prefix": "2024/04/"
        },
        {
            "Prefix": "2024/05/"
        },
        {
            "Prefix": "2024/06/"
        },
        {
            "Prefix": "2024/07/"
        }
    ]
}
```

Para enumerar cada subdirectorio con mejor rendimiento, puede ejecutar un comando como el siguiente ejemplo:

Comando:

```
aws s3api list-objects-v2 --bucket my-bucket --prefix '2024/04' --delimiter '/'
```

Salida:

```
{
    "Contents": [
        {
            "Key": "2024/04/12-01-file1"
        },
        {
            "Key": "2024/04/12-01-file2"
        }
    ]
}
```

### Coubique el almacenamiento S3 Express One Zone con sus recursos informáticos de
<a name="s3-express-best-practices-colocate"></a>

Con S3 Express One Zone, cada bucket de directorio se ubica en una única zona de disponibilidad que seleccione al crear el bucket. Para empezar, puede crear un nuevo bucket de directorio en una zona de disponibilidad local para sus cargas de trabajo o recursos informáticos. A continuación, puede iniciar de inmediato lecturas y escrituras de muy baja latencia. Los buckets de directorio son un tipo de buckets de S3 en los que puede elegir la zona de disponibilidad en una Región de AWS para reducir la latencia entre computación y almacenamiento.

Si accede a los buckets de directorio de todas las zonas de disponibilidad, es posible que experimente un aumento de la latencia. Para optimizar el rendimiento, le recomendamos que acceda a un bucket de directorio desde instancias de Amazon Elastic Container Service, Amazon Elastic Kubernetes Service y Amazon Elastic Compute Cloud que estén ubicadas en la misma zona de disponibilidad siempre que sea posible.

### Uso de conexiones simultáneas para lograr un alto rendimiento con objetos de más de 1 MB
<a name="s3-express-best-practices-concurrent-connections"></a>

Puede lograr el mejor rendimiento emitiendo varias solicitudes simultáneas a los buckets de directorio para distribuir las solicitudes en conexiones independientes y maximizar así el ancho de banda accesible. Al igual que los buckets de uso general, S3 Express One Zone no tiene límites en cuanto al número de conexiones que se realizan en el bucket de directorio. Los directorios individuales pueden escalar el rendimiento de forma horizontal y automática cuando se realizan grandes cantidades de escrituras simultáneas en el mismo directorio.

Las conexiones TCP individuales a los buckets de directorio tienen un límite superior fijo para el número de bytes que se pueden cargar o descargar por segundo. Cuando los objetos aumentan de tamaño, los tiempos de solicitud pasan a estar dominados por el streaming de bytes en lugar del procesamiento de transacciones. Si utiliza varias conexiones para paralelizar la carga o descarga de objetos de mayor tamaño, podrá reducir la latencia de extremo a extremo. Si utiliza el SDK de `Java 2.x`, debería considerar la posibilidad de utilizar el [Administrador de transferencias de S3](https://docs.aws.amazon.com/sdk-for-java/latest/developer-guide/transfer-manager.html), que aprovechará las mejoras de rendimiento, como las [operaciones de la API de carga multiparte](https://docs.aws.amazon.com/AmazonS3/latest/userguide/mpuoverview.html) y las recuperaciones por intervalo de bytes para acceder a los datos en paralelo.

### Uso de puntos de conexión de VPC de puerta de enlace
<a name="s3-express-best-practices-vpc-endpoints"></a>

Los puntos de conexión de puerta de enlace proporcionan una conexión directa desde la VPC a los buckets de directorio, sin necesidad de una puerta de enlace de Internet ni un dispositivo NAT para la VPC. Para reducir el tiempo que los paquetes pasan en la red, debe configurar la VPC con un punto de conexión de VPC de puerta de enlace para los buckets de directorio. Para obtener más información, consulte [Redes para buckets de directorio](s3-express-networking.md).

### Uso de la autenticación de sesión y reutilización de los tokens de sesión mientras sean válidos
<a name="s3-express-best-practices-session-auth"></a>

Los buckets de directorio proporcionan un mecanismo de autenticación de token de sesión para reducir la latencia en las operaciones de API sensibles al rendimiento. Puede realizar una única llamada a `CreateSession` para obtener un token de sesión que será válido para todas las solicitudes en los 5 minutos siguientes. Para obtener la menor latencia en las llamadas a la API, asegúrese de adquirir un token de sesión y reutilizarlo durante toda la vida útil antes de actualizarlo.

Si utiliza los SDK de AWS, estos se encargan de actualizar el token de sesión automáticamente para evitar interrupciones del servicio cuando caduca una sesión. Le recomendamos que utilice los AWS SDK para iniciar y administrar las solicitudes a la operación de la API `CreateSession`.

Para obtener más información acerca de `CreateSession`, consulte [Autorización de operaciones de la API de puntos de conexión zonales con `CreateSession`](s3-express-create-session.md).

### Uso de un cliente basado en CRT
<a name="s3-express-best-practices-crt"></a>

El tiempo de ejecución común (CRT) de AWS es un conjunto de bibliotecas modulares, de alto rendimiento y eficientes escritas en C y pensadas para actuar como base de los AWS SDK. El CRT proporciona un mayor rendimiento, una mejor administración de las conexiones y tiempos de inicio más rápidos. El CRT está disponible en todos los AWS SDK excepto en Go.

Para obtener más información sobre cómo configurar el CRT para el SDK que utilice, consulte [Bibliotecas de tiempo de ejecución común (CRT) de AWS](https://docs.aws.amazon.com/sdkref/latest/guide/common-runtime.html), [Aceleración del rendimiento de Amazon S3 con el tiempo de ejecución común de AWS](https://aws.amazon.com/blogs//storage/improving-amazon-s3-throughput-for-the-aws-cli-and-boto3-with-the-aws-common-runtime/), [Presentación del cliente de S3 basado en CRT y el administrador de transferencias de S3 en el AWS SDK para Java 2.x](https://aws.amazon.com/blogs//developer/introducing-crt-based-s3-client-and-the-s3-transfer-manager-in-the-aws-sdk-for-java-2-x/), [Uso de S3CrtClient para las operaciones de Amazon S3](https://docs.aws.amazon.com/sdk-for-cpp/v1/developer-guide/examples-s3-crt.html) y [Configuración de clientes HTTP basados en CRT de AWS](https://docs.aws.amazon.com/sdk-for-java/latest/developer-guide/http-configuration-crt.html).

### Uso de la versión más reciente de los AWS SDK
<a name="s3-express-best-practices-latest-sdks"></a>

Los SDK de AWS ofrecen compatibilidad integrada con muchas de las directrices recomendadas para optimizar el rendimiento de Amazon S3. Los SDK ofrecen una API más sencilla para aprovechar Amazon S3 desde dentro de una aplicación y se actualizan periódicamente para seguir las últimas prácticas recomendadas. Por ejemplo, los SDK reintentan automáticamente las solicitudes tras errores HTTP `503` y gestionan las respuestas de conexiones lentas.

Si utiliza el SDK de `Java 2.x`, debería considerar la posibilidad de utilizar el [Administrador de transferencias de S3](https://docs.aws.amazon.com/sdk-for-java/latest/developer-guide/transfer-manager.html), que escala horizontalmente las conexiones de forma automática para obtener miles de solicitudes por segundo mediante solicitudes de intervalo de bytes cuando sea apropiado. Las solicitudes de rango de bytes pueden mejorar el rendimiento porque puede utilizar conexiones simultáneas a S3 para obtener diferentes intervalos de bytes dentro del mismo objeto. Esto le ayuda a lograr un rendimiento total mayor frente a una sola solicitud de todo el objeto. Por lo tanto, es importante usar la versión más reciente de los AWS SDK para obtener las características de optimización de rendimiento más recientes.

## Soluciones de problemas de rendimiento
<a name="s3-express-performance-troubleshooting"></a>

### ¿Establece solicitudes de reintentos para aplicaciones sensibles a la latencia?
<a name="s3-express-performance-troubleshooting-retry"></a>

S3 Express One Zone está diseñado específicamente para ofrecer niveles uniformes de alto rendimiento sin realizar ajustes adicionales. Sin embargo, establecer valores de tiempo de espera y reintentos agresivos puede ayudar aún más a lograr una latencia y un rendimiento uniformes. Los SDK de AWS cuentan con un tiempo de espera configurable y valores de reintento que puede ajustar a las tolerancias de su aplicación específica.

### ¿Utiliza bibliotecas de tiempo de ejecución común (CRT) de AWS y tipos de instancia de Amazon EC2 óptimos?
<a name="s3-express-performance-troubleshooting-crt-ec2"></a>

Las aplicaciones que realizan un gran número de operaciones de lectura y escritura probablemente necesitan más memoria o capacidad de computación que las aplicaciones que no. Al lanzar sus instancias de Amazon Elastic Compute Cloud (Amazon EC2) para su carga de trabajo de rendimiento exigente, seleccione los tipos de instancia que tengan la cantidad de estos recursos que necesita su aplicación. El almacenamiento de alto rendimiento S3 Express One Zone se empareja de forma ideal con tipos de instancias más grandes y más nuevos, con una mayor cantidad de memoria del sistema y CPU y GPU más potentes que pueden aprovechar el almacenamiento de mayor rendimiento. También recomendamos utilizar las versiones más recientes de los SDK de AWS habilitados para CRT, que pueden acelerar mejor las solicitudes de lectura y escritura en paralelo.

### ¿Utiliza los AWS SDK para la autenticación basada en sesiones?
<a name="s3-express-performance-troubleshooting-session-auth"></a>

Con Amazon S3, también es posible optimizar el rendimiento cuando se utilizan solicitudes de API de REST de HTTP siguiendo las mismas prácticas recomendadas que forman parte de los SDK de AWS. Sin embargo, con el mecanismo de autorización y autenticación basado en sesiones que utiliza S3 Express One Zone, le recomendamos fehacientemente que utilice los SDK de AWS para administrar `CreateSession` y su token de sesión administrada. Los SDK de AWS crean y actualizan automáticamente los tokens en su nombre mediante la operación de la API `CreateSession`. El uso de `CreateSession` ahorra la latencia de ida y vuelta por solicitud al AWS Identity and Access Management (IAM) para autorizar cada solicitud.

## Ejemplos de funcionamiento del bucket de directorio y de interacciones con el directorio
<a name="s3-express-directory-bucket-examples"></a>

A continuación, se muestran tres ejemplos sobre el funcionamiento de los buckets de directorio.

### Ejemplo 1: cómo interactúan las solicitudes `PutObject` de S3 a un bucket de directorio con directorios
<a name="s3-express-directory-bucket-examples-put"></a>

1. Cuando se ejecuta la operación `PUT(<bucket>, "documents/reports/quarterly.txt")` en un bucket vacío, se crea el directorio `documents/` dentro de la raíz del bucket, se crea el directorio `reports/` dentro de `documents/` y se crea el objeto `quarterly.txt` dentro de `reports/`. Para esta operación, se han creado dos directorios además del objeto.  
![\[Diagrama que muestra la estructura de directorios tras una operación PUT para documents/reports/quarterly.txt\]](http://docs.aws.amazon.com/es_es/AmazonS3/latest/userguide/images/directory-examples-foo-bar-baz.png)

1. Después, cuando se ejecuta otra operación `PUT(<bucket>, "documents/logs/application.txt")`, el directorio `documents/` ya existe, el directorio `logs/` dentro de `documents/` no existe y se crea, y el objeto `application.txt` dentro de `logs/` se crea. Para esta operación, solo se ha creado un directorio además del objeto.  
![\[Diagrama que muestra la estructura de directorios tras una operación PUT para documents/logs/application.txt\]](http://docs.aws.amazon.com/es_es/AmazonS3/latest/userguide/images/directory-examples-foo-baz-quux.png)

1. Por último, cuando se ejecuta una operación `PUT(<bucket>, "documents/readme.txt")`, el directorio `documents/` dentro de la raíz ya existe y se crea el objeto `readme.txt`. Para esta operación, no se crea ningún directorio.  
![\[Diagrama que muestra la estructura de directorios tras una operación PUT para documents/readme.txt\]](http://docs.aws.amazon.com/es_es/AmazonS3/latest/userguide/images/directory-examples-foo-bar.png)

### Ejemplo 2: cómo interactúan las solicitudes `ListObjectsV2` de S3 a un bucket de directorio con directorios
<a name="s3-express-directory-bucket-examples-list"></a>

Para las solicitudes `ListObjectsV2` de S3 sin especificar un delimitador, se recorre un bucket en orden de profundidad. Los resultados se devuelven en un orden coherente. No obstante, aunque este orden sigue siendo el mismo entre solicitudes, el orden no es lexicográfico. Para el bucket y los directorios creados en el ejemplo anterior:

1. Cuando se ejecuta `LIST(<bucket>)`, se introduce el directorio `documents/` y comienza el recorrido.

1. Se introduce el subdirectorio `logs/` y comienza el recorrido.

1. El objeto `application.txt` se encuentra dentro de `logs/`.

1. No existen más entradas dentro de `logs/`. La operación de lista sale de `logs/` y vuelve a entrar en `documents/`.

1. Se sigue recorriendo el directorio `documents/` y se encuentra el objeto `readme.txt`.

1. Se sigue recorriendo el directorio `documents/`, se entra en el subdirectorio `reports/` y comienza el recorrido.

1. El objeto `quarterly.txt` se encuentra dentro de `reports/`.

1. No existen más entradas dentro de `reports/`. La lista sale de `reports/` y vuelve a entrar en `documents/`.

1. No existen más entradas en `documents/` y la lista regresa.

En este ejemplo, `logs/` se ordena antes que `readme.txt` y `readme.txt` se ordena antes que `reports/`.

### Ejemplo 3: cómo interactúan las solicitudes `DeleteObject` de S3 a un bucket de directorio con directorios
<a name="s3-express-directory-bucket-examples-delete"></a>

![\[Diagrama que muestra la estructura inicial de directorios antes de las operaciones DELETE\]](http://docs.aws.amazon.com/es_es/AmazonS3/latest/userguide/images/directory-examples-delete-before.png)


1. En ese mismo bucket, cuando se ejecuta la operación `DELETE(<bucket>, "documents/reports/quarterly.txt")`, se elimina el objeto `quarterly.txt`, lo que deja vacío el directorio `reports/` y provoca que se elimine inmediatamente. El directorio `documents/` no está vacío porque tiene tanto el directorio `logs/` como el objeto `readme.txt` en el interior, por lo que no se elimina. Para esta operación, solo se han eliminado un objeto y un directorio.  
![\[Diagrama que muestra la estructura de directorios tras una operación DELETE para documents/reports/quarterly.txt\]](http://docs.aws.amazon.com/es_es/AmazonS3/latest/userguide/images/directory-examples-delete1.png)

1. Cuando se ejecuta la operación `DELETE(<bucket>, "documents/readme.txt")`, se elimina el objeto `readme.txt`. `documents/` todavía no está vacío porque contiene el directorio `logs/`, por lo que no se elimina. Para esta operación, no se elimina ningún directorio y solo se elimina el objeto.  
![\[Diagrama que muestra la estructura de directorios tras una operación DELETE para documents/readme.txt\]](http://docs.aws.amazon.com/es_es/AmazonS3/latest/userguide/images/directory-examples-delete2.png)

1. Por último, cuando se ejecuta la operación `DELETE(<bucket>, "documents/logs/application.txt")`, se elimina `application.txt`, lo que deja `logs/` vacío y provoca que se elimine inmediatamente. A continuación, `documents/` se deja vacío y se provoca que también se elimine inmediatamente. Para esta operación, se eliminan dos directorios y un objeto. El bucket está ahora vacío.  
![\[Diagrama que muestra la estructura de directorios tras una operación DELETE para documents/logs/application.txt\]](http://docs.aws.amazon.com/es_es/AmazonS3/latest/userguide/images/directory-examples-delete3.png)