

# Workloads de alto desempenho
<a name="directory-bucket-high-performance"></a>

## S3 Express One Zone
<a name="s3-express-one-zone"></a>

 É possível usar a classe Amazon S3 Express One Zone para workloads de alto desempenho. S3 Express One Zone é a primeira classe de armazenamento do S3 em que é possível selecionar uma única zona de disponibilidade com a opção de manter o armazenamento de objetos e os recursos de computação na mesma localização, o que fornece a maior velocidade de acesso possível. Os objetos na classe S3 Express One Zone são armazenados em buckets de diretório localizados em zonas de disponibilidade. Para ter mais informações sobre os buckets de diretório, consulte [Buckets de diretório](https://docs.aws.amazon.com//AmazonS3/latest/userguide/directory-buckets-overview.html). 

A classe Amazon S3 Express One Zone é uma classe de armazenamento de zona única e alto desempenho do Amazon S3 desenvolvida com o propósito específico de fornecer acesso consistente aos dados e com latência inferior a dez milissegundos para as aplicações mais sensíveis à latência. A classe S3 Express One Zone é a classe de armazenamento de objetos em nuvem de menor latência disponível atualmente, com velocidades de acesso aos dados até dez vezes mais rápidas e custos de solicitação 50% mais baixos do que a classe S3 Standard. As aplicações podem se beneficiar imediatamente da conclusão de solicitações até uma ordem de magnitude mais rápida. A classe S3 Express One Zone oferece elasticidade de performance semelhante a outras classes de armazenamento do S3. A classe S3 Express One Zone é usada para workloads ou aplicações de desempenho crítico que requerem latência consistente inferior a dez milissegundos. 

Assim como outras classes de armazenamento do Amazon S3, não é necessário planejar ou provisionar requisitos de capacidade ou throughput com antecedência. Você pode aumentar ou reduzir a escala do armazenamento verticalmente, de acordo com a necessidade, e acessar os dados por meio da API do Amazon S3.

A classe de armazenamento Amazon S3 Express One Zone foi projetada para oferecer disponibilidade de 99,95% em uma única zona de disponibilidade e tem o respaldo do [Acordo de Serviço do Amazon S3](https://aws.amazon.com/s3/sla/). Com a classe S3 Express One Zone, os dados são armazenados de forma redundante em vários dispositivos dentro de uma única zona de disponibilidade. A classe S3 Express One Zone foi projetada para lidar com falhas simultâneas de dispositivos, detectando e reparando rapidamente qualquer redundância perdida. Se o dispositivo existente encontrar uma falha, a classe S3 Express One Zone transferirá automaticamente as solicitações para novos dispositivos dentro da mesma zona de disponibilidade. Essa redundância ajuda a garantir o acesso ininterrupto aos dados dentro de uma zona de disponibilidade.

A classe S3 Express One Zone é ideal para qualquer aplicação em que seja importante minimizar a latência necessária para acessar um objeto. Tais aplicações podem ser fluxos de trabalho com interatividade humana, como edição de vídeo, em que profissionais criativos precisam de acesso responsivo ao conteúdo por meio de suas interfaces de usuário. A classe S3 Express One Zone também beneficia workloads de análise e machine learning que têm requisitos de capacidade de resposta semelhantes dos dados, especialmente workloads com muitos acessos menores ou grandes quantidades de acessos aleatórios. A classe S3 Express One Zone pode ser usada com outros Serviços da AWS para oferecer suporte a workloads de analytics e de inteligência artificial/machine learning (IA/ML), como Amazon EMR, Amazon SageMaker AI e Amazon Athena.

![\[Diagrama mostrando como o S3 Express One Zone funciona.\]](http://docs.aws.amazon.com/pt_br/AmazonS3/latest/userguide/images/s3-express-one-zone.png)


Para buckets de diretório que usam a classe de armazenamento S3 Express One Zone, os dados são armazenados em vários dispositivos dentro de uma única zona de disponibilidade, mas não os armazena de forma redundante entre zonas de disponibilidade. Ao criar um bucket de diretório para usar a classe de armazenamento S3 Express One Zone, recomendamos que você especifique uma Região da AWS e uma zona de disponibilidade que seja local para suas instâncias de computação do Amazon EC2, do Amazon Elastic Kubernetes Service ou do Amazon Elastic Container Service (Amazon ECS) a fim de otimizar o desempenho. 

Ao usar a classe S3 Express One Zone, você pode interagir com o bucket de diretório em uma nuvem privada virtual (VPC) usando um endpoint da VPC do gateway. Com um endpoint de gateway, é possível acessar buckets de diretório da classe S3 Express One Zone pela VPC sem precisar de um gateway da Internet ou um dispositivo NAT para a VPC, e tudo isso sem custos adicionais. 

Você pode usar muitas das mesmas operações de API e recursos do Amazon S3 com buckets de diretório que já usa com buckets de uso geral e outras classes de armazenamento. Isso inclui o Mountpoint para Amazon S3, a criptografia do lado do servidor com chaves gerenciadas pelo Amazon S3 (SSE-S3), a criptografia do lado do servidor com chaves do AWS Key Management Service (AWS KMS) (SSE-KMS) e os recursos Operações em Lote do S3 e Bloqueio de Acesso Público do S3. Você pode acessar a classe de armazenamento S3 Express One Zone pelo console do Amazon S3, pela AWS Command Line Interface (AWS CLI), pelos AWS SDKs e pela API REST do Amazon S3.

Para obter mais informações sobre a classe S3 Express One Zone, consulte os tópicos a seguir.
+ [Visão geral](#s3-express-one-zone-overview)
+ [Recursos da classe S3 Express One Zone](#s3-express-features)
+ [Serviços relacionados](#s3-express-related-services)
+ [Próximas etapas](#s3-express-next-steps)

### Visão geral
<a name="s3-express-one-zone-overview"></a>

Para otimizar a performance e reduzir a latência, a classe S3 Express One Zone apresenta os novos conceitos a seguir.

#### Zonas de disponibilidade
<a name="s3-express-overview-az"></a>

A classe de armazenamento Amazon S3 Express One Zone foi projetada para oferecer disponibilidade de 99,95% em uma única zona de disponibilidade e tem o respaldo do [Acordo de Serviço do Amazon S3](https://aws.amazon.com/s3/sla/). Com a classe S3 Express One Zone, os dados são armazenados de forma redundante em vários dispositivos dentro de uma única zona de disponibilidade. A classe S3 Express One Zone foi projetada para lidar com falhas simultâneas de dispositivos, detectando e reparando rapidamente qualquer redundância perdida. Se o dispositivo existente encontrar uma falha, a classe S3 Express One Zone transferirá automaticamente as solicitações para novos dispositivos dentro da mesma zona de disponibilidade. Essa redundância ajuda a garantir o acesso ininterrupto aos dados dentro de uma zona de disponibilidade.

Uma zona de disponibilidade é um ou mais datacenters discretos com energia, redes e conectividade redundantes em uma Região da AWS. Ao criar um bucket de diretório, escolha a zona de disponibilidade e a Região da AWS em que o bucket ficará localizado. 

##### Zona de disponibilidade única
<a name="directory-buckets-availability-zone"></a>

Ao criar um bucket de diretório, escolha a zona de disponibilidade e a Região da AWS.

Os buckets de diretório usam a classe de armazenamento S3 Express One Zone, desenvolvida para ser usada por aplicações sensíveis à performance. S3 Express One Zone é a primeira classe de armazenamento do S3 em que é possível selecionar uma única zona de disponibilidade com a opção de manter o armazenamento de objetos e os recursos de computação na mesma localização, o que fornece a maior velocidade de acesso possível.

Com a classe S3 Express One Zone, os dados são armazenados de forma redundante em vários dispositivos dentro de uma única zona de disponibilidade. A classe S3 Express One Zone foi projetada para oferecer disponibilidade de 99,95% em uma única zona de disponibilidade e tem o respaldo do [Acordo de Serviço do Amazon S3](https://aws.amazon.com/s3/sla/). Para obter mais informações, consulte . [Zonas de disponibilidade](#s3-express-overview-az)

#### Endpoints e endpoints de VPC do gateway
<a name="s3-express-overview-endpoints"></a>

As operações de API de gerenciamento para buckets de diretório estão disponíveis por meio de um endpoint regional e são chamadas de operações de API de endpoint regional. Exemplos de operações de API de endpoint regional são `CreateBucket` e `DeleteBucket`. Depois de criar um bucket de diretório, você pode usar operações de API de endpoint zonal para fazer upload e gerenciar os objetos no bucket de diretório. As operações de API de endpoint zonal estão disponíveis por meio de um endpoint zonal. Exemplos de operações de API de endpoint zonal são `PutObject` e `CopyObject`.

É possível acessar a classe S3 Express One Zone pela VPC usando endpoints de VPC do gateway. Depois de criar um endpoint de gateway, é possível adicioná-lo como um destino na tabela de rotas para o tráfego destinado da VPC à classe S3 Express One Zone. Assim como no Amazon S3, não há cobrança adicional pelo uso de endpoints de gateway. Para obter mais informações sobre como configurar endpoints de VPC do gateway, consulte [Rede para buckets de diretório](s3-express-networking.md).

#### Autorização baseada em sessão
<a name="s3-express-overview-authorization"></a>

Com a classe S3 Express One Zone, é possível autenticar e autorizar solicitações por meio de um novo mecanismo baseado em sessão que é otimizado para fornecer a menor latência. Você pode usar `CreateSession` para solicitar credenciais temporárias que forneçam acesso de baixa latência ao bucket. Essas credenciais temporárias têm como escopo um bucket de diretório específico do S3. Os tokens de sessão são usados somente com operações zonais (nível de objeto) (com exceção de [CopyObject](directory-buckets-objects-copy.md)). Para obter mais informações, consulte [Autorizar operações de API de endpoint zonal com `CreateSession`](s3-express-create-session.md). 

Os [AWS SDKs compatíveis com a classe S3 Express One Zone](s3-express-SDKs.md#s3-express-getting-started-accessing-sdks) lidam com o estabelecimento e a atualização de sessões em seu nome. Para proteger as sessões, as credenciais de segurança temporárias expiram após 5 minutos. Depois de baixar e instalar os AWS SDKs e configurar as permissões necessárias do AWS Identity and Access Management (IAM), você pode começar imediatamente a usar as operações de API.

### Recursos da classe S3 Express One Zone
<a name="s3-express-features"></a>

Os recursos do S3 a seguir estão disponíveis para a classe S3 Express One Zone. Para obter uma lista completa de operações de APIs compatíveis e recursos não compatíveis, consulte [Diferenças de buckets de diretório](s3-express-differences.md).

#### Gerenciamento de acesso e segurança
<a name="s3-express-features-access-management"></a>

Você pode usar os recursos a seguir para auditar e gerenciar o acesso. Por padrão, os buckets de diretório são privados e só podem ser acessados por usuários que tenham recebido acesso explícito. Ao contrário dos buckets de uso geral que podem definir o limite de controle de acesso no nível do bucket, do prefixo ou da etiqueta de objeto, o limite do controle de acesso para buckets de diretório é definido somente no nível do bucket. Para obter mais informações, consulte [Autorizar operações de API de endpoint regional com o IAM](s3-express-security-iam.md). 
+ [Bloqueio de Acesso Público do S3](access-control-block-public-access.md): todas as configurações da funcionalidade Bloqueio de Acesso Público do S3 são habilitadas por padrão no nível do bucket. Essa configuração padrão não pode ser modificada. 
+ [Propriedade de Objetos do S3](about-object-ownership.md) (padrão: Imposto pelo proprietário do bucket): as listas de controle de acesso (ACLs) não são compatíveis com buckets de diretório. Os buckets de diretório usam automaticamente a configuração Imposto pelo proprietário do bucket para a funcionalidade Propriedade de Objetos do S3. A opção Imposto pelo proprietário do bucket significa que as ACLs são desabilitadas e que o proprietário do bucket tem automaticamente a propriedade e o controle total sobre todos os objetos do bucket. Essa configuração padrão não pode ser modificada. 
+ [AWS Identity and Access Management (IAM)](s3-express-security-iam.md): o IAM ajuda você a controlar com segurança o acesso aos buckets de diretório. Você pode usar o IAM para conceder acesso às operações de API gerenciamento de buckets (regionais) e às operações de API de gerenciamento de objetos (zonais) por meio da ação `s3express:CreateSession`. Para obter mais informações, consulte [Autorizar operações de API de endpoint regional com o IAM](s3-express-security-iam.md). Ao contrário das ações de gerenciamento de objetos, as ações de gerenciamento de buckets não podem ser executadas entre contas. Somente o proprietário do bucket pode realizar essas ações.
+ [Políticas de bucket](s3-express-security-iam-example-bucket-policies.md): use a linguagem de política baseada no IAM para configurar permissões baseadas em recurso para os buckets de diretório. Você também pode usar o IAM para controlar o acesso à operação de API `CreateSession`, que permite usar as operações de API zonais ou de gerenciamento de objetos. Você pode conceder acesso entre contas ou na mesma conta para operações de API zonais. Para obter mais informações sobre as permissões e políticas da classe S3 Express One Zone, consulte [Autorizar operações de API de endpoint regional com o IAM](s3-express-security-iam.md).
+ [IAM Access Analyzer para S3](access-analyzer.md): avalie e monitore as políticas de acesso a fim de garantir que elas forneçam apenas o acesso pretendido aos recursos do S3.

#### Registro em log e monitoramento
<a name="s3-express-features-logging-monitoring"></a>

A classe S3 Express One Zone usa as seguintes ferramentas de registro em log e monitoramento do S3, que você pode usar para monitorar e controlar como os recursos do estão sendo usados:
+ [Métricas do Amazon CloudWatch](cloudwatch-monitoring.md): monitore os recursos e as aplicações da AWS usando o CloudWatch para coletar e monitorar métricas. A classe S3 Express One Zone usa o mesmo namespace do CloudWatch que outras classes de armazenamento do Amazon S3 (`AWS/S3`) e oferece suporte a métricas de armazenamento diárias para buckets de diretório: `BucketSizeBytes` e `NumberOfObjects`. Para obter mais informações, consulte [Monitoramento de métricas com o Amazon CloudWatch](cloudwatch-monitoring.md).
+ [Logs do AWS CloudTrail](cloudtrail-logging-s3-info.md): o AWS CloudTrail é um AWS service (Serviço da AWS) que ajuda você a implementar a auditoria, a governança e a conformidade operacionais e de risco da sua Conta da AWS ao registrar as ações realizadas por um usuário, um perfil ou um AWS service (Serviço da AWS). Para a classe S3 Express One Zone, o CloudTrail captura operações de API de endpoint regional (por exemplo, `CreateBucket` e `PutBucketPolicy`) como eventos de gerenciamento e operações da API zonal (por exemplo, `GetObject` e `PutObject`) como eventos de dados. Esses eventos incluem ações realizadas no Console de gerenciamento da AWS, na AWS Command Line Interface (AWS CLI), em AWS SDKs e em operações de API da AWS. Para ter mais informações, consulte [Logging with AWS CloudTrail for S3 Express One Zone](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-one-zone-logging.html).

**nota**  
Os logs de acesso ao servidor do Amazon S3 não são compatíveis com a classe S3 Express One Zone.

#### Gerenciamento de objetos
<a name="s3-express-features-object-management"></a>

Você pode gerenciar o armazenamento de objetos usando o console do Amazon S3, os AWS SDKs e a AWS CLI. Os seguintes recursos estão disponíveis para o gerenciamento de objetos com a classe S3 Express One Zone:
+ [Operações em Lote do S3](batch-ops-create-job.md): use a funcionalidade Operações em Lote para realizar operações em massa nos objetos em buckets de diretório, como **Copiar** e **Invocar função do AWS Lambda**. Por exemplo, você pode usar a funcionalidade Operações em Lote para copiar objetos entre buckets de diretório e buckets de uso geral. Com a funcionalidade Operações em Lote, você pode gerenciar bilhões de objetos em grande escala com uma única solicitação do S3 usando os AWS SDKs ou a AWS CLI ou com alguns cliques no console do Amazon S3. 
+ [Importação](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-import-job.html): depois de criar um bucket de diretório, você poderá preenchê-lo com objetos usando o recurso de importação no console do Amazon S3. Importar é um método simplificado para criar trabalhos da funcionalidade Operações em Lote a fim de copiar objetos de buckets de uso geral para buckets de diretório.

#### AWS SDKs e bibliotecas de clientes
<a name="s3-express-features-client-libraries"></a>

 Você pode gerenciar o armazenamento de objetos usando os AWS SDKs e as bibliotecas de cliente. 
+ [Mountpoint para Amazon S3](https://github.com/awslabs/mountpoint-s3/blob/main/doc/SEMANTICS.md): o Mountpoint para Amazon S3 é um cliente de arquivos de código aberto que oferece acesso de alto throughput, reduzindo os custos de computação para data lakes no Amazon S3. O Mountpoint para Amazon S3 converte chamadas de API do sistema de arquivos local em chamadas de API de objetos do S3, como `GET` e `LIST`. É ideal para workloads de data lake com muitas leituras que processam petabytes de dados e precisam do alto throughput elástico fornecido pelo Amazon S3 para aumentar e reduzir a escala verticalmente em milhares de instâncias.
+ [https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#Introducing_the_Hadoop_S3A_client](https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#Introducing_the_Hadoop_S3A_client): o S3A é uma interface compatível com Hadoop recomendada para acessar datastores no Amazon S3. O S3A substitui o cliente do sistema de arquivos S3N do Hadoop.
+ [PyTorch na AWS](https://docs.aws.amazon.com//sagemaker/latest/dg/pytorch.html): o PyTorch na AWS é um framework de aprendizado profundo de código aberto que facilita o desenvolvimento de modelos de machine learning e a implantação deles na produção. 
+ [AWS SDKs](https://aws.amazon.com//developer/tools/): você pode usar os AWS SDKs ao desenvolver aplicações com o Amazon S3. Os AWS SDKs simplificam suas tarefas de programação agrupando a API REST subjacente do Amazon S3. Para obter mais informações sobre como usar os AWS SDKs com a classe S3 Express One Zone, consulte [AWS SDKs](s3-express-SDKs.md#s3-express-getting-started-accessing-sdks).

### Criptografia e proteção de dados
<a name="s3-express-features-encryption"></a>

Os objetos na classe S3 Express One Zone são criptografados automaticamente usando a criptografia do lado do servidor com chaves gerenciadas pelo Amazon S3 (SSE-S3). O S3 Express One Zone também é compatível com a criptografia no lado do servidor com chaves do AWS Key Management Service (AWS KMS) (SSE-KMS). A classe S3 Express One Zone não é compatível com a criptografia do lado do servidor com chaves de criptografia fornecidas pelo cliente (SSE-C) ou criptografia de camada dupla do lado do servidor com AWS KMS keys (DSSE-KMS). Para obter mais informações, consulte [Proteção e criptografia de dados](s3-express-data-protection.md).

A classe S3 Express One Zone oferece a opção de escolher o algoritmo de soma de verificação usado para validar os dados durante o upload ou o download. Você pode selecionar um dos seguintes algoritmos de verificação de integridade de dados de hash seguro (SHA) ou de verificação de redundância cíclica (CRC): CRC32, CRC32C, SHA-1 e SHA-256. As somas de verificação baseadas em MD5 não são compatíveis com a classe de armazenamento S3 Express One Zone. 

Para obter mais informações, consulte [Práticas recomendadas adicionais de soma de verificação do S3](s3-express-optimizing-performance.md#s3-express-optimizing-performance-checksums).

### Signature Version 4 (SigV4) da AWS
<a name="s3-express-features-sigv4"></a>

A classe S3 Express One Zone usa o Signature Version 4 (SigV4) da AWS. SigV4 é um protocolo de assinatura usado para autenticar solicitações ao Amazon S3 via HTTPS. A classe S3 Express One Zone assina solicitações usando o Sigv4 da AWS. Para obter mais informações, consulte [Autenticação de solicitações (AWS Signature Version 4))](https://docs.aws.amazon.com//AmazonS3/latest/API/sig-v4-authenticating-requests.html) na *Referência de APIs do Amazon Simple Storage Service*.

### Consistência forte
<a name="s3-express-features-strong-consistency"></a>

A classe S3 Express One Zone oferece uma sólida consistência de leitura após gravação para solicitações `PUT` e `DELETE` de objetos em buckets de diretório em todas as Regiões da AWS. Para obter mais informações, consulte [Modelo de consistência de dados do Amazon S3](Welcome.md#ConsistencyModel).

### Serviços relacionados
<a name="s3-express-related-services"></a>

Você pode usar os seguintes Serviços da AWS com a classe de armazenamento S3 Express One Zone para oferecer suporte ao seu caso de uso específico de baixa latência.
+ [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/ec2/index.html): o Amazon EC2 oferece capacidade de computação segura e escalável na Nuvem AWS. O uso do Amazon EC2 reduz a necessidade de investimento antecipado em hardware. Por isso, você pode desenvolver e implantar aplicações com maior rapidez. É possível usar o Amazon EC2 para executar quantos servidores virtuais forem necessários, configurar a segurança e as redes e gerenciar o armazenamento.
+ [AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/welcome.html.html) – o Lambda é um serviço de computação que permite que você execute o código sem provisionar ou gerenciar servidores. Você define as configurações de notificação em um bucket e concede permissão ao Amazon S3 para invocar uma função na política de permissões baseada em recursos da função. 
+ [Amazon Elastic Kubernetes Service (Amazon EKS)](https://docs.aws.amazon.com/eks/latest/userguide/what-is-eks.html): o Amazon EKS é um serviço gerenciado que elimina a necessidade de instalar, operar e manter o seu próprio ambiente de gerenciamento do Kubernetes na AWS. O [https://kubernetes.io/docs/concepts/overview/](https://kubernetes.io/docs/concepts/overview/) é um sistema de código aberto que automatiza o gerenciamento, a escalação e a implantação de aplicações em contêineres.
+ [Amazon Elastic Container Service (Amazon ECS)](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/Welcome.html): o Amazon ECS é um serviço totalmente gerenciado de orquestração de contêineres que ajuda a implantar, gerenciar e dimensionar facilmente aplicações em contêineres.
+ [AWS Key Management Service (AWS KMS)](https://docs.aws.amazon.com/kms/latest/developerguide/overview.html): o AWS Key Management Service (AWS KMS) é um serviço gerenciado da AWS que facilita a criação e o controle de chaves de criptografia usadas para criptografar seus dados. As chaves do AWS que você cria no AWS KMS são protegidas por módulos de segurança de hardware (HSM) com validação FIPS 140-2. Para usar ou gerenciar suas chaves do KMS, você interage com o AWS KMS.
+ [Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/what-is.html): o Athena é um serviço de consultas interativas que facilita a análise de dados no Amazon S3 usando [SQL](https://docs.aws.amazon.com/athena/latest/ug/ddl-sql-reference.html) padrão. Você também pode usar o Athena para executar análises de dados de maneira interativa usando o Apache Spark sem a necessidade de planejamento, configuração ou gerenciamento de recursos. Ao executar aplicações do Apache Spark no Athena, você envia o código Spark para processamento e recebe os resultados de forma direta.
+ [Treinamento do Amazon SageMaker](https://docs.aws.amazon.com//sagemaker/latest/dg/how-it-works-training.html): analise as opções de modelos de treinamento com o Amazon SageMaker, incluindo algoritmos integrados, algoritmos personalizados, bibliotecas e modelos do AWS Marketplace.
+ [AWS Glue](https://docs.aws.amazon.com/glue/latest/dg/what-is-glue.html) – AWS Glue o é um serviço de integração de dados com tecnologia sem servidor que facilita aos usuários de análise a descoberta, preparação, transferência e integração de dados de várias fontes. Você pode usar o AWS Glue para análise, machine learning e desenvolvimento de aplicações. O AWS Glue também inclui outras ferramentas de produtividade e operações de dados para criação, execução de trabalhos e implementação de fluxos de trabalho de negócios.
+ [Amazon EMR](https://docs.aws.amazon.com//emr/latest/ManagementGuide/emr-what-is-emr.html): o Amazon EMR é uma plataforma de cluster gerenciada que simplifica a execução de frameworks de big data, como Apache Hadoop e Apache Spark, na AWS a fim de processar e analisar grandes volumes de dados. 
+ [AWS CloudTrail](https://docs.aws.amazon.com//awscloudtrail/latest/userguide/cloudtrail-user-guide.html): o AWS CloudTrail é um serviço da AWS que ajuda você a habilitar governança, conformidade e auditorias operacionais e de risco na sua conta da AWS. As ações realizadas por um usuário, uma função ou um serviço da AWS são registradas como eventos no CloudTrail. Os eventos incluem ações realizadas no Console de Gerenciamento da AWS, na AWS Command Line Interface e nos AWS SDKs e APIs. 
+ [AWS CloudFormation](https://docs.aws.amazon.com//AWSCloudFormation/latest/UserGuide/Welcome.html): é um serviço que ajuda você a modelar e configurar seus recursos da AWS para gastar menos tempo gerenciando esses recursos e mais tempo se concentrando nas aplicações executadas na AWS. Você cria um modelo que descreve todos os recursos da AWS desejados (como funções do Amazon EC2 e tabelas do Amazon RDS), e o CloudFormation cuida do provisionamento e da configuração desses recursos para você. Não é necessário criar e configurar individualmente os recursos da AWS e descobrir o que depende do que: o CloudFormation lida com tudo isso.

### Próximas etapas
<a name="s3-express-next-steps"></a>

Para obter mais informações sobre como usar a classe de armazenamento S3 Express One Zone e os buckets de diretório, consulte os seguintes tópicos:
+ [Tutorial: Conceitos básicos da classe S3 Express One Zone](s3-express-getting-started.md)
+ [Zonas de disponibilidade e regiões da classe S3 Express One Zone](s3-express-Endpoints.md)
+ [Rede para buckets de diretório em uma zona de disponibilidade](directory-bucket-az-networking.md)
+ [Criar buckets de diretório em uma zona de disponibilidade](directory-bucket-create.md)
+ [Endpoints regionais e zonais para buckets de diretório em uma zona de disponibilidade](endpoint-directory-buckets-AZ.md)
+ [Otimizar o desempenho da classe S3 Express One Zone](s3-express-performance.md)

# Tutorial: Conceitos básicos da classe S3 Express One Zone
<a name="s3-express-getting-started"></a>

A classe Amazon S3 Express One Zone é a primeira classe de armazenamento do S3 em que é possível selecionar uma única Zona de Disponibilidade com a opção de manter o armazenamento de objetos e os recursos de computação na mesma localização, o que oferece a maior velocidade de acesso possível. Os dados na classe S3 Express One Zone são armazenados em buckets de diretório localizados em zonas de disponibilidade. Para ter mais informações sobre os buckets de diretório, consulte [Buckets de diretório](https://docs.aws.amazon.com//AmazonS3/latest/userguide/directory-buckets-overview.html). 

 A classe S3 Express One Zone é ideal para qualquer aplicação em que seja essencial minimizar a latência da solicitação. Tais aplicações podem ser fluxos de trabalho com interatividade humana, como edição de vídeo, em que profissionais criativos precisam de acesso responsivo ao conteúdo por meio de suas interfaces de usuário. A classe S3 Express One Zone também beneficia workloads de analytics e machine learning que têm requisitos de capacidade de resposta semelhantes dos dados, especialmente workloads com muitos acessos menores ou grandes quantidades de acessos aleatórios. A classe S3 Express One Zone pode ser usada com outros serviços da AWS, como Amazon EMR, Amazon Athena, AWS Glue Data Catalog e o Treinamento de modelo do Amazon SageMaker para oferecer suporte a workloads de analytics, de inteligência artificial e de machine learning (IA/ML). É possível trabalhar com a classe de armazenamento S3 Express One Zone e os buckets de diretório usando o console do Amazon S3, os AWS SDKs, a AWS Command Line Interface (AWS CLI) e a API REST do Amazon S3. Para ter mais informações, consulte [O que é a classe S3 Express One Zone?](https://docs.aws.amazon.com//AmazonS3/latest/userguide/s3-express-one-zone.html) e [O que diferencia a classe S3 Express One Zone?](https://docs.aws.amazon.com//AmazonS3/latest/userguide/s3-express-differences.html) 

![\[Este é um diagrama do fluxo de trabalho da classe S3 Express One Zone.\]](http://docs.aws.amazon.com/pt_br/AmazonS3/latest/userguide/images/s3-express-one-zone.png)


**Objetivo**  
Neste tutorial, você aprenderá como criar um endpoint de gateway, criar e anexar uma política do IAM, criar um bucket de diretório e, depois, usar a ação Import para preencher o bucket de diretório com objetos atualmente armazenados no bucket de uso geral. Como alternativa, é possível fazer upload manualmente de objetos no bucket de diretório. 

**Topics**
+ [Pré-requisitos](#s3-express-tutorial-prerequisites)
+ [Etapa 1: configurar um endpoint da VPC de gateway para acessar buckets de diretório da classe S3 Express One Zone](s3-express-tutorial-endpoints.md)
+ [Etapa 2: criar um bucket de diretório da classe S3 Express One Zone](s3-express-tutorial-create-directory-bucket.md)
+ [Etapa 3: importar dados para um bucket de diretório da classe S3 Express One Zone](s3-express-tutorial-Import.md)
+ [Etapa 4: fazer upload manual de objetos no bucket de diretório da classe S3 Express One Zone](s3-express-tutorial-Upload.md)
+ [Etapa 5: esvaziar um bucket de diretório da classe S3 Express One Zone](s3-express-tutoiral-Empty.md)
+ [Etapa 6: excluir um bucket de diretório da classe S3 Express One Zone](s3-express-tutoiral-Delete.md)
+ [Próximas etapas](#s3-express-tutoiral-Next)

## Pré-requisitos
<a name="s3-express-tutorial-prerequisites"></a>

Antes de começar este tutorial, você deve ter uma Conta da AWS na qual possa fazer login como um usuário do AWS Identity and Access Management (IAM) com permissões corretas.

**Topics**
+ [Criar um Conta da AWS](#s3-express-create-account)
+ [Criar um usuário do IAM na Conta da AWS (console)](#s3-express-tutorial-user)
+ [Criar uma política do IAM e anexá-la a um usuário ou um perfil do IAM (console)](#s3-express-tutorial-polict)

### Criar um Conta da AWS
<a name="s3-express-create-account"></a>

Para concluir este tutorial, você precisa de uma Conta da AWS. Ao cadastrar-se na AWS, sua Conta da AWS é automaticamente cadastrada em todos os serviços da AWS incluindo o Amazon S3. A cobrança incorrerá apenas pelos serviços utilizados. Para ter mais informações sobre a definição de preço, consulte [S3 pricing](https://aws.amazon.com/s3/pricing/). 

### Criar um usuário do IAM na Conta da AWS (console)
<a name="s3-express-tutorial-user"></a>

O AWS Identity and Access Management (IAM) é um AWS service (Serviço da AWS) que ajuda os administradores a controlar o acesso aos recursos da AWS de forma segura. Os administradores do IAM controlam quem pode se autenticar (se conectar) e ter autorização (permissões) para acessar os objetos e usar os buckets de diretório na classe S3 Express One Zone. Você pode usar o IAM sem custo adicional. 

Por padrão, os usuários não têm permissões para acessar os buckets de diretório e realizar as operações da classe S3 Express One Zone. Para conceder permissões de acesso a buckets de diretório e operações da classe S3 Express One Zone, você pode usar o IAM para criar usuários ou perfis e anexar permissões a essas identidades. Para obter mais informações sobre como criar um usuário do IAM, consulte [Criar usuários do IAM (console)](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_users_create.html#id_users_create_console) no *Guia do usuário do IAM*. Para ter mais informações sobre como criar um perfil do IAM, consulte [Criação de uma função para delegar permissões a um usuário do IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_create_for-user.html) no *Guia do usuário do IAM*. 

Para simplificar, este tutorial cria e usa um usuário do IAM. Depois de concluir este tutorial, lembre-se de [Excluir o usuário do IAM](tutorial-s3-object-lambda-uppercase.md#ol-upper-step8-delete-user). Para uso em produção, recomendamos que você siga as [Práticas recomendadas de segurança no IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/best-practices.html) no *Guia do usuário do IAM*. Uma das práticas recomendadas exige que os usuários humanos usem a federação com um provedor de identidades para acessar a AWS usando credenciais temporárias. Outra prática recomendada é exigir que as workloads usem credenciais temporárias com perfis do IAM para acessar a AWS. Para saber mais sobre como usar o Centro de Identidade do AWS IAM para criar usuários com credenciais temporárias, consulte [Getting started](https://docs.aws.amazon.com/singlesignon/latest/userguide/getting-started.html) no *Guia do usuário do Centro de Identidade do AWS IAM*. 

**Atenção**  
Os usuários do IAM têm credenciais de longo prazo, o que representa um risco de segurança. Para ajudar a reduzir esse risco, recomendamos que você forneça a esses usuários somente as permissões necessárias para realizar a tarefa e que você os remova quando não forem mais necessários.

### Criar uma política do IAM e anexá-la a um usuário ou um perfil do IAM (console)
<a name="s3-express-tutorial-polict"></a>

Por padrão, os usuários não têm permissões para os buckets de diretório e as operações da classe S3 Express One Zone. Para conceder permissões de acesso a buckets de diretório, você pode usar o IAM para criar usuários ou perfis e anexar permissões a essas identidades. Os buckets de diretório são o único recurso que você pode incluir nas políticas de bucket ou nas políticas de identidade do IAM para acesso à classe S3 Express One Zone. 

Para usar as operações de API do endpoint regional (operações em nível de bucket ou ambiente de gerenciamento) com a classe S3 Express One Zone, use o modelo de autorização do IAM, que não envolve gerenciamento de sessões. As permissões são concedidas individualmente para as ações. Para usar as operações de API do endpoint zonal (operações em nível de objeto ou plano de dados), use [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateSession.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateSession.html) para criar e gerenciar sessões otimizadas para autorização de solicitações de dados com baixa latência. Para recuperar e usar um token de sessão, você deve permitir a ação `s3express:CreateSession` para o bucket de diretório em uma política baseada em identidade ou em uma política de bucket. Se você acessar a classe S3 Express One Zone pelo console do Amazon S3, pela AWS Command Line Interface (AWS CLI) ou usando os AWS SDKs, a classe S3 Express One Zone criará uma sessão em seu nome. Para ter mais informações, consulte [`CreateSession` authorization](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-create-session.html) e [AWS Identity and Access Management (IAM) para a classe S3 Express One Zone](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-security-iam.html). 

**Como criar uma política do IAM e anexá-la a um usuário do IAM (ou perfil)**

1. Faça login no Console de Gerenciamento da AWS e abra o Console de Gerenciamento do IAM.

1. No painel de navegação, selecione **Políticas**.

1. Escolha **Create Policy**.

1. Selecione **JSON**.

1. Copie a política abaixo na janela do **Editor de políticas**. Para criar buckets de diretório ou usar a classe S3 Express One Zone, é necessário conceder as permissões necessárias ao perfil ou ao usuário do AWS Identity and Access Management (IAM). Esse exemplo de política permite acesso à operação de API `CreateSession` (para uso com as operações de API em nível de objeto ou zonais) e a todas as operações de API do endpoint regional (nível de bucket). Essa política permite que a operação de API `CreateSession` seja usada com todos os buckets de diretório, mas as operações de API de endpoint regional só são permitidas para uso com o bucket de diretório especificado. Para usar esse exemplo de política, substitua os `user input placeholders` por suas próprias informações.

------
#### [ JSON ]

****  

   ```
   {
        "Version":"2012-10-17",		 	 	 
        "Statement": [ 
            {
                "Sid": "AllowAccessRegionalEndpointAPIs",
                "Effect": "Allow",
                "Action": [
                    "s3express:DeleteBucket",
                    "s3express:DeleteBucketPolicy",
                    "s3express:CreateBucket",
                    "s3express:PutBucketPolicy",
                    "s3express:GetBucketPolicy",
                    "s3express:ListAllMyDirectoryBuckets"
                ],
   
                "Resource": "arn:aws:s3express:us-east-1:111122223333:bucket/amzn-s3-demo-bucket--usw2-az1--x-s3/*"
            },
            {
                "Sid": "AllowCreateSession",
                "Effect": "Allow",
                "Action": "s3express:CreateSession",
                "Resource": "*"
            }
        ]
    }
   ```

------

1. Escolha **Próximo**.

1. Atribua o nome à política.
**nota**  
As tags de bucket não são compatíveis com a classe S3 Express One Zone.

1. Selecione **Criar política**.

1.  Agora que você criou uma política do IAM, poderá anexá-la a um usuário do IAM. No painel de navegação, selecione **Políticas**.

1. Na **caixa de pesquisa**, insira o nome da política.

1. No menu **Ações**, selecione **Anexar**. 

1. Em **Filtrar por tipo de entidade**, selecione **Usuários do IAM** ou **Perfis**. 

1. No **campo de pesquisa**, digite o nome do usuário ou do perfil que você deseja usar.

1. Escolha **Attach Policy**.

**Topics**
+ [Criar um Conta da AWS](#s3-express-create-account)
+ [Criar um usuário do IAM na Conta da AWS (console)](#s3-express-tutorial-user)
+ [Criar uma política do IAM e anexá-la a um usuário ou um perfil do IAM (console)](#s3-express-tutorial-polict)

# Etapa 1: configurar um endpoint da VPC de gateway para acessar buckets de diretório da classe S3 Express One Zone
<a name="s3-express-tutorial-endpoints"></a>

 Você pode acessar operações de API zonais e regionais por meio de endpoints de nuvem privada virtual (VPC) de gateway. Os endpoints do gateway podem permitir que o tráfego chegue à classe S3 Express One Zone sem atravessar um gateway NAT. É altamente recomendável usar endpoints de gateway, pois eles fornecem o melhor caminho de rede ao trabalhar com a classe S3 Express One Zone. É possível acessar buckets de diretório da classe S3 Express One Zone pela VPC sem precisar de um gateway da Internet ou um dispositivo NAT para a VPC, e tudo isso sem custos adicionais. Use o procedimento a seguir para configurar um endpoint de gateway que se conecte aos objetos da classe de armazenamento S3 Express One Zone e aos buckets de diretório.

Para acessar a classe S3 Express One Zone, use endpoints regionais e zonais que são diferentes dos endpoints padrão do Amazon S3. Dependendo da operação de API do Amazon S3 usada, será necessário um endpoint regional ou zonal. Para ter uma lista completa das operações de API compatíveis por tipo de endpoint, consulte [Operações de API compatíveis com a classe S3 Express One Zone](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-differences.html#s3-express-differences-api-operations). Você deve acessar endpoints zonais e regionais por meio de um endpoint de nuvem privada virtual (VPC) do gateway. 

 Use o procedimento a seguir para criar um endpoint de gateway que se conecte aos objetos da classe S3 Express One Zone e aos buckets de diretório.

**Como configurar um endpoint da VPC do gateway**

1. Abra o console do Amazon VPC em [https://console.aws.amazon.com/vpc/](https://console.aws.amazon.com/vpc/).

1. No painel de navegação lateral, em **Nuvem privada virtual**, escolha **Endpoints**.

1. Escolha **Criar endpoint**.

1. Crie um nome para o endpoint.

1. Em **Service category** (Categoria de serviço), escolha **Serviços da AWS**. 

1. Em **Serviços**, pesquise usando o filtro **Tipo=Gateway** e escolha o botão de opções ao lado de **com.amazonaws.*region*.s3express**. 

1. Em **VPC**, escolha a VPC na qual deseja criar o endpoint.

1. Em **Tabelas de rotas**, escolha a tabela de rotas a ser usada pelo endpoint na zona local. Depois que o endpoint for criado, um registro de rota será adicionado à tabela de rotas selecionada nesta etapa.

1. Em **Política**, escolha **Acesso total** para permitir todas as operações de todas as entidades principais em todos os recursos no endpoint da VPC. Como alternativa, escolha **Personalizado** para anexar uma política de endpoint da VPC que controle as permissões das entidades principais para realizar ações em recursos pelo endpoint da VPC.

1. Em **IP address type** (Tipo de endereço IP), escolha uma das seguintes opções:
   +  **IPv4**: atribua endereços IPv4 às interfaces de rede de endpoint. Só haverá suporte para esta opção se todas as sub-redes selecionadas tiverem intervalos de endereços IPv4 e o serviço aceitar solicitações de IPv4. 
   +  **IPv6**: atribua endereços IPv6 às interfaces de rede de endpoint. Só haverá suporte para esta opção se todas as sub-redes selecionadas tiverem intervalos de endereços IPv6 e o serviço aceitar solicitações de IPv6.
   +  **Pilha dupla**: atribua endereços IPv4 e IPv6 às interfaces de rede de endpoint. Só haverá suporte para esta opção se todas as sub-redes selecionadas tiverem intervalos de ambos os endereços IPv4 e IPv6 e o serviço aceitar solicitações de ambos IPv4 e IPv6.

1. (Opcional) Para adicionar uma etiqueta, escolha **Adicionar nova tag** e insira a chave e o valor da etiqueta.

1. Escolha **Criar endpoint**.

Depois de criar um endpoint de gateway, você pode usar endpoints de API regionais e endpoints de API zonais para acessar objetos da classe de armazenamento Amazon S3 Express One Zone e buckets de diretório.

# Etapa 2: criar um bucket de diretório da classe S3 Express One Zone
<a name="s3-express-tutorial-create-directory-bucket"></a>

1. Faça login no Console de gerenciamento da AWS e abra o console do Amazon S3 em [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Na barra de navegação na parte superior da página, escolha o nome da Região da AWS exibida no momento. Em seguida, escolha a região na qual você deseja criar um bucket. 
**nota**  
Para reduzir a latência e os custos e atender aos requisitos regulatórios, selecione uma região perto de você. Os objetos armazenados em uma região nunca saem dessa região, a menos que você os transfira para outra região. Para obter uma lista de Regiões da AWS do Amazon S3, consulte [Endpoints de AWS service (Serviço da AWS)](https://docs.aws.amazon.com/general/latest/gr/rande.html#s3_region) no *Referência geral da Amazon Web Services*.

1. No painel de navegação à esquerda, escolha **Buckets de diretórios**.

1. Selecione **Create bucket (Criar bucket)**. A página **Create bucket** (Criar bucket) é aberta.

1. Em **Configuração geral**, visualize a Região da AWS onde o bucket será criado. 

   Em **Tipo de bucket**, escolha **Diretório**.
**nota**  
Se você escolher uma região que não oferece suporte a buckets de diretório, a opção **Tipo de bucket** desaparecerá e o tipo de bucket assumirá um bucket de uso geral como padrão. Para criar um bucket de diretório, escolha uma região compatível. Para obter uma lista de regiões que oferecem suporte a buckets de diretório e à classe de armazenamento Amazon S3 Express One Zone, consulte [Zonas de disponibilidade e regiões da classe S3 Express One Zone](s3-express-Endpoints.md).
Depois de criar o bucket, não será possível alterar o tipo.
**nota**  
A zona de disponibilidade não poderá ser alterada após a criação do bucket. 

1. Em **Zona de disponibilidade**, escolha uma zona de disponibilidade que seja local para os seus serviços de computação. Para obter uma lista de zonas de disponibilidade que oferecem suporte a buckets de diretório e à classe de armazenamento S3 Express One Zone, consulte [Zonas de disponibilidade e regiões da classe S3 Express One Zone](s3-express-Endpoints.md). 

   Em **Zona de disponibilidade**, marque a caixa de seleção para indicar que, em caso de interrupção na zona de disponibilidade, seus dados poderão ficar indisponíveis ou ser perdidos. 
**Importante**  
Embora os buckets de diretório sejam armazenados em vários dispositivos dentro de uma única zona de disponibilidade, eles não armazenam dados de forma redundante entre zonas de disponibilidade.

1. Em **Nome do bucket**, insira um nome para o bucket de diretório.

   As regras de nomenclatura a seguir se aplicam a buckets de diretório.
   + O nome deve ser exclusivo na zona escolhida (zona de disponibilidade da AWS ou zona local da AWS). 
   + O nome deve ter entre 3 (mín.) e 63 (máx.) caracteres, incluindo o sufixo.
   + Consistir em letras minúsculas, números e hifens (-).
   + Inicie e termine com uma letra ou um número. 
   + Deve incluir o seguinte sufixo: `--zone-id--x-s3`.
   + O nome do bucket não deve iniciar com o prefixo `xn--`.
   + O nome do bucket não deve iniciar com o prefixo `sthree-`.
   + O nome do bucket não deve iniciar com o prefixo `sthree-configurator`.
   + O nome do bucket não deve iniciar com o prefixo ` amzn-s3-demo-`.
   + Os nomes de bucket não podem terminar com o sufixo `-s3alias`. Esse sufixo se reserva a nomes de alias de ponto de acesso. Para obter mais informações, consulte [Alias de ponto de acesso](access-points-naming.md#access-points-alias).
   + Os nomes de bucket não podem terminar com o sufixo `--ol-s3`. Esse sufixo é reservado a nomes de alias de ponto de acesso de objeto do Lambda. Para obter mais informações, consulte [Como usar um alias no estilo do bucket para o ponto de acesso do Object Lambda do bucket do S3](olap-use.md#ol-access-points-alias).
   + Os nomes de bucket não podem terminar com o sufixo `.mrap`. Esse sufixo é reservado para nomes de ponto de acesso de várias regiões. Para obter mais informações, consulte [Regras para nomear pontos de acesso multirregionais do Amazon S3](multi-region-access-point-naming.md).

   Um sufixo é adicionado automaticamente ao nome de base que você fornece ao criar um bucket de diretório usando o console. Esse sufixo inclui o ID da zona de disponibilidade que você escolheu.

   Depois de criado o bucket, você não pode mudar seu nome. Para obter mais informações sobre como nomear buckets, consulte [Regras de nomenclatura de buckets de uso geral](bucketnamingrules.md). 
**Importante**  
Não inclua informações confidenciais, como números de conta, no nome do bucket. O nome do bucket é visível nos URLs que apontam para os objetos no bucket.

1. Em **Propriedade do objeto**, a configuração **Imposto pelo proprietário do bucket** está habilitada automaticamente e todas as listas de controle de acesso (ACLs) estão desabilitadas. Para os buckets de diretório, não é possível habilitar ACLs. 

    **Imposto pelo proprietário do bucket (padrão)**: as ACLs são desabilitadas e o proprietário do bucket automaticamente tem propriedade e controle total sobre todos os objetos do bucket de uso geral. As ACLs não afetam mais as permissões de acesso aos dados no bucket de uso geral do S3. O bucket usa políticas exclusivamente para definir o controle de acesso.

1. Em **Configurações de bloqueio do acesso público deste bucket**, todas as configurações da funcionalidade Bloqueio de Acesso Público para o bucket de diretório estão automaticamente habilitadas. Não é possível modificar essas configurações para buckets de diretório. Para obter mais informações sobre como bloquear o acesso público, consulte [Bloquear o acesso público ao armazenamento do Amazon S3](access-control-block-public-access.md).

1. Para configurar a criptografia padrão, em **Tipo de criptografia**, selecione uma das seguintes opções: 
   + **Criptografia do lado do servidor com chave gerenciada pelo Amazon S3 (SSE-S3)**
   + **Criptografia do lado do servidor com chave do AWS Key Management Service (SSE-KMS)**

   Para obter mais informações sobre como usar a criptografia no lado do servidor do Amazon S3 para criptografar seus dados, consulte [Proteção e criptografia de dados](s3-express-data-protection.md).
**Importante**  
Se você usar a opção SSE-KMS em sua configuração de criptografia padrão, estará sujeito à cota de solicitações por segundo (RPS) do AWS KMS. Para obter mais informações sobre as cotas do AWS KMS e como solicitar um aumento de cota, consulte [Cotas](https://docs.aws.amazon.com/kms/latest/developerguide/limits.html) no *Guia do desenvolvedor do AWS Key Management Service*.  
Ao habilitar a criptografia padrão, poderá ser necessário atualizar a política de bucket. Para obter mais informações, consulte [Usar criptografia SSE-KMS para operações entre contas](bucket-encryption.md#bucket-encryption-update-bucket-policy).

1. Se você escolher **Criptografia do lado do servidor com chaves gerenciadas pelo Amazon S3 (SSE-S3)**, aparecerá **Habilitado** em **Chave do bucket**. As chaves de bucket do S3 são sempre habilitadas quando você configura o bucket de diretório para usar a criptografia padrão com SSE-S3. As chaves de bucket do S3 estão sempre habilitadas para operações `GET` e `PUT` em um bucket de diretório e não podem ser desabilitadas. Não são aceitas chaves de bucket do S3 quando você copia objetos criptografados por SSE-KMS de buckets de uso geral para buckets de diretório, de buckets de diretório para buckets de uso geral ou entre buckets de diretório, por meio de [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html), de [https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html), [da operação Copy em Operações em Lote](directory-buckets-objects-Batch-Ops.md) ou [de trabalhos de import](create-import-job.md). Nesse caso, o Amazon S3 faz uma chamada para o AWS KMS sempre que uma solicitação de cópia é feita para um objeto criptografado pelo KMS.

   As chaves de bucket do S3 diminuem o custo de criptografia reduzindo o tráfego de solicitações do Amazon S3 para o AWS KMS. Para obter mais informações, consulte [Redução do custo do SSE-KMS com chaves de bucket do Amazon S3](bucket-key.md).

1. Se você escolher **Criptografia do lado do servidor com chave do AWS Key Management Service (SSE-KMS)**, em **Chave do AWS KMS**, especifique uma chave do AWS Key Management Service de uma das maneiras a seguir ou crie uma chave.
   + Para escolher uma chave do KMS na lista disponível, selecione **Escolher entre suas AWS KMS keys** e escolha sua **Chave do KMS** em **AWS KMS keys disponíveis**.

     Somente as suas chaves gerenciadas pelo cliente são exibidas nessa lista. Não é possível usar o Chave gerenciada pela AWS (`aws/s3`) em buckets de diretório. Para ter mais informações sobre chaves gerenciadas pelo cliente, consulte [Chaves de clientes e chaves da AWS](https://docs.aws.amazon.com//kms/latest/developerguide/concepts.html#key-mgmt) no *Guia do desenvolvedor do AWS Key Management Service*.
   + Para inserir o ARN ou o alias da chave do KMS, escolha **Inserir ARN da AWS KMS key** e insira o ARN ou o alias da chave do KMS em **ARN da AWS KMS key**. 
   + Para criar uma chave gerenciada pelo cliente no console do AWS KMS, selecione **Criar uma chave do KMS**.

     Para ter mais informações sobre como criar uma AWS KMS key, consulte [Criação de chaves](https://docs.aws.amazon.com//kms/latest/developerguide/create-keys.html) no * Guia do desenvolvedor do AWS Key Management Service*.
**Importante**  
A configuração de SSE-KMS só comporta uma [chave gerenciada pelo cliente](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#customer-cmk) por bucket de diretório durante a vida útil do bucket. Não há suporte para [https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#aws-managed-cmk](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#aws-managed-cmk) (`aws/s3`). Além disso, depois que você especifica uma chave gerenciada pelo cliente para SSE-KMS, não é possível substituí-la pela configuração de SSE-KMS do bucket.  
É possível identificar a chave gerenciada pelo cliente que você especificou para a configuração SSE-KMS do bucket, da seguinte forma:  
Faça uma solicitação de operação de API `HeadObject` para encontrar o valor de `x-amz-server-side-encryption-aws-kms-key-id` em sua resposta.
Para usar uma nova chave gerenciada pelo cliente em seus dados, recomendamos copiar os objetos existentes em um novo bucket de diretório com uma nova chave gerenciada pelo cliente.
Você só pode usar chaves do KMS disponíveis na mesma Região da AWS que o bucket. O console do Amazon S3 lista somente as primeiras 100 chaves do KMS na mesma região que o bucket. Para usar uma chave do KMS que não esteja listada, você deve inserir o ARN da chave do KMS. Se quiser usar uma chave do KMS que seja de propriedade de outra conta, primeiro você deverá ter permissão para usar a chave e, depois, inserir o ARN da chave do KMS. Para obter mais informações sobre permissões entre contas para chaves do KMS, consulte [Criar chaves do KMS que outras contas podem usar](https://docs.aws.amazon.com//kms/latest/developerguide/key-policy-modifying-external-accounts.html#cross-account-console) no *Guia do desenvolvedor do AWS Key Management Service*. Para obter mais informações sobre a SSE-KMS, consulte [Especificar a criptografia do lado do servidor com o AWS KMS (SSE-KMS) para novos uploads de objetos em buckets de diretório](s3-express-specifying-kms-encryption.md).
Ao usar uma AWS KMS key para criptografia do lado do servidor em buckets de diretório, você deve escolher uma chave de criptografia do KMS simétrica. O Amazon S3 só é compatível com chaves do KMS de criptografia simétrica, e não com chaves assimétricas do KMS. Para ter mais informações, consulte [Identificar chaves do KMS simétricas e assimétricas](https://docs.aws.amazon.com//kms/latest/developerguide/find-symm-asymm.html) no *Guia do desenvolvedor do AWS Key Management Service*.

   Para obter mais informações sobre como usar o AWS KMS com o Amazon S3, consulte [Usar a criptografia do lado do servidor com chaves do AWS KMS (SSE-KMS) em buckets de diretório](s3-express-UsingKMSEncryption.md).

1. Selecione **Criar bucket**. Depois de criar o bucket, você pode adicionar arquivos e pastas a ele. Para obter mais informações, consulte [Trabalhar com objetos em um bucket de diretório](directory-buckets-objects.md).

# Etapa 3: importar dados para um bucket de diretório da classe S3 Express One Zone
<a name="s3-express-tutorial-Import"></a>

Para concluir essa etapa, é necessário ter um bucket de uso geral que contenha objetos e esteja localizado na mesma Região da AWS que o bucket de diretório.

Depois de criar um bucket de diretório no Amazon S3, é possível preencher o novo bucket com dados usando a ação Importar no console do Amazon S3. A importação simplifica a cópia de dados em buckets de diretório, permitindo que você escolha um prefixo ou um bucket de uso geral para importar dados sem precisar especificar todos os objetos a serem copiados individualmente. A importação usa o S3 Batch Operations, que copia os objetos no prefixo selecionado ou no bucket de uso geral. É possível monitorar o andamento do trabalho de importação de cópias por meio da página de detalhes do trabalho do S3 Batch Operations. 

**Como usar a ação Importar**

1. Faça login no Console de gerenciamento da AWS e abra o console do Amazon S3 em [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Na barra de navegação na parte superior da página, escolha o nome da Região da AWS exibida no momento. Depois, escolha a região associada à Zona de Disponibilidade na qual o bucket de diretório está localizado. 

1. No painel de navegação à esquerda, escolha **Buckets de diretórios**.

1. Selecione o botão de opções ao lado do nome do bucket para o qual você deseja importar objetos.

1. Escolha **Importar**.

1. Em **Origem**, insira o bucket de uso geral (ou o caminho do bucket com o prefixo) que contém os objetos que você deseja importar. Para escolher um bucket de uso geral existente em uma lista, selecione **Procurar no S3**.

1.  Na seção **Permissões**, é possível optar por gerar automaticamente um perfil do IAM. Como alternativa, é possível selecionar um perfil do IAM em uma lista ou inserir diretamente um ARN do perfil do IAM. 
   + Para permitir que o Amazon S3 crie um perfil do IAM em seu nome, escolha **Criar perfil do IAM**.
**nota**  
Se os objetos da origem estiverem criptografados com criptografia do lado do servidor com chaves do AWS Key Management Service (AWS KMS) (SSE-KMS), não escolha a opção **Criar perfil do IAM**. Em vez disso, especifique um perfil do IAM existente que tenha a permissão `kms:Decrypt`.  
O Amazon S3 usará essa permissão para descriptografar os objetos. Durante o processo de importação, o Amazon S3 recriptografará esses objetos usando criptografia do lado do servidor com chaves gerenciadas pelo Amazon S3 (SSE-S3).
   + Para escolher um perfil do IAM existente em uma lista, escolha **Escolher entre perfis do IAM existentes**.
   + Para especificar um perfil do IAM existente inserindo o nome do recurso da Amazon (ARN), escolha **Inserir ARN do perfil do IAM** e insira o ARN no campo correspondente.

1. Revise as informações exibidas nas seções **Destino** e **Configurações do objeto copiado**. Se as informações na seção **Destino** estiverem corretas, escolha **Importar** para iniciar o trabalho de cópia.

   O console do Amazon S3 exibirá o status do novo trabalho na página **Operações em lotes**. Para obter mais informações sobre o trabalho, escolha o botão de opções ao lado do nome do trabalho e selecione **Visualizar detalhes** no menu **Ações**. Para abrir o bucket de diretório para o qual os objetos serão importados, escolha **Exibir destino de importação**.

# Etapa 4: fazer upload manual de objetos no bucket de diretório da classe S3 Express One Zone
<a name="s3-express-tutorial-Upload"></a>

Também é possível fazer upload manual de objetos para o bucket de diretório.

**Como fazer upload de objetos manualmente**

1. Faça login no Console de gerenciamento da AWS e abra o console do Amazon S3 em [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Na barra de navegação no canto superior direito da página, escolha o nome da Região da AWS exibida no momento. Depois, escolha a região associada à Zona de Disponibilidade na qual o bucket de diretório está localizado. 

1. No painel de navegação à esquerda, escolha **Buckets de diretórios**.

1. Escolha o nome do bucket no qual você deseja fazer upload de pastas ou arquivos. 
**nota**  
 Se você escolher o mesmo bucket de diretório usado nas etapas anteriores deste tutorial, o bucket de diretório conterá os objetos que foram carregados da ferramenta de importação. Observe que esses objetos agora estão armazenados na classe de armazenamento S3 Express One Zone. 

1. Na guia **Objetos**, escolha **Fazer upload**.

1. Na página **Fazer upload**, execute uma das seguintes ações: 
   + Arraste e solte arquivos e pastas para a área de upload tracejada.
   + Escolha **Adicionar arquivos** ou **Adicionar pasta**, selecione os arquivos ou as pastas que deseja carregar e escolha **Abrir** ou **Fazer upload**.

1. Em **Checksums**, escolha a **Função de soma de verificação** que deseja usar. 
**nota**  
 Recomendamos usar CRC32 e CRC32C para obter a melhor performance com a classe de armazenamento S3 Express One Zone. Para ter mais informações, consulte as [Práticas recomendadas adicionais de checksum do S3](https://docs.aws.amazon.com//AmazonS3/latest/userguide/s3-express-optimizing-performance-design-patterns.html#s3-express-optimizing--checksums.html). 

   (Opcional) Se você estiver fazendo upload de um único objeto com menos de 16 MB, também poderá especificar um valor de checksum pré-calculado. Ao fornecer um valor pré-calculado, o Amazon S3 compara esse valor com o valor calculado usando a função de checksum selecionada. Se os valores não corresponderem, o upload não será iniciado. 

1. As opções nas seções **Permissões** e **Propriedades** são definidas automaticamente com as configurações padrão e não podem ser modificadas. A funcionalidade Bloqueio de Acesso Público é habilitada automaticamente, e as funcionalidades Versionamento do S3 e Bloqueio de Objetos do S3 não podem ser habilitadas para buckets de diretório. 

   (Opcional) Se você quiser adicionar metadados em pares de chave e valor aos objetos, expanda a seção **Propriedades** e escolha **Adicionar metadados** na seção **Metadados**.

1. Para fazer upload das pastas e dos arquivos listados, escolha **Fazer upload**.

   O Amazon S3 faz o upload de seus objetos e pastas. Quando o upload for concluído, você verá uma mensagem de sucesso na página **Upload: status**.

    Você criou com êxito um bucket de diretório e fez upload de objetos para o bucket. 

# Etapa 5: esvaziar um bucket de diretório da classe S3 Express One Zone
<a name="s3-express-tutoiral-Empty"></a>

É possível esvaziar um bucket de diretório do Amazon S3 usando o console do Amazon S3.

**Como esvaziar um bucket de diretório**

1. Faça login no Console de gerenciamento da AWS e abra o console do Amazon S3 em [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Na barra de navegação no canto superior direito da página, escolha o nome da Região da AWS exibida no momento. Depois, escolha a região associada à Zona de Disponibilidade na qual o bucket de diretório está localizado. 

1. No painel de navegação à esquerda, escolha **Buckets de diretórios**.

1. Escolha o botão de opções ao lado do nome do bucket que você deseja esvaziar, depois selecione **Esvaziar**.

1. Na página **Empty bucket** (Esvaziar bucket), confirme se deseja esvaziar o bucket inserindo **permanently delete** no campo de texto e depois escolha **Empty** (Esvaziar).

1. Monitore o andamento do processo de esvaziamento do bucket na página **Bucket vazio: status**.

# Etapa 6: excluir um bucket de diretório da classe S3 Express One Zone
<a name="s3-express-tutoiral-Delete"></a>

Depois de esvaziar o bucket de diretório e interromper todos os uploads multiparte em andamento, você poderá excluir o bucket usando o console do Amazon S3.

**Como excluir um bucket de diretório**

1. Faça login no Console de gerenciamento da AWS e abra o console do Amazon S3 em [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Na barra de navegação no canto superior direito da página, escolha o nome da Região da AWS exibida no momento. Depois, escolha a região associada à Zona de Disponibilidade na qual o bucket de diretório está localizado. 

1. No painel de navegação à esquerda, escolha **Buckets de diretórios**.

1. Na lista **Buckets de diretório**, escolha o botão de opções ao lado do bucket que você deseja excluir.

1. Escolha **Excluir**.

1. Na página **Excluir bucket**, insira o nome do bucket no campo de texto para confirmar a exclusão do bucket. 
**Importante**  
Não é possível desfazer a exclusão de um bucket.

1. Para excluir um bucket de diretório, escolha **Excluir bucket**.

## Próximas etapas
<a name="s3-express-tutoiral-Next"></a>

Neste tutorial, você aprendeu a criar um bucket de diretório e usar a classe de armazenamento S3 Express One Zone. Depois de concluir este tutorial, você poderá explorar os serviços da AWS relacionados a serem usados com a classe de armazenamento S3 Express One Zone.

Você pode usar os seguintes Serviços da AWS com a classe de armazenamento S3 Express One Zone para oferecer suporte ao seu caso de uso específico de baixa latência.
+ [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/ec2/index.html): o Amazon EC2 oferece capacidade de computação segura e escalável na Nuvem AWS. O uso do Amazon EC2 reduz a necessidade de investimento antecipado em hardware. Por isso, você pode desenvolver e implantar aplicações com maior rapidez. É possível usar o Amazon EC2 para executar quantos servidores virtuais forem necessários, configurar a segurança e as redes e gerenciar o armazenamento.
+ [AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/welcome.html.html) – o Lambda é um serviço de computação que permite que você execute o código sem provisionar ou gerenciar servidores. Você define as configurações de notificação em um bucket e concede permissão ao Amazon S3 para invocar uma função na política de permissões baseada em recursos da função. 
+ [Amazon Elastic Kubernetes Service (Amazon EKS)](https://docs.aws.amazon.com/eks/latest/userguide/what-is-eks.html): o Amazon EKS é um serviço gerenciado que elimina a necessidade de instalar, operar e manter o seu próprio ambiente de gerenciamento do Kubernetes na AWS. O [https://kubernetes.io/docs/concepts/overview/](https://kubernetes.io/docs/concepts/overview/) é um sistema de código aberto que automatiza o gerenciamento, a escalação e a implantação de aplicações conteinerizadas.
+ [Amazon Elastic Container Service (Amazon ECS)](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/Welcome.html): o Amazon ECS é um serviço totalmente gerenciado de orquestração de contêineres que ajuda a implantar, gerenciar e dimensionar facilmente aplicações em contêineres.
+ [Amazon EMR](https://docs.aws.amazon.com//emr/latest/ManagementGuide/emr-express-one-zone.html): o Amazon EMR é uma plataforma de cluster gerenciada que simplifica a execução de frameworks de big data, como Apache Hadoop e Apache Spark, na AWS a fim de processar e analisar grandes volumes de dados. 
+ [Amazon Athena](https://docs.aws.amazon.com//athena/latest/ug/querying-express-one-zone.html): o Athena é um serviço de consultas interativas que facilita a análise de dados no Amazon S3 usando [SQL](https://docs.aws.amazon.com/athena/latest/ug/ddl-sql-reference.html) padrão. Você também pode usar o Athena para executar análises de dados de maneira interativa usando o Apache Spark sem a necessidade de planejamento, configuração ou gerenciamento de recursos. Ao executar aplicações do Apache Spark no Athena, você envia o código Spark para processamento e recebe os resultados de forma direta.
+ [AWS Glue Data Catalog](https://docs.aws.amazon.com//glue/latest/dg/catalog-and-crawler.html): o AWS Glue é um serviço de integração de dados sem servidor que facilita aos usuários de analytics a descoberta, a preparação, a transferência e a integração de dados de várias fontes. É possível usar o AWS Glue para analytics, machine learning e desenvolvimento de aplicações. AWS O Glue Data Catalog é um repositório centralizado que armazena metadados sobre os conjuntos de dados da sua organização. Ele funciona como um índice para métricas de localização, esquema e runtime das fontes de dados. 
+ [Treinamento de modelos do Amazon SageMaker Runtime](https://docs.aws.amazon.com//sagemaker/latest/dg/model-access-training-data.html): o Amazon SageMaker Runtime é um serviço de machine learning totalmente gerenciado. Com o SageMaker Runtime, cientistas de dados e desenvolvedores podem criar e treinar modelos de machine learning com rapidez e facilidade, depois implantá-los diretamente em um ambiente hospedado pronto para produção.

 Para ter mais informações sobre a classe S3 Express One Zone, consulte [O que é a classe S3 Express One Zone?](https://docs.aws.amazon.com//AmazonS3/latest/userguide/s3-express-one-zone.html) e [O que diferencia a classe S3 Express One Zone?](https://docs.aws.amazon.com//AmazonS3/latest/userguide/s3-express-differences.html)

# Zonas de disponibilidade e regiões da classe S3 Express One Zone
<a name="s3-express-Endpoints"></a>

Uma zona de disponibilidade é um ou mais datacenters discretos com energia, redes e conectividade redundantes em uma Região da AWS. Para otimizar as recuperações de baixa latência, os objetos na classe de armazenamento Amazon S3 Express One Zone são armazenados de forma redundante em buckets de diretório do S3 em uma única zona de disponibilidade que seja local para sua workload computacional. Ao criar um bucket de diretório, escolha a zona de disponibilidade e a Região da AWS em que o bucket ficará localizado. 

A AWS mapeia as zonas de disponibilidade físicas aleatoriamente em relação aos nomes das zonas de disponibilidade para cada Conta da AWS. Essa abordagem ajuda a distribuir recursos pelas zonas de disponibilidade em uma Região da AWS, em vez de os recursos provavelmente ficarem concentrados na primeira zona de disponibilidade de cada região. Como resultado, a zona de disponibilidade `us-east-1a` para sua Conta da AWS pode não representar a mesma localização física que `us-east-1a` para outra Conta da AWS. Para obter mais informações, consulte [Regiões e Zonas de Disponibilidade](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-regions-availability-zones.html) no *Guia do usuário do Amazon EC2*.

Para coordenar as zonas de disponibilidade entre contas, use o *ID da AZ* que é um identificador exclusivo e consistente para uma zona de disponibilidade. Por exemplo, `use1-az1` é um ID de AZ para a região `us-east-1` e tem o mesmo local físico em cada Conta da AWS. A ilustração a seguir mostra como os IDs da AZ são os mesmos para todas as contas, embora os nomes das zonas de disponibilidade possam ser mapeados de forma diferente para cada conta.

![\[Ilustração mostrando mapeamento de zonas de disponibilidade e regiões.\]](http://docs.aws.amazon.com/pt_br/AmazonS3/latest/userguide/images/availability-zone-mapping.png)


Com a classe S3 Express One Zone, os dados são armazenados de forma redundante em vários dispositivos dentro de uma única zona de disponibilidade. A classe S3 Express One Zone foi projetada para oferecer disponibilidade de 99,95% em uma única zona de disponibilidade e tem o respaldo do [Acordo de Serviço do Amazon S3](https://aws.amazon.com/s3/sla/). Para obter mais informações, consulte . [Zonas de disponibilidade](directory-bucket-high-performance.md#s3-express-overview-az)

 A tabela a seguir mostra as regiões e zonas de disponibilidade compatíveis com o S3 Express One Zone. 

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/AmazonS3/latest/userguide/s3-express-Endpoints.html)

# Rede para buckets de diretório em uma zona de disponibilidade
<a name="directory-bucket-az-networking"></a>

Para reduzir o tempo que os pacotes permanecem na rede, configure a nuvem privada virtual (VPC) com um endpoint de gateway para acessar buckets de diretório em zonas de disponibilidade e, ao mesmo tempo, manter o tráfego na rede da AWS sem custo adicional.

**Topics**
+ [Endpoints de buckets de diretório em zonas de disponibilidade](#s3-express-endpoints-az)
+ [Configurar endpoints de gateway da VPC](#s3-express-networking-vpc-gateway)

## Endpoints de buckets de diretório em zonas de disponibilidade
<a name="s3-express-endpoints-az"></a>

A tabela a seguir mostra os endpoints de API regionais e zonais que estão disponíveis para cada região e zona de disponibilidade.


| Nome da região | Região | IDs de zona de disponibilidade | Endpoint regional | Endpoint zonal | 
| --- | --- | --- | --- | --- | 
|  Leste dos EUA (Norte da Virgínia)  |  `us-east-1`  |  `use1-az4` `use1-az5` `use1-az6`  |  `s3express-control.us-east-1.amazonaws.com` `s3express-control-dualstack.us-east-1.amazonaws.com `  |  `s3express-use1-az4.us-east-1.amazonaws.com` `s3express-use1-az4.dualstack.us-east-1.amazonaws.com` `s3express-use1-az5.us-east-1.amazonaws.com` `s3express-use1-az5.dualstack.us-east-1.amazonaws.com` `s3express-use1-az6.us-east-1.amazonaws.com` `s3express-use1-az6.dualstack.us-east-1.amazonaws.com`  | 
|  Leste dos EUA (Ohio)  |  `us-east-2`  |  `use2-az1` `use2-az2`  |  `s3express-control.us-east-2.amazonaws.com` `s3express-control-dualstack.us-east-2.amazonaws.com`  |  `s3express-use2-az1.us-east-2.amazonaws.com` `s3express-use2-az1.dualstack.us-east-2.amazonaws.com` `s3express-use2-az2.us-east-2.amazonaws.com` `s3express-use2-az2.dualstack.us-east-2.amazonaws.com`  | 
|  Oeste dos EUA (Oregon)  |  `us-west-2`  |  `usw2-az1` `usw2-az3` `usw2-az4`  |  `s3express-control.us-west-2.amazonaws.com` `s3express-control-dualstack.us-west-2.amazonaws.com`  |  `s3express-usw2-az1.us-west-2.amazonaws.com` `s3express-usw2-az1.dualstack.us-west-2.amazonaws.com` `s3express-usw2-az3.us-west-2.amazonaws.com` `s3express-usw2-az3.dualstack.us-west-2.amazonaws.com` `s3express-usw2-az4.us-west-2.amazonaws.com` `s3express-usw2-az4.dualstack.us-west-2.amazonaws.com`  | 
|  Ásia-Pacífico (Mumbai)  |  `ap-south-1`  |  `aps1-az1` `aps1-az3`  |  `s3express-control.ap-south-1.amazonaws.com` `s3express-control-dualstack.ap-south-1.amazonaws.com`  |  `s3express-aps1-az1.ap-south-1.amazonaws.com` `s3express-aps1-az1.dualstack.ap-south-1.amazonaws.com` `s3express-aps1-az3.ap-south-1.amazonaws.com` `s3express-aps1-az3.dualstack.ap-south-1.amazonaws.com`  | 
|  Ásia-Pacífico (Tóquio)  |  `ap-northeast-1`  |  `apne1-az1` `apne1-az4`  |  `s3express-control.ap-northeast-1.amazonaws.com` `s3express-control-dualstack.ap-northeast-1.amazonaws.com`  |  `s3express-apne1-az1.ap-northeast-1.amazonaws.com` `s3express-apne1-az1.dualstack.ap-northeast-1.amazonaws.com` `s3express-apne1-az4.ap-northeast-1.amazonaws.com` `s3express-apne1-az4.dualstack.ap-northeast-1.amazonaws.com`  | 
|  Europa (Irlanda)  |  `eu-west-1`  |  `euw1-az1` `euw1-az3`  |  `s3express-control.eu-west-1.amazonaws.com` `s3express-control-dualstack.eu-west-1.amazonaws.com`  |  `s3express-euw1-az1.eu-west-1.amazonaws.com` `s3express-euw1-az1.dualstack.eu-west-1.amazonaws.com` `s3express-euw1-az3.eu-west-1.amazonaws.com` `s3express-euw1-az3.dualstack.eu-west-1.amazonaws.com`  | 
|  Europa (Estocolmo)  |  `eu-north-1`  |  `eun1-az1` `eun1-az2` `eun1-az3`  |  `s3express-control.eu-north-1.amazonaws.com` `s3express-control-dualstack.eu-north-1.amazonaws.com`  |  `s3express-eun1-az1.eu-north-1.amazonaws.com` `s3express-eun1-az1.dualstack.eu-north-1.amazonaws.com` `s3express-eun1-az2.eu-north-1.amazonaws.com` `s3express-eun1-az2.dualstack.eu-north-1.amazonaws.com` `s3express-eun1-az3.eu-north-1.amazonaws.com` `s3express-eun1-az3.dualstack.eu-north-1.amazonaws.com`  | 

## Configurar endpoints de gateway da VPC
<a name="s3-express-networking-vpc-gateway"></a>

Use o procedimento a seguir para criar um endpoint de gateway que se conecte aos objetos da classe de armazenamento Amazon S3 Express One Zone e aos buckets de diretório.

**Como configurar um endpoint da VPC do gateway**

1. Abra o [console da Amazon VPC](https://console.aws.amazon.com/vpc/). 

1. No painel de navegação, escolha **Endpoints**.

1. Escolha **Criar endpoint**.

1. Crie um nome para o endpoint.

1. Em **Service category** (Categoria de serviço), escolha **Serviços da AWS**. 

1. Em **Serviços**, adicione o filtro **Tipo=Gateway** e escolha o botão de opções ao lado de **com.amazonaws.*região*.s3express**. 

1. Em **VPC**, escolha a VPC na qual deseja criar o endpoint.

1. Em **Tabelas de rotas**, selecione as tabelas de rotas em sua VPC a serem usadas pelo endpoint. Depois que o endpoint for criado, um registro de rota será adicionado à tabela de rotas selecionada nesta etapa.

1. Em **Política**, escolha **Acesso total** para permitir todas as operações de todas as entidades principais em todos os recursos no endpoint da VPC. Como alternativa, escolha **Personalizado** para anexar uma política de endpoint da VPC que controle as permissões das entidades principais para realizar ações em recursos pelo endpoint da VPC.

1. Em **IP address type** (Tipo de endereço IP), escolha uma das seguintes opções:
   +  **IPv4**: atribua endereços IPv4 às interfaces de rede de endpoint. Só haverá suporte para esta opção se todas as sub-redes selecionadas tiverem intervalos de endereços IPv4 e o serviço aceitar solicitações de IPv4. 
   +  **IPv6**: atribua endereços IPv6 às interfaces de rede de endpoint. Só haverá suporte para esta opção se todas as sub-redes selecionadas tiverem intervalos de endereços IPv6 e o serviço aceitar solicitações de IPv6.
   +  **Pilha dupla**: atribua endereços IPv4 e IPv6 às interfaces de rede de endpoint. Só haverá suporte para esta opção se todas as sub-redes selecionadas tiverem intervalos de ambos os endereços IPv4 e IPv6 e o serviço aceitar solicitações de ambos IPv4 e IPv6.

1. (Opcional) Para adicionar uma etiqueta, escolha **Adicionar nova tag** e insira a chave e o valor da etiqueta.

1. Escolha **Criar endpoint**.

Depois de criar um endpoint de gateway, você pode usar endpoints de API regionais e endpoints de API zonais para acessar objetos da classe de armazenamento Amazon S3 Express One Zone e buckets de diretório.

Para saber mais sobre endpoints da VPC de gateway, consulte [Gateway endpoints](https://docs.aws.amazon.com/vpc/latest/privatelink/gateway-endpoints.html) no *Guia do usuário do AWS PrivateLink*. Para os casos de uso de residência de dados, recomendamos habilitar o acesso aos buckets somente por meio da VPC usando os endpoints da VPC de gateway. Quando o acesso é restrito a uma VPC ou a um endpoint da VPC, você pode acessar os objetos por meio do Console de gerenciamento da AWS, da API REST, da AWS CLI e dos AWS SDKs.

**nota**  
Para restringir o acesso a uma VPC ou a um endpoint da VPC usando o Console de gerenciamento da AWS, você deve usar o acesso privado do Console de gerenciamento da AWS. Para ter mais informações, consulte [Acesso privado ao Console de gerenciamento da AWS](https://docs.aws.amazon.com/awsconsolehelpdocs/latest/gsg/console-private-access.html) no *Guia do Console de gerenciamento da AWS*Guia do Console de gerenciamento da AWS.

# Criar buckets de diretório em uma zona de disponibilidade
<a name="directory-bucket-create"></a>

Para começar a usar a classe de armazenamento Amazon S3 Express One Zone, crie um bucket de diretório. A classe de armazenamento S3 Express One Zone só pode ser usada com buckets de diretório. A classe de armazenamento S3 Express One Zone oferece suporte a casos de uso de baixa latência e fornece processamento de dados mais rápido em uma única zona de disponibilidade. Se sua aplicação é sensível à performance e se beneficia de latências inferiores a dez milissegundos para `PUT` e `GET`, recomendamos criar um bucket de diretório para que possa usar a classe de armazenamento S3 Express One Zone.

Há dois tipos de buckets do Amazon S3: buckets de uso geral e buckets de diretório. Você deve escolher o tipo de bucket que melhor se adapte aos requisitos de desempenho e da aplicação. Os buckets de uso geral são o tipo original de bucket do S3. Os buckets de uso geral são recomendados para a maioria dos casos de uso e padrões de acesso, permitindo que objetos sejam armazenados em todas as classes de armazenamento, exceto na classe S3 Express One Zone. Para obter mais informações sobre os buckets de uso geral, consulte [Visão geral dos buckets de uso geral](UsingBucket.md).

Os buckets de diretório usam a classe de armazenamento S3 Express One Zone, projetada para workloads ou aplicações de performance crítica que exigem latência consistente inferior a dez milissegundos. S3 Express One Zone é a primeira classe de armazenamento do S3 em que é possível selecionar uma única zona de disponibilidade com a opção de manter o armazenamento de objetos e os recursos de computação na mesma localização, o que fornece a maior velocidade de acesso possível. Ao criar um bucket de diretório, você tem a opção de especificar uma Região da AWS e uma zona de disponibilidade que seja local para suas instâncias computacionais do Amazon EC2, do Amazon Elastic Kubernetes Service ou do Amazon Elastic Container Service (Amazon ECS) a fim de otimizar a performance.

Com a classe S3 Express One Zone, os dados são armazenados de forma redundante em vários dispositivos dentro de uma única zona de disponibilidade. A classe S3 Express One Zone foi projetada para oferecer disponibilidade de 99,95% em uma única zona de disponibilidade e tem o respaldo do [Acordo de Serviço do Amazon S3](https://aws.amazon.com/s3/sla/). Para obter mais informações, consulte . [Zonas de disponibilidade](directory-bucket-high-performance.md#s3-express-overview-az)

Os buckets de diretório organizam os dados de forma hierárquica em diretórios, ao contrário da estrutura de armazenamento plana dos buckets de uso geral. Não há limites de prefixo para os buckets de diretório, e diretórios individuais podem ser escalados horizontalmente. 

Para obter mais informações sobre os buckets de diretório, consulte [Trabalhar com buckets de diretório](directory-buckets-overview.md).

**Nomes de bucket de diretório**  
Os nomes de bucket de diretório devem seguir o seguinte formato e estar em conformidade com as regras de nomenclatura para buckets de diretório:

```
bucket-base-name--zone-id--x-s3
```

Por exemplo, o seguinte nome de bucket de diretório contém o ID da zona de disponibilidade `usw2-az1`:

```
bucket-base-name--usw2-az1--x-s3
```

Para obter mais informações sobre as regras de nomenclatura para buckets de diretório, consulte [Regras de nomenclatura de buckets de diretório](directory-bucket-naming-rules.md).

## Usar o console do S3
<a name="create-directory-bucket-console"></a>

1. Faça login no Console de gerenciamento da AWS e abra o console do Amazon S3 em [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Na barra de navegação na parte superior da página, escolha o nome da Região da AWS exibida no momento. Em seguida, escolha a região na qual você deseja criar um bucket. 
**nota**  
Para reduzir a latência e os custos e atender aos requisitos regulatórios, selecione uma região perto de você. Os objetos armazenados em uma região nunca saem dessa região, a menos que você os transfira para outra região. Para obter uma lista de Regiões da AWS do Amazon S3, consulte [Endpoints de AWS service (Serviço da AWS)](https://docs.aws.amazon.com/general/latest/gr/rande.html#s3_region) no *Referência geral da Amazon Web Services*.

1. No painel de navegação à esquerda, escolha **Buckets de diretórios**.

1. Selecione **Create bucket (Criar bucket)**. A página **Create bucket** (Criar bucket) é aberta.

1. Em **Configuração geral**, visualize a Região da AWS onde o bucket será criado. 

   Em **Tipo de bucket**, escolha **Diretório**.
**nota**  
Se você escolher uma região que não oferece suporte a buckets de diretório, a opção **Tipo de bucket** desaparecerá e o tipo de bucket assumirá um bucket de uso geral como padrão. Para criar um bucket de diretório, escolha uma região compatível. Para obter uma lista de regiões que oferecem suporte a buckets de diretório e à classe de armazenamento Amazon S3 Express One Zone, consulte [Zonas de disponibilidade e regiões da classe S3 Express One Zone](s3-express-Endpoints.md).
Depois de criar o bucket, não será possível alterar o tipo.
**nota**  
A zona de disponibilidade não poderá ser alterada após a criação do bucket. 

1. Em **Zona de disponibilidade**, escolha uma zona de disponibilidade que seja local para os seus serviços de computação. Para obter uma lista de zonas de disponibilidade que oferecem suporte a buckets de diretório e à classe de armazenamento S3 Express One Zone, consulte [Zonas de disponibilidade e regiões da classe S3 Express One Zone](s3-express-Endpoints.md). 

   Em **Zona de disponibilidade**, marque a caixa de seleção para indicar que, em caso de interrupção na zona de disponibilidade, seus dados poderão ficar indisponíveis ou ser perdidos. 
**Importante**  
Embora os buckets de diretório sejam armazenados em vários dispositivos dentro de uma única zona de disponibilidade, eles não armazenam dados de forma redundante entre zonas de disponibilidade.

1. Em **Nome do bucket**, insira um nome para o bucket de diretório.

   As regras de nomenclatura a seguir se aplicam a buckets de diretório.
   + O nome deve ser exclusivo na zona escolhida (zona de disponibilidade da AWS ou zona local da AWS). 
   + O nome deve ter entre 3 (mín.) e 63 (máx.) caracteres, incluindo o sufixo.
   + Consistir em letras minúsculas, números e hifens (-).
   + Inicie e termine com uma letra ou um número. 
   + Deve incluir o seguinte sufixo: `--zone-id--x-s3`.
   + O nome do bucket não deve iniciar com o prefixo `xn--`.
   + O nome do bucket não deve iniciar com o prefixo `sthree-`.
   + O nome do bucket não deve iniciar com o prefixo `sthree-configurator`.
   + O nome do bucket não deve iniciar com o prefixo ` amzn-s3-demo-`.
   + Os nomes de bucket não podem terminar com o sufixo `-s3alias`. Esse sufixo se reserva a nomes de alias de ponto de acesso. Para obter mais informações, consulte [Alias de ponto de acesso](access-points-naming.md#access-points-alias).
   + Os nomes de bucket não podem terminar com o sufixo `--ol-s3`. Esse sufixo é reservado a nomes de alias de ponto de acesso de objeto do Lambda. Para obter mais informações, consulte [Como usar um alias no estilo do bucket para o ponto de acesso do Object Lambda do bucket do S3](olap-use.md#ol-access-points-alias).
   + Os nomes de bucket não podem terminar com o sufixo `.mrap`. Esse sufixo é reservado para nomes de ponto de acesso de várias regiões. Para obter mais informações, consulte [Regras para nomear pontos de acesso multirregionais do Amazon S3](multi-region-access-point-naming.md).

   Um sufixo é adicionado automaticamente ao nome de base que você fornece ao criar um bucket de diretório usando o console. Esse sufixo inclui o ID da zona de disponibilidade que você escolheu.

   Depois de criado o bucket, você não pode mudar seu nome. Para obter mais informações sobre como nomear buckets, consulte [Regras de nomenclatura de buckets de uso geral](bucketnamingrules.md). 
**Importante**  
Não inclua informações confidenciais, como números de conta, no nome do bucket. O nome do bucket é visível nos URLs que apontam para os objetos no bucket.

1. Em **Propriedade do objeto**, a configuração **Imposto pelo proprietário do bucket** está habilitada automaticamente e todas as listas de controle de acesso (ACLs) estão desabilitadas. Para os buckets de diretório, não é possível habilitar ACLs. 

    **Imposto pelo proprietário do bucket (padrão)**: as ACLs são desabilitadas e o proprietário do bucket automaticamente tem propriedade e controle total sobre todos os objetos do bucket de uso geral. As ACLs não afetam mais as permissões de acesso aos dados no bucket de uso geral do S3. O bucket usa políticas exclusivamente para definir o controle de acesso.

1. Em **Configurações de bloqueio do acesso público deste bucket**, todas as configurações da funcionalidade Bloqueio de Acesso Público para o bucket de diretório estão automaticamente habilitadas. Não é possível modificar essas configurações para buckets de diretório. Para obter mais informações sobre como bloquear o acesso público, consulte [Bloquear o acesso público ao armazenamento do Amazon S3](access-control-block-public-access.md).

1. Para configurar a criptografia padrão, em **Tipo de criptografia**, selecione uma das seguintes opções: 
   + **Criptografia do lado do servidor com chave gerenciada pelo Amazon S3 (SSE-S3)**
   + **Criptografia do lado do servidor com chave do AWS Key Management Service (SSE-KMS)**

   Para obter mais informações sobre como usar a criptografia no lado do servidor do Amazon S3 para criptografar seus dados, consulte [Proteção e criptografia de dados](s3-express-data-protection.md).
**Importante**  
Se você usar a opção SSE-KMS em sua configuração de criptografia padrão, estará sujeito à cota de solicitações por segundo (RPS) do AWS KMS. Para obter mais informações sobre as cotas do AWS KMS e como solicitar um aumento de cota, consulte [Cotas](https://docs.aws.amazon.com/kms/latest/developerguide/limits.html) no *Guia do desenvolvedor do AWS Key Management Service*.  
Ao habilitar a criptografia padrão, poderá ser necessário atualizar a política de bucket. Para obter mais informações, consulte [Usar criptografia SSE-KMS para operações entre contas](bucket-encryption.md#bucket-encryption-update-bucket-policy).

1. Se você escolher **Criptografia do lado do servidor com chaves gerenciadas pelo Amazon S3 (SSE-S3)**, aparecerá **Habilitado** em **Chave do bucket**. As chaves de bucket do S3 são sempre habilitadas quando você configura o bucket de diretório para usar a criptografia padrão com SSE-S3. As chaves de bucket do S3 estão sempre habilitadas para operações `GET` e `PUT` em um bucket de diretório e não podem ser desabilitadas. Não são aceitas chaves de bucket do S3 quando você copia objetos criptografados por SSE-KMS de buckets de uso geral para buckets de diretório, de buckets de diretório para buckets de uso geral ou entre buckets de diretório, por meio de [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html), de [https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html), [da operação Copy em Operações em Lote](directory-buckets-objects-Batch-Ops.md) ou [de trabalhos de import](create-import-job.md). Nesse caso, o Amazon S3 faz uma chamada para o AWS KMS sempre que uma solicitação de cópia é feita para um objeto criptografado pelo KMS.

   As chaves de bucket do S3 diminuem o custo de criptografia reduzindo o tráfego de solicitações do Amazon S3 para o AWS KMS. Para obter mais informações, consulte [Redução do custo do SSE-KMS com chaves de bucket do Amazon S3](bucket-key.md).

1. Se você escolher **Criptografia do lado do servidor com chave do AWS Key Management Service (SSE-KMS)**, em **Chave do AWS KMS**, especifique uma chave do AWS Key Management Service de uma das maneiras a seguir ou crie uma chave.
   + Para escolher uma chave do KMS na lista disponível, selecione **Escolher entre suas AWS KMS keys** e escolha sua **Chave do KMS** em **AWS KMS keys disponíveis**.

     Somente as suas chaves gerenciadas pelo cliente são exibidas nessa lista. Não é possível usar o Chave gerenciada pela AWS (`aws/s3`) em buckets de diretório. Para ter mais informações sobre chaves gerenciadas pelo cliente, consulte [Chaves de clientes e chaves da AWS](https://docs.aws.amazon.com//kms/latest/developerguide/concepts.html#key-mgmt) no *Guia do desenvolvedor do AWS Key Management Service*.
   + Para inserir o ARN ou o alias da chave do KMS, escolha **Inserir ARN da AWS KMS key** e insira o ARN ou o alias da chave do KMS em **ARN da AWS KMS key**. 
   + Para criar uma chave gerenciada pelo cliente no console do AWS KMS, selecione **Criar uma chave do KMS**.

     Para ter mais informações sobre como criar uma AWS KMS key, consulte [Criação de chaves](https://docs.aws.amazon.com//kms/latest/developerguide/create-keys.html) no * Guia do desenvolvedor do AWS Key Management Service*.
**Importante**  
A configuração de SSE-KMS só comporta uma [chave gerenciada pelo cliente](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#customer-cmk) por bucket de diretório durante a vida útil do bucket. Não há suporte para [https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#aws-managed-cmk](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#aws-managed-cmk) (`aws/s3`). Além disso, depois que você especifica uma chave gerenciada pelo cliente para SSE-KMS, não é possível substituí-la pela configuração de SSE-KMS do bucket.  
É possível identificar a chave gerenciada pelo cliente que você especificou para a configuração SSE-KMS do bucket, da seguinte forma:  
Faça uma solicitação de operação de API `HeadObject` para encontrar o valor de `x-amz-server-side-encryption-aws-kms-key-id` em sua resposta.
Para usar uma nova chave gerenciada pelo cliente em seus dados, recomendamos copiar os objetos existentes em um novo bucket de diretório com uma nova chave gerenciada pelo cliente.
Você só pode usar chaves do KMS disponíveis na mesma Região da AWS que o bucket. O console do Amazon S3 lista somente as primeiras 100 chaves do KMS na mesma região que o bucket. Para usar uma chave do KMS que não esteja listada, você deve inserir o ARN da chave do KMS. Se quiser usar uma chave do KMS que seja de propriedade de outra conta, primeiro você deverá ter permissão para usar a chave e, depois, inserir o ARN da chave do KMS. Para obter mais informações sobre permissões entre contas para chaves do KMS, consulte [Criar chaves do KMS que outras contas podem usar](https://docs.aws.amazon.com//kms/latest/developerguide/key-policy-modifying-external-accounts.html#cross-account-console) no *Guia do desenvolvedor do AWS Key Management Service*. Para obter mais informações sobre a SSE-KMS, consulte [Especificar a criptografia do lado do servidor com o AWS KMS (SSE-KMS) para novos uploads de objetos em buckets de diretório](s3-express-specifying-kms-encryption.md).
Ao usar uma AWS KMS key para criptografia do lado do servidor em buckets de diretório, você deve escolher uma chave de criptografia do KMS simétrica. O Amazon S3 só é compatível com chaves do KMS de criptografia simétrica, e não com chaves assimétricas do KMS. Para ter mais informações, consulte [Identificar chaves do KMS simétricas e assimétricas](https://docs.aws.amazon.com//kms/latest/developerguide/find-symm-asymm.html) no *Guia do desenvolvedor do AWS Key Management Service*.

   Para obter mais informações sobre como usar o AWS KMS com o Amazon S3, consulte [Usar a criptografia do lado do servidor com chaves do AWS KMS (SSE-KMS) em buckets de diretório](s3-express-UsingKMSEncryption.md).

1. Selecione **Criar bucket**. Depois de criar o bucket, você pode adicionar arquivos e pastas a ele. Para obter mais informações, consulte [Trabalhar com objetos em um bucket de diretório](directory-buckets-objects.md).

## Uso da SDKs AWS
<a name="create-directory-bucket-sdks"></a>

------
#### [ SDK for Go ]

Este exemplo mostra como criar um bucket de diretório usando o AWS SDK para Go. 

**Example**  

```
var bucket = "..."

func runCreateBucket(c *s3.Client) {
    resp, err := c.CreateBucket(context.Background(), &s3.CreateBucketInput{
        Bucket: &bucket,
        CreateBucketConfiguration: &types.CreateBucketConfiguration{
            Location: &types.LocationInfo{
                Name: aws.String("usw2-az1"),
                Type: types.LocationTypeAvailabilityZone,
            },  
            Bucket: &types.BucketInfo{
                DataRedundancy: types.DataRedundancySingleAvailabilityZone,
                Type:           types.BucketTypeDirectory,
            },  
        },  
    })  
    var terr *types.BucketAlreadyOwnedByYou
    if errors.As(err, &terr) {
        fmt.Printf("BucketAlreadyOwnedByYou: %s\n", aws.ToString(terr.Message))
        fmt.Printf("noop...\n")
        return
    }   
    if err != nil {
        log.Fatal(err)
    }   

    fmt.Printf("bucket created at %s\n", aws.ToString(resp.Location))
}
```

------
#### [ SDK for Java 2.x ]

Este exemplo mostra como criar um bucket de diretório usando o AWS SDK for Java 2.x. 

**Example**  

```
public static void createBucket(S3Client s3Client, String bucketName) {

    //Bucket name format is {base-bucket-name}--{az-id}--x-s3
    //example: doc-example-bucket--usw2-az1--x-s3 is a valid name for a directory bucket created in
    //Region us-west-2, Availability Zone 2  

    CreateBucketConfiguration bucketConfiguration = CreateBucketConfiguration.builder()
             .location(LocationInfo.builder()
                     .type(LocationType.AVAILABILITY_ZONE)
                     .name("usw2-az1").build()) //this must match the Region and Availability Zone in your bucket name
             .bucket(BucketInfo.builder()
                    .type(BucketType.DIRECTORY)
                    .dataRedundancy(DataRedundancy.SINGLE_AVAILABILITY_ZONE)
                    .build()).build();
    try {
    
             CreateBucketRequest bucketRequest = CreateBucketRequest.builder().bucket(bucketName).createBucketConfiguration(bucketConfiguration).build();
             CreateBucketResponse response = s3Client.createBucket(bucketRequest);
             System.out.println(response);
    } 
    
    catch (S3Exception e) {
            System.err.println(e.awsErrorDetails().errorMessage());
            System.exit(1);
         }
    }
```

------
#### [ AWS SDK para JavaScript ]

Este exemplo mostra como criar um bucket de diretório usando o AWS SDK para JavaScript. 

**Example**  

```
// file.mjs, run with Node.js v16 or higher
// To use with the preview build, place this in a folder 
// inside the preview build directory, such as /aws-sdk-js-v3/workspace/

import { S3 } from "@aws-sdk/client-s3";

const region = "us-east-1";
const zone = "use1-az4";
const suffix = `${zone}--x-s3`;

const s3 = new S3({ region });

const bucketName = `...--${suffix}`;

const createResponse = await s3.createBucket( 
    { Bucket: bucketName, 
      CreateBucketConfiguration: {Location: {Type: "AvailabilityZone", Name: zone},
      Bucket: { Type: "Directory", DataRedundancy: "SingleAvailabilityZone" }}
    } 
   );
```

------
#### [ SDK para .NET ]

Este exemplo mostra como criar um bucket de diretório usando o SDK para .NET. 

**Example**  

```
using (var amazonS3Client = new AmazonS3Client())
{
    var putBucketResponse = await amazonS3Client.PutBucketAsync(new PutBucketRequest
    {

       BucketName = "DOC-EXAMPLE-BUCKET--usw2-az1--x-s3",
       PutBucketConfiguration = new PutBucketConfiguration
       {
         BucketInfo = new BucketInfo { DataRedundancy = DataRedundancy.SingleAvailabilityZone, Type = BucketType.Directory },
         Location = new LocationInfo { Name = "usw2-az1", Type = LocationType.AvailabilityZone }
       }
     }).ConfigureAwait(false);
}
```

------
#### [ SDK for PHP ]

Este exemplo mostra como criar um bucket de diretório usando o AWS SDK for PHP. 

**Example**  

```
require 'vendor/autoload.php';

$s3Client = new S3Client([

    'region'      => 'us-east-1',
]);


$result = $s3Client->createBucket([
    'Bucket' => 'doc-example-bucket--use1-az4--x-s3',
    'CreateBucketConfiguration' => [
        'Location' => ['Name'=> 'use1-az4', 'Type'=> 'AvailabilityZone'],
        'Bucket' => ["DataRedundancy" => "SingleAvailabilityZone" ,"Type" => "Directory"]   ],
]);
```

------
#### [ SDK for Python ]

Este exemplo mostra como criar um bucket de diretório usando o AWS SDK para Python (Boto3). 

**Example**  

```
import logging
import boto3
from botocore.exceptions import ClientError

def create_bucket(s3_client, bucket_name, availability_zone):
    '''
    Create a directory bucket in a specified Availability Zone

    :param s3_client: boto3 S3 client
    :param bucket_name: Bucket to create; for example, 'doc-example-bucket--usw2-az1--x-s3'
    :param availability_zone: String; Availability Zone ID to create the bucket in, for example, 'usw2-az1'
    :return: True if bucket is created, else False
    '''

    try:
        bucket_config = {
                'Location': {
                    'Type': 'AvailabilityZone',
                    'Name': availability_zone
                },
                'Bucket': {
                    'Type': 'Directory', 
                    'DataRedundancy': 'SingleAvailabilityZone'
                }
            }
        s3_client.create_bucket(
            Bucket = bucket_name,
            CreateBucketConfiguration = bucket_config
        )
    except ClientError as e:
        logging.error(e)
        return False
    return True


if __name__ == '__main__':
    bucket_name = 'BUCKET_NAME'
    region = 'us-west-2'
    availability_zone = 'usw2-az1'
    s3_client = boto3.client('s3', region_name = region)
    create_bucket(s3_client, bucket_name, availability_zone)
```

------
#### [ SDK for Ruby ]

Este exemplo mostra como criar um bucket de diretório usando o AWS SDK para Ruby. 

**Example**  

```
s3 = Aws::S3::Client.new(region:'us-west-2')
s3.create_bucket(
  bucket: "bucket_base_name--az_id--x-s3",
  create_bucket_configuration: {
    location: { name: 'usw2-az1', type: 'AvailabilityZone' },
    bucket: { data_redundancy: 'SingleAvailabilityZone', type: 'Directory' }
  }
)
```

------

## Como usar o AWS CLI
<a name="create-directory-bucket-cli"></a>

Este exemplo mostra como criar um bucket de diretório usando o AWS CLI. Para usar o comando, substitua os *espaços reservados para entrada do usuário* por suas próprias informações.

Ao criar um bucket de diretório, você deve fornecer detalhes de configuração e usar a seguinte convenção de nomenclatura: .: `bucket-base-name--zone-id--x-s3`

```
aws s3api create-bucket
--bucket bucket-base-name--zone-id--x-s3
--create-bucket-configuration 'Location={Type=AvailabilityZone,Name=usw2-az1},Bucket={DataRedundancy=SingleAvailabilityZone,Type=Directory}'
--region us-west-2
```

Para obter mais informações, consulte [create-bucket](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/create-bucket.html) na AWS Command Line Interface.

# Endpoints regionais e zonais para buckets de diretório em uma zona de disponibilidade
<a name="endpoint-directory-buckets-AZ"></a>

Para acessar seus buckets de objetos e de diretório armazenados na classe de armazenamento S3 Express One Zone, use os endpoints da VPC de gateway. Os buckets de diretório usam endpoints de API regionais e zonais. Dependendo da operação de API do Amazon S3 usada, será necessário um endpoint regional ou zonal. Não há cobrança adicional pelo uso de endpoints do gateway.

As operações de API em nível de bucket (ou ambiente de gerenciamento) estão disponíveis por meio de endpoints regionais e são chamadas de operações de API do endpoint regional. Exemplos de operações de API de endpoint regional são `CreateBucket` e `DeleteBucket`.

 Ao criar buckets de diretório armazenados na classe de armazenamento S3 Express One Zone, escolha a zona de disponibilidade em que o bucket ficará localizado. É possível usar operações de API de endpoint zonal para fazer upload e gerenciar os objetos no bucket de diretório.

As operações de API em nível de objeto (ou plano de dados) estão disponíveis por meio de endpoints zonais e são chamadas de operações de API do endpoint zonal. Exemplos de operações de API de endpoint zonal são `CreateSession` e `PutObject`.


| Nome da região | Região | IDs de zona de disponibilidade | Endpoint regional | Endpoint zonal | 
| --- | --- | --- | --- | --- | 
|  Leste dos EUA (Norte da Virgínia)  |  `us-east-1`  |  `use1-az4` `use1-az5` `use1-az6`  |  `s3express-control.us-east-1.amazonaws.com` `s3express-control-dualstack.us-east-1.amazonaws.com `  |  `s3express-use1-az4.us-east-1.amazonaws.com` `s3express-use1-az4.dualstack.us-east-1.amazonaws.com` `s3express-use1-az5.us-east-1.amazonaws.com` `s3express-use1-az5.dualstack.us-east-1.amazonaws.com` `s3express-use1-az6.us-east-1.amazonaws.com` `s3express-use1-az6.dualstack.us-east-1.amazonaws.com`  | 
|  Leste dos EUA (Ohio)  |  `us-east-2`  |  `use2-az1` `use2-az2`  |  `s3express-control.us-east-2.amazonaws.com` `s3express-control-dualstack.us-east-2.amazonaws.com`  |  `s3express-use2-az1.us-east-2.amazonaws.com` `s3express-use2-az1.dualstack.us-east-2.amazonaws.com` `s3express-use2-az2.us-east-2.amazonaws.com` `s3express-use2-az2.dualstack.us-east-2.amazonaws.com`  | 
|  Oeste dos EUA (Oregon)  |  `us-west-2`  |  `usw2-az1` `usw2-az3` `usw2-az4`  |  `s3express-control.us-west-2.amazonaws.com` `s3express-control-dualstack.us-west-2.amazonaws.com`  |  `s3express-usw2-az1.us-west-2.amazonaws.com` `s3express-usw2-az1.dualstack.us-west-2.amazonaws.com` `s3express-usw2-az3.us-west-2.amazonaws.com` `s3express-usw2-az3.dualstack.us-west-2.amazonaws.com` `s3express-usw2-az4.us-west-2.amazonaws.com` `s3express-usw2-az4.dualstack.us-west-2.amazonaws.com`  | 
|  Ásia-Pacífico (Mumbai)  |  `ap-south-1`  |  `aps1-az1` `aps1-az3`  |  `s3express-control.ap-south-1.amazonaws.com` `s3express-control-dualstack.ap-south-1.amazonaws.com`  |  `s3express-aps1-az1.ap-south-1.amazonaws.com` `s3express-aps1-az1.dualstack.ap-south-1.amazonaws.com` `s3express-aps1-az3.ap-south-1.amazonaws.com` `s3express-aps1-az3.dualstack.ap-south-1.amazonaws.com`  | 
|  Ásia-Pacífico (Tóquio)  |  `ap-northeast-1`  |  `apne1-az1` `apne1-az4`  |  `s3express-control.ap-northeast-1.amazonaws.com` `s3express-control-dualstack.ap-northeast-1.amazonaws.com`  |  `s3express-apne1-az1.ap-northeast-1.amazonaws.com` `s3express-apne1-az1.dualstack.ap-northeast-1.amazonaws.com` `s3express-apne1-az4.ap-northeast-1.amazonaws.com` `s3express-apne1-az4.dualstack.ap-northeast-1.amazonaws.com`  | 
|  Europa (Irlanda)  |  `eu-west-1`  |  `euw1-az1` `euw1-az3`  |  `s3express-control.eu-west-1.amazonaws.com` `s3express-control-dualstack.eu-west-1.amazonaws.com`  |  `s3express-euw1-az1.eu-west-1.amazonaws.com` `s3express-euw1-az1.dualstack.eu-west-1.amazonaws.com` `s3express-euw1-az3.eu-west-1.amazonaws.com` `s3express-euw1-az3.dualstack.eu-west-1.amazonaws.com`  | 
|  Europa (Estocolmo)  |  `eu-north-1`  |  `eun1-az1` `eun1-az2` `eun1-az3`  |  `s3express-control.eu-north-1.amazonaws.com` `s3express-control-dualstack.eu-north-1.amazonaws.com`  |  `s3express-eun1-az1.eu-north-1.amazonaws.com` `s3express-eun1-az1.dualstack.eu-north-1.amazonaws.com` `s3express-eun1-az2.eu-north-1.amazonaws.com` `s3express-eun1-az2.dualstack.eu-north-1.amazonaws.com` `s3express-eun1-az3.eu-north-1.amazonaws.com` `s3express-eun1-az3.dualstack.eu-north-1.amazonaws.com`  | 

# Otimizar o desempenho da classe S3 Express One Zone
<a name="s3-express-performance"></a>

A classe Amazon S3 Express One Zone é uma classe de armazenamento de zona de disponibilidade (AZ) única e alta performance do S3 desenvolvida com o propósito específico de fornecer acesso consistente aos dados e com latência inferior a dez milissegundos para as aplicações mais sensíveis à latência. A classe S3 Express One Zone é a primeira classe de armazenamento do S3 que oferece a opção de manter o armazenamento de objetos de alto desempenho e os recursos de computação da AWS, como o Amazon Elastic Compute Cloud, o Amazon Elastic Kubernetes Service e o Amazon Elastic Container Service, em uma única zona de disponibilidade. A manutenção dos recursos de armazenamento e computação na mesma localização otimiza a performance e os custos computacionais e acelera o processamento de dados. 

A classe S3 Express One Zone oferece elasticidade de performance semelhante a outras classes de armazenamento do S3, mas com latências consistentes de solicitações de leitura e gravação do primeiro byte inferiores a dez milissegundos — até dez vezes mais rápidas do que a classe S3 Standard. A classe S3 Express One Zone foi projetada do zero para oferecer suporte a um throughput expansível até níveis agregados muito altos. A classe de armazenamento S3 Express One Zone usa uma arquitetura personalizada para otimizar a performance e oferecer latência de solicitações consistentemente baixa, armazenando dados em hardware de alta performance. O protocolo de objetos para a classe S3 Express One Zone foi aprimorado a fim de simplificar a autenticação e a sobrecarga de metadados. 

Para reduzir ainda mais a latência e comportar até 2 milhões de leituras e até 200 mil gravações por segundo, a classe S3 One Zone armazena os dados em um bucket de diretório do Amazon S3. Por padrão, cada bucket de diretório comporta até 200 mil leituras e até 100 mil gravações por segundo. Se a workload exigir uma quantidade acima dos limites padrão de TPS, você poderá solicitar um aumento por meio do [AWS Support](https://support.console.aws.amazon.com/support/home#/case/create?issueType=service-limit-increase).

A combinação de hardware e software de alta performance com propósito específico que oferece velocidade de acesso aos dados inferior a dez milissegundos e buckets de diretório escaláveis para um grande número de transações por segundo faz da classe S3 Express One Zone a melhor classe de armazenamento do Amazon S3 para operações com alto consumo de solicitações ou aplicações de performance crítica. 

Os tópicos a seguir descrevem as diretrizes de práticas recomendadas e os padrões de design para otimizar a performance de aplicações que usam a classe de armazenamento S3 Express One Zone. 

**Topics**
+ [Práticas recomendadas para otimizar a performance da classe S3 Express One Zone](s3-express-optimizing-performance-design-patterns.md)

# Práticas recomendadas para otimizar a performance da classe S3 Express One Zone
<a name="s3-express-optimizing-performance-design-patterns"></a>

Ao criar aplicações que fazem upload e recuperam objetos da classe Amazon S3 Express One Zone, siga as nossas diretrizes de práticas recomendadas para otimizar a performance. Para usar a classe de armazenamento S3 Express One Zone, é necessário criar um bucket de diretório do S3. A classe de armazenamento S3 Express One Zone não é compatível com buckets de uso geral do S3.

Para consultar as diretrizes de desempenho para todas as outras classes de armazenamento do Amazon S3 e para buckets de uso geral do S3, consulte [Padrões de design de melhores práticas: otimizar a performance do Amazon S3](optimizing-performance.md).

Para obter performance e escalabilidade ideais com a classe de armazenamento S3 Express One Zone e os buckets de diretório em workloads de alta escala, é importante entender em que sentido os buckets de diretório funcionam de forma diferente dos buckets de uso geral. Em seguida, fornecemos as práticas recomendadas para alinhar suas aplicações à forma como os buckets de diretório funcionam.

## Como os buckets de diretório funcionam
<a name="s3-express-how-directory-buckets-work"></a>

A classe de armazenamento Amazon S3 Express One Zone pode comportar workloads com até 2 milhões de transações GET e até 200 mil transações PUT por segundo (TPS) por bucket de diretório. Com o S3 Express One Zone, os dados são armazenados em buckets de diretório do S3 em zonas de disponibilidade. Os objetos nos buckets de diretório podem ser acessados em um namespace hierárquico, de modo semelhante a um sistema de arquivos e diferentemente dos buckets de uso geral do S3, que têm um namespace simples. Ao contrário dos buckets de uso geral, os buckets de diretórios organizam as chaves hierarquicamente em diretórios em vez de prefixos. Um prefixo é uma string no início do nome da chave do objeto. Você pode usar prefixos para organizar os dados e gerenciar uma arquitetura de armazenamento de objetos simples em buckets de uso geral. Para obter mais informações, consulte [Organizar objetos usando prefixos](using-prefixes.md).

Nos buckets de diretório, os objetos são organizados em um namespace hierárquico usando a barra (`/`) como o único delimitador compatível. Quando você carrega um objeto com uma chave, como `dir1/dir2/file1.txt`, os diretórios `dir1/` e `dir2/` são automaticamente criados e gerenciados pelo Amazon S3. Os diretórios são criados durante as operações `CreateMultiPartUpload` ou `PutObject` e removidos automaticamente quando ficam vazios após após operações `DeleteObject` ou `AbortMultiPartUpload`. Não há limite máximo para o número de objetos e subdiretórios em um diretório.

Os diretórios criados quando os objetos são carregados em buckets de diretório podem ser escalados instantaneamente para reduzir a chance de erros HTTP `503 (Slow Down)`. Esse ajuste de escala automático permite que as aplicações emparelhem as solicitações de leitura e gravação dentro de um diretório e entre diretórios, conforme necessário. Para o S3 Express One Zone, os diretórios individuais são projetados para atender à taxa máxima de solicitações de um bucket de diretório. Não há necessidade de randomizar prefixos de chave para obter a performance ideal, pois o sistema distribui automaticamente os objetos para uma distribuição uniforme da carga, mas, como resultado, as chaves não são armazenadas lexicograficamente em buckets de diretório. Isso ocorre de maneira diferente nos buckets de uso geral do S3, nos quais as chaves que estão lexicograficamente mais próximas têm maior probabilidade de serem colocadas no mesmo servidor. 

Para ter mais informações sobre exemplos de operações de bucket de diretório e interações de diretório, consulte [Exemplos de operação de bucket de diretório e interação de diretórios](#s3-express-directory-bucket-examples).

## Práticas recomendadas
<a name="s3-express-best-practices-section"></a>

Siga as práticas recomendadas para otimizar a performance do bucket de diretório e ajudar a escalar suas workloads ao longo do tempo.

### Usar diretórios que contenham várias entradas (objetos ou subdiretórios)
<a name="s3-express-best-practices-use-directories"></a>

Os buckets de diretório oferecem alta performance por padrão para todas as workloads. Para otimizar ainda mais a performance com determinadas operações, a consolidação de mais entradas (que são objetos ou subdiretórios) nos diretórios diminuirá a latência e aumentará a taxa de solicitações: 
+ Operações de API mutantes, como `PutObject`, `DeleteObject`, `CreateMultiPartUpload` e `AbortMultiPartUpload`, alcançam uma performance ideal quando implementadas com uma quantidade menor de diretórios mais densos que contenham milhares de entradas, em vez de com um grande número de diretórios menores. 
+ As operações `ListObjectsV2` funcionam melhor quando menos diretórios precisam ser percorridos para preencher uma página de resultados.

#### Não usar entropia em prefixos
<a name="s3-express-best-practices-dont-use-entropy"></a>

Nas operações do Amazon S3, a entropia se refere à aleatoriedade na nomenclatura de prefixos que ajuda a distribuir workloads uniformemente entre as partições de armazenamento. No entanto, como os buckets de diretório gerenciam internamente a distribuição de carga, não é recomendável usar entropia em prefixos para obter a melhor performance. Isso ocorre porque, em buckets diretório, a entropia pode fazer com que as solicitações fiquem mais lentas por não reutilizar os diretórios que já foram criados.

Um padrão de chave como `$HASH/directory/object` pode acabar criando muitos diretórios intermediários. No exemplo a seguir, todos os trabalhos `job-1` são diretórios diferentes, pois os principais são diferentes. Os diretórios serão esparsos e as solicitações de mutação e lista serão mais lentas. Neste exemplo, há 12 diretórios intermediários, todos com uma única entrada.

```
s3://my-bucket/0cc175b9c0f1b6a831c399e269772661/job-1/file1
  
s3://my-bucket/92eb5ffee6ae2fec3ad71c777531578f/job-1/file2
  
s3://my-bucket/4a8a08f09d37b73795649038408b5f33/job-1/file3
  
s3://my-bucket/8277e0910d750195b448797616e091ad/job-1/file4
  
s3://my-bucket/e1671797c52e15f763380b45e841ec32/job-1/file5
  
s3://my-bucket/8fa14cdd754f91cc6554c9e71929cce7/job-1/file6
```

Em vez disso, para melhorar a performance, podemos remover o componente `$HASH` e permitir que `job-1` se torne um único diretório, melhorando a densidade de um diretório. No exemplo a seguir, o único diretório intermediário que tem seis entradas pode aumentar a performance, em comparação com o exemplo anterior.

```
s3://my-bucket/job-1/file1
  
s3://my-bucket/job-1/file2
  
s3://my-bucket/job-1/file3
  
s3://my-bucket/job-1/file4
  
s3://my-bucket/job-1/file5
  
s3://my-bucket/job-1/file6
```

Essa vantagem de performance ocorre porque, quando uma chave de objeto é criada e seu nome inclui um diretório, o diretório é criado automaticamente para o objeto. Os uploads subsequentes de objetos para o mesmo diretório não exigirão que o diretório seja criado, o que reduzirá a latência dos uploads de objetos nos diretórios existentes.

#### Usar um separador diferente do delimitador / para separar partes da chave se não for necessário agrupar objetos logicamente durante as chamadas `ListObjectsV2`
<a name="s3-express-best-practices-use-separator"></a>

Como o delimitador `/` é tratado especialmente para buckets de diretório, ele deve ser usado com propósito. Embora os buckets de diretório não ordenem objetos lexicograficamente, os objetos dentro de um diretório ainda assim são agrupados nas saídas de `ListObjectsV2`. Se você não precisar dessa funcionalidade, poderá substituir `/` por outro caractere como separador para não provocar a criação de diretórios intermediários.

Por exemplo, suponha que as seguintes chaves estejam em um padrão de prefixo `YYYY/MM/DD/HH/`:

```
s3://my-bucket/2024/04/00/01/file1
  
s3://my-bucket/2024/04/00/02/file2
  
s3://my-bucket/2024/04/00/03/file3
  
s3://my-bucket/2024/04/01/01/file4
  
s3://my-bucket/2024/04/01/02/file5
  
s3://my-bucket/2024/04/01/03/file6
```

Se você não precisar agrupar objetos por hora ou dia nos resultados de `ListObjectsV2`, mas precisar agrupar objetos por mês, o padrão de chave `YYYY/MM/DD-HH-` a seguir gerará um número significativamente menor de diretórios e melhorará a performance para a operação `ListObjectsV2`.

```
s3://my-bucket/2024/04/00-01-file1
  
s3://my-bucket/2024/04/00-01-file2
  
s3://my-bucket/2024/04/00-01-file3
  
s3://my-bucket/2024/04/01-02-file4
  
s3://my-bucket/2024/04/01-02-file5
  
s3://my-bucket/2024/04/01-02-file6
```

#### Usar operações de lista delimitada sempre que possível
<a name="s3-express-best-practices-use-delimited-list"></a>

Uma solicitação `ListObjectsV2` sem um `delimiter` executa uma travessia recursiva no modo primeiro em profundidade em todos os diretórios. Uma solicitação `ListObjectsV2` com um `delimiter` recupera somente entradas no diretório especificado pelo parâmetro `prefix`, reduzindo a latência da solicitação e aumentando as chaves agregadas por segundo. Para buckets de diretório, use operações de lista delimitada sempre que possível. As listas delimitadas fazem com que os diretórios sejam visitados menos vezes, o que aumenta a quantidade de chaves por segundo e diminui a latência das solicitações.

Por exemplo, para os seguintes diretórios e objetos em seu bucket de diretório:

```
s3://my-bucket/2024/04/12-01-file1
  
s3://my-bucket/2024/04/12-01-file2
  
...
  
s3://my-bucket/2024/05/12-01-file1
  
s3://my-bucket/2024/05/12-01-file2
  
...
  
s3://my-bucket/2024/06/12-01-file1
  
s3://my-bucket/2024/06/12-01-file2
  
...
  
s3://my-bucket/2024/07/12-01-file1
  
s3://my-bucket/2024/07/12-01-file2
  
...
```

Para melhorar a performance de `ListObjectsV2`, use uma lista delimitada para listar seus subdiretórios e objetos, se a lógica da aplicação permitir. Por exemplo, você pode executar o seguinte comando para a operação de lista delimitada:

```
aws s3api list-objects-v2 --bucket my-bucket --prefix '2024/' --delimiter '/'
```

A saída é a lista de subdiretórios.

```
{
    "CommonPrefixes": [
        {
            "Prefix": "2024/04/"
        },
        {
            "Prefix": "2024/05/"
        },
        {
            "Prefix": "2024/06/"
        },
        {
            "Prefix": "2024/07/"
        }
    ]
}
```

Para listar cada subdiretório com melhor performance, execute um comando como o mostrada no seguinte exemplo:

Comando:

```
aws s3api list-objects-v2 --bucket my-bucket --prefix '2024/04' --delimiter '/'
```

Resultado:

```
{
    "Contents": [
        {
            "Key": "2024/04/12-01-file1"
        },
        {
            "Key": "2024/04/12-01-file2"
        }
    ]
}
```

### Implantar o armazenamento da classe S3 Express One Zone na mesma localização dos recursos de computação
<a name="s3-express-best-practices-colocate"></a>

Com o S3 Express One Zone, cada bucket de diretório fica localizado em uma única zona de disponibilidade que você seleciona ao criar o bucket. Primeiro você pode criar um bucket de diretório em uma zona de disponibilidade local para workloads ou recursos de computação. Depois, você pode iniciar imediatamente leituras e gravações de latência muito baixa. Os buckets de diretório são um tipo de bucket do S3 em que você pode escolher a zona de disponibilidade em uma Região da AWS para reduzir a latência entre computação e armazenamento.

Se você acessar buckets de diretório entre zonas de disponibilidade, poderá experimentar um pequeno aumento na latência. Para otimizar a performance, recomendamos que você acesse um bucket de diretório por instâncias do Amazon Elastic Container Service, do Amazon Elastic Kubernetes Service e do Amazon Elastic Compute Cloud que estejam localizadas na mesma zona de disponibilidade, sempre que possível.

### Usar conexões simultâneas para obter alto throughput com objetos acima de 1 MB
<a name="s3-express-best-practices-concurrent-connections"></a>

O melhor desempenho pode ser atingido com a emissão de várias solicitações simultâneas para buckets de diretório a fim de distribuir as solicitações em conexões separadas e maximizar a largura de banda acessível. Como os buckets de uso geral, a classe S3 Express One Zone não tem nenhum limite para o número de conexões feitas com o bucket de diretório. Diretórios individuais podem escalar a performance horizontal e automaticamente quando ocorre um grande número de gravações simultâneas no mesmo diretório.

As conexões TCP individuais com buckets de diretório têm um limite superior fixo no número de bytes que podem ser carregados ou baixados por segundo. Quando os objetos ficam maiores, o tempo de solicitação é controlado pelo streaming de bytes, e não pelo processamento de transações. Para usar várias conexões para paralelizar o upload ou o download de objetos maiores, você pode reduzir a latência de ponta a ponta. Se estiver usando o SDK da `Java 2.x`, considere usar o [Gerenciador de transferências do S3](https://docs.aws.amazon.com/sdk-for-java/latest/developer-guide/transfer-manager.html), que aproveitará as melhorias de performance, como as [operações de API de multipart upload](https://docs.aws.amazon.com/AmazonS3/latest/userguide/mpuoverview.html) e as consultas em escala de bytes, para acessar os dados em paralelo.

### Endpoints da VPC de gateway
<a name="s3-express-best-practices-vpc-endpoints"></a>

Os endpoints de gateway oferecem uma conexão direta entre a VPC e os buckets de diretório, sem a necessidade de um gateway da internet ou de um dispositivo NAT para a VPC. Para reduzir o tempo que seus pacotes permanecem na rede, você deve configurar a VPC com um endpoint da VPC de gateway para buckets de diretório. Para obter mais informações, consulte [Rede para buckets de diretório](s3-express-networking.md).

### Usar a autenticação de sessão e reutilizar os tokens de sessão enquanto estiverem válidos
<a name="s3-express-best-practices-session-auth"></a>

Os buckets de diretório oferecem um mecanismo de autenticação de token de sessão para reduzir a latência em operações de API sensíveis à performance. Você pode fazer uma única chamada `CreateSession` para obter um token de sessão válido para todas as solicitações nos próximos 5 minutos. Para obter a menor latência em suas chamadas de API, adquira um token de sessão e reutilize-o durante toda a vida útil desse token antes de atualizá-lo.

Se você usar SDKs da AWS, as atualizações de token de sessão serão feitas automaticamente pelo SDK para evitar interrupções no serviço quando uma sessão expirar. Recomendamos que você use os SDKs da AWS para iniciar e gerenciar solicitações para a operação de API `CreateSession`.

Para obter mais informações sobre o `CreateSession`, consulte [Autorizar operações de API de endpoint zonal com `CreateSession`](s3-express-create-session.md).

### Usar um cliente baseado em CRT
<a name="s3-express-best-practices-crt"></a>

O AWS Common Runtime (CRT) é um conjunto de bibliotecas modulares e eficientes escritas em C e destinadas a atuar como base dos SDKs da AWS. O CRT oferece throughput aprimorado, melhor gerenciamento de conexão e tempos de inicialização mais rápidos. Ele está disponível em todos os SDKs da AWS, exceto no Go.

Para ter mais informações sobre como configurar o CRT para o SDK que você usa, consulte [AWS Common Runtime (CRT) libraries](https://docs.aws.amazon.com/sdkref/latest/guide/common-runtime.html), [Accelerate Amazon S3 throughput with the AWS Common Runtime](https://aws.amazon.com/blogs//storage/improving-amazon-s3-throughput-for-the-aws-cli-and-boto3-with-the-aws-common-runtime/), [Introducing CRT-based S3 client and the S3 Transfer Manager in the AWS SDK for Java 2.x](https://aws.amazon.com/blogs//developer/introducing-crt-based-s3-client-and-the-s3-transfer-manager-in-the-aws-sdk-for-java-2-x/), [Using S3CrtClient for Amazon S3 operations](https://docs.aws.amazon.com/sdk-for-cpp/v1/developer-guide/examples-s3-crt.html) e [Configure AWS CRT-based HTTP clients](https://docs.aws.amazon.com/sdk-for-java/latest/developer-guide/http-configuration-crt.html).

### Usar a versão mais recente dos SDKs da AWS
<a name="s3-express-best-practices-latest-sdks"></a>

Os AWS SDKs fornecem suporte integrado a muitas da diretrizes recomendadas para otimizar a performance do Amazon S3. Os SDKs oferecem uma API mais simples para aproveitar o Amazon S3 em uma aplicação e são atualizados regularmente para seguir as práticas recomendadas mais recentes. Por exemplo, os SDKs repetem automaticamente as solicitações após erros HTTP `503` e lidam com respostas de conexões lentas.

Se estiver usando o SDK da `Java 2.x`, considere usar o [Gerenciador de transferências do S3](https://docs.aws.amazon.com/sdk-for-java/latest/developer-guide/transfer-manager.html), que escala horizontalmente as conexões de maneira automática para atingir milhares de solicitações por segundo usando solicitações em escala de bytes quando apropriado. As solicitações em escala de bytes podem melhorar a performance porque você pode usar conexões simultâneas com o S3 para consultar escalas de bytes diferentes no mesmo objeto. Isso ajuda a atingir um throughput agregado maior em comparação com uma única solicitação de objeto inteiro. É importante usar a última versão dos SDKs da AWS para obter os recursos mais recentes de otimização de performance.

## Solução de problemas de performance
<a name="s3-express-performance-troubleshooting"></a>

### Você está definindo as solicitações de nova tentativa para aplicações sensíveis à latência?
<a name="s3-express-performance-troubleshooting-retry"></a>

A classe S3 Express One Zone foi desenvolvida com o propósito específico de oferecer níveis consistentes de alta performance sem ajustes adicionais. No entanto, definir valores agressivos de tempo limite e novas tentativas pode ajudar ainda mais a impulsionar níveis consistentes de latência e desempenho. Os AWS SDKs têm valores configuráveis de tempo limite e repetição que podem ser ajustados de acordo com as tolerâncias da aplicação específica.

### Você está usando bibliotecas do AWS Common Runtime (CRT) e tipos ideais de instância do Amazon EC2?
<a name="s3-express-performance-troubleshooting-crt-ec2"></a>

As aplicações que executam um grande número de operações de leitura e gravação provavelmente precisam de mais memória ou capacidade de computação do que as aplicações que não o fazem. Ao inicializar as instâncias do Amazon Elastic Compute Cloud (Amazon EC2) para uma workload que exige muita performance, escolha tipos de instância com a quantidade desses recursos que a aplicação precisa. O armazenamento de alta performance da classe S3 Express One Zone apresenta combinação ideal com tipos de instância maiores e mais novos, com quantidades maiores de memória do sistema e CPUs e GPUs mais poderosas que podem aproveitar o armazenamento de alta performance. Também recomendamos usar as versões mais recentes dos AWS SDKs habilitados para CRT, que podem acelerar ainda mais as solicitações de leitura e gravação em paralelo.

### Você está usando SDKs da AWS para autenticação baseada em sessão?
<a name="s3-express-performance-troubleshooting-session-auth"></a>

Com o Amazon S3, você também pode otimizar a performance ao usar solicitações da API REST HTTP seguindo as mesmas práticas recomendadas que fazem parte dos AWS SDKs. No entanto, com o mecanismo de autorização e autenticação baseado em sessão usado pela classe S3 Express One Zone, é altamente recomendável que você use os AWS SDKs para gerenciar `CreateSession` e o respectivo token de sessão gerenciada. Os AWS SDKs criam e atualizam tokens automaticamente em seu nome usando a operação de API `CreateSession`. O uso de `CreateSession` gera economia na latência de ida e volta por solicitação para que o AWS Identity and Access Management (IAM) autorize cada solicitação.

## Exemplos de operação de bucket de diretório e interação de diretórios
<a name="s3-express-directory-bucket-examples"></a>

Veja a seguir três exemplos sobre como os buckets de diretório funcionam.

### Exemplo 1: como as solicitações `PutObject` do S3 para um bucket de diretório interagem com os diretórios
<a name="s3-express-directory-bucket-examples-put"></a>

1. Quando a operação `PUT(<bucket>, "documents/reports/quarterly.txt")` é executada em um bucket vazio, o diretório `documents/` na raiz do bucket é criado, o diretório `reports/` em `documents/` é criado e o objeto `quarterly.txt` em `reports/` é criado. Para essa operação, além do objeto, foram criados dois diretórios.  
![\[Diagrama mostrando a estrutura do diretório após a operação PUT para documents/reports/quarterly.txt\]](http://docs.aws.amazon.com/pt_br/AmazonS3/latest/userguide/images/directory-examples-foo-bar-baz.png)

1. Portanto, quando outra operação `PUT(<bucket>, "documents/logs/application.txt")` é executada, o diretório `documents/` já existe, o diretório `logs/` em `documents/` não existe e é criado e o objeto `application.txt` em `logs/` é criado. Para essa operação, além do objeto, foram criados dois diretórios.  
![\[Diagrama mostrando a estrutura do diretório após a operação PUT para documents/logs/application.txt\]](http://docs.aws.amazon.com/pt_br/AmazonS3/latest/userguide/images/directory-examples-foo-baz-quux.png)

1. Por fim, quando uma operação `PUT(<bucket>, "documents/readme.txt")` é executada, o diretório `documents/` na raiz já existe e o objeto `readme.txt` é criado. Para essa operação, nenhum diretório é criado.  
![\[Diagrama mostrando a estrutura do diretório após a operação PUT para documents/readme.txt\]](http://docs.aws.amazon.com/pt_br/AmazonS3/latest/userguide/images/directory-examples-foo-bar.png)

### Exemplo 2: como as solicitações `ListObjectsV2` do S3 para um bucket de diretório interagem com os diretórios
<a name="s3-express-directory-bucket-examples-list"></a>

Para as solicitações `ListObjectsV2` do S3 sem a especificação de um delimitador, o bucket é percorrido de acordo com o modo primeiro em profundidade. As saídas são retornadas em uma ordem consistente. No entanto, embora essa ordem permaneça a mesma entre as solicitações, ela não é lexicográfica. Para o bucket e os diretórios criados no exemplo anterior:

1. Quando `LIST(<bucket>)` é executada, o diretório `documents/` é inserido e a travessia começa.

1. O subdiretório `logs/` é inserido e a travessia começa.

1. O objeto `application.txt` é encontrado em `logs/`.

1. Não existem mais entradas em `logs/`. A operação List sai de `logs/` e entra em `documents/` novamente.

1. O diretório `documents/` continua sendo percorrido e o objeto `readme.txt` é encontrado.

1. O diretório `documents/` continua sendo percorrido, o subdiretório `reports/` é inserido e a travessia começa.

1. O objeto `quarterly.txt` é encontrado em `reports/`.

1. Não existem mais entradas em `reports/`. List sai de `reports/` e entra em `documents/` novamente.

1. Não existem mais entradas em `documents/` e a operação List retorna.

Neste exemplo, `logs/` é colocado antes de `readme.txt` e `readme.txt` é colocado antes de `reports/`.

### Exemplo 3: como as solicitações `DeleteObject` do S3 para um bucket de diretório interagem com os diretórios
<a name="s3-express-directory-bucket-examples-delete"></a>

![\[Diagrama mostrando a estrutura inicial do diretório antes das operações DELETE\]](http://docs.aws.amazon.com/pt_br/AmazonS3/latest/userguide/images/directory-examples-delete-before.png)


1. Nesse mesmo bucket, quando a operação `DELETE(<bucket>, "documents/reports/quarterly.txt")` é executada, o objeto `quarterly.txt` é excluído, deixando o diretório `reports/` vazio e fazendo com que ele seja excluído imediatamente. O diretório `documents/` não está vazio porque tem o diretório `logs/` e o objeto `readme.txt` dentro dele; portanto, não é excluído. Nessa operação, somente um objeto e um diretório foram excluídos.  
![\[Diagrama mostrando a estrutura do diretório após a operação DELETE para documents/reports/quarterly.txt\]](http://docs.aws.amazon.com/pt_br/AmazonS3/latest/userguide/images/directory-examples-delete1.png)

1. Quando a operação `DELETE(<bucket>, "documents/readme.txt")` é executada, o objeto `readme.txt` é excluído. `documents/` ainda não está vazio porque contém o diretório `logs/`; portanto, não foi excluído. Nessa operação, nenhum diretório é excluído e somente o objeto é excluído.  
![\[Diagrama mostrando a estrutura do diretório após a operação DELETE para documents/readme.txt\]](http://docs.aws.amazon.com/pt_br/AmazonS3/latest/userguide/images/directory-examples-delete2.png)

1. Por fim, quando a operação `DELETE(<bucket>, "documents/logs/application.txt")` é executada, `application.txt` é excluído, deixando `logs/` vazio e fazendo com que ele seja excluído imediatamente. Isso então deixa `documents/` vazio e faz com que ele também seja excluído imediatamente. Nessa operação, dois diretórios e um objeto são excluídos. O bucket agora está vazio.  
![\[Diagrama mostrando a estrutura do diretório após a operação DELETE para documents/logs/application.txt\]](http://docs.aws.amazon.com/pt_br/AmazonS3/latest/userguide/images/directory-examples-delete3.png)