

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Anwendungsfälle für Verzeichnis-Buckets
<a name="directory-bucket-use-cases"></a>

Verzeichnis-Buckets unterstützen die Erstellung von Buckets in den folgenden Bucket-Speicherorttypen: Availability Zone oder Local Zone. 

Für Anwendungsfälle mit niedriger Latenz können Sie einen Verzeichnis-Bucket in einer einzelnen Availability Zone erstellen, um Daten zu speichern. Verzeichnis-Buckets in Availability Zones unterstützen die Speicherklasse S3 Express One Zone. Verzeichnis-Buckets verwenden die Speicherklasse S3 Express One Zone. Dies wird empfohlen, wenn Ihre Anwendung leistungsempfindlich ist und von`PUT`- und `GET`-Latenzen im einstelligen Millisekundenbereich profitiert. Weitere Informationen zum Erstellen von Verzeichnis-Buckets in Availability Zones finden Sie unter [Leistungsintensive Workloads](directory-bucket-high-performance.md). 

 Für Anwendungsfälle mit Datenresidenz können Sie einen Verzeichnis-Bucket in einer einzelnen AWS Dedicated Local Zone (DLZ) erstellen, um Daten zu speichern. Verzeichnis-Buckets in Local Zones unterstützen die Speicherklasse S3 One Zone-Infrequent Access (S3 One Zone-IA; Z-IA). Weitere Informationen zum Erstellen von Verzeichnis-Buckets in lokalen Zonen finden Sie unter [Workloads mit Datenresidenz](directory-bucket-data-residency.md).

**Topics**
+ [Leistungsintensive Workloads](directory-bucket-high-performance.md)
+ [Workloads mit Datenresidenz](directory-bucket-data-residency.md)

# Leistungsintensive Workloads
<a name="directory-bucket-high-performance"></a>

## S3 Express One Zone
<a name="s3-express-one-zone"></a>

 Sie können Amazon S3 Express One Zone für leistungsintensive Workloads verwenden. S3 Express One Zone ist die erste S3-Speicherklasse, bei der Sie eine einzelne Availability Zone mit der Option auswählen können, Ihren Objektspeicher gemeinsam mit Ihren Rechenressourcen zu platzieren, was die höchstmögliche Zugriffsgeschwindigkeit bietet. Objekte in S3 Express One Zone werden in Verzeichnis-Buckets gespeichert, die sich in Availability Zones befinden. Weitere Informationen zu Verzeichnis-Buckets finden Sie unter [Verzeichnis-Buckets](https://docs.aws.amazon.com//AmazonS3/latest/userguide/directory-buckets-overview.html). 

Amazon S3 Express One Zone ist eine leistungsstarke Amazon-S3-Speicherklasse mit einer einzelnen Zone, die speziell für den konsistenten Datenzugriff im einstelligen Millisekundenbereich für Ihre latenzempfindlichsten Anwendungen entwickelt wurde. S3 Express One Zone ist die derzeit verfügbare Cloud-Objektspeicherklasse mit der niedrigsten Latenz. Sie bietet bis zu zehnmal höhere Datenzugriffsgeschwindigkeiten und um 50 % niedrigere Anforderungskosten als S3 Standard. Anwendungen können sofort davon profitieren, dass Anforderungen deutlich schneller bearbeitet werden. S3 Express One Zone bietet eine ähnliche Leistungselastizität wie andere S3-Speicherklassen. S3 Express One Zone wird für Workloads oder leistungskritische Anwendungen verwendet, die eine konsistente Latenz im einstelligen Millisekundenbereich erfordern. 

Wie bei anderen Amazon-S3-Speicherklassen müssen Sie keine Kapazitäts- oder Durchsatzanforderungen im Voraus planen oder bereitstellen. Sie können Ihren Speicher je nach Bedarf hoch- oder herunterskalieren und über die Amazon-S3-APIs auf Ihre Daten zugreifen.

Die Speicherklasse Amazon S3 Express One Zone ist für eine Verfügbarkeit von 99,95 % innerhalb einer einzigen Availability Zone konzipiert und wird durch das [Amazon S3 Service Level Agreement](https://aws.amazon.com/s3/sla/) unterstützt. Mit S3 Express One Zone werden Ihre Daten redundant auf mehreren Geräten innerhalb einer einzigen Availability Zone gespeichert. S3 Express One Zone wurde entwickelt, um mit gleichzeitigen Geräteausfällen umzugehen, indem verlorene Redundanz schnell erkannt und behoben werden kann. Wenn das vorhandene Gerät ausfällt, leitet S3 Express One Zone Anfragen automatisch an neue Geräte innerhalb einer Availability Zone weiter. Diese Redundanz trägt dazu bei, den unterbrechungsfreien Zugriff auf Ihre Daten innerhalb einer Availability Zone sicherzustellen.

S3 Express One Zone ist ideal für jede Anwendung geeignet, bei der es wichtig ist, die für den Zugriff auf ein Objekt erforderliche Latenz zu minimieren. Bei solchen Anwendungen kann es sich um Workflows handeln, mit denen Menschen interagieren, z. B. bei der Videobearbeitung, wo kreative Mitarbeiter über ihre Benutzeroberflächen schnell auf Inhalte zugreifen müssen. S3 Express One Zone bietet auch Vorteile für Analysen und maschinelles Lernen, die ähnliche Anforderungen an die Reaktionsfähigkeit ihrer Daten stellen, insbesondere Workloads mit vielen kleineren Zugriffen oder einer großen Anzahl zufälliger Zugriffe. S3 Express One Zone kann zusammen mit anderen AWS-Services zur Unterstützung von Workloads für Analysen, künstliche Intelligenz und maschinelles Lernen (KI/ML) wie Amazon EMR, Amazon SageMaker AI und Amazon Athena verwendet werden.

![\[Diagramm, das zeigt, wie S3 Express One Zone funktioniert.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/s3-express-one-zone.png)


Für Verzeichnis-Buckets, die die Speicherklasse S3 Express One Zone verwenden, werden Daten auf mehreren Geräten innerhalb einer einzigen Availability Zone speichert, Daten jedoch nicht redundant über Availability Zones hinweg speichert. Wenn Sie einen Directory-Bucket für die Verwendung der Speicherklasse S3 Express One Zone erstellen, empfehlen wir Ihnen, eine Availability Zone AWS-Region und eine Availability Zone anzugeben, die lokal für Ihre Amazon EC2-, Amazon Elastic Kubernetes Service- oder Amazon Elastic Container Service (Amazon ECS) Compute-Instances sind, um die Leistung zu optimieren. 

Wenn Sie S3 Express One Zone verwenden, können Sie mit Ihrem Verzeichnis-Bucket in einer Virtual Private Cloud (VPC) interagieren, indem Sie einen Gateway-VPC-Endpunkt verwenden. Mit einem Gateway-Endpunkt können Sie von Ihrer VPC aus auf Verzeichnis-Buckets von S3 Express One Zone zugreifen, ohne ein Internet-Gateway oder ein NAT-Gerät für Ihre VPC zu benötigen und ohne zusätzliche Kosten. 

Sie können viele der gleichen Amazon S3-API-Operationen und Funktionen mit Verzeichnis-Buckets verwenden, die Sie auch mit Allzweck-Buckets und anderen Speicherklassen nutzen. Dazu gehören Mountpoint für Amazon S3, serverseitige Verschlüsselung mit Amazon S3 S3-verwalteten Schlüsseln (SSE-S3), serverseitige Verschlüsselung mit AWS Key Management Service () -Schlüsseln (SSE-KMS AWS KMS), S3 Batch Operations und S3 Block Public Access. Sie können auf S3 Express One Zone zugreifen, indem Sie die Amazon S3 S3-Konsole AWS Command Line Interface (AWS CLI) AWS SDKs, und die Amazon S3 S3-REST-API verwenden.

Weitere Informationen zu S3 Express One Zone finden Sie in den folgenden Themen.
+ [-Übersicht](#s3-express-one-zone-overview)
+ [Funktionen von S3 Express One Zone](#s3-express-features)
+ [Zugehörige Services](#s3-express-related-services)
+ [Nächste Schritte](#s3-express-next-steps)

### -Übersicht
<a name="s3-express-one-zone-overview"></a>

Um die Leistung zu optimieren und die Latenz zu reduzieren, führt S3 Express One Zone die folgenden neuen Konzepte ein.

#### Verfügbarkeitszonen
<a name="s3-express-overview-az"></a>

Die Speicherklasse Amazon S3 Express One Zone ist für eine Verfügbarkeit von 99,95 % innerhalb einer einzigen Availability Zone konzipiert und wird durch das [Amazon S3 Service Level Agreement](https://aws.amazon.com/s3/sla/) unterstützt. Mit S3 Express One Zone werden Ihre Daten redundant auf mehreren Geräten innerhalb einer einzigen Availability Zone gespeichert. S3 Express One Zone wurde entwickelt, um mit gleichzeitigen Geräteausfällen umzugehen, indem verlorene Redundanz schnell erkannt und behoben werden kann. Wenn das vorhandene Gerät ausfällt, leitet S3 Express One Zone Anfragen automatisch an neue Geräte innerhalb einer Availability Zone weiter. Diese Redundanz trägt dazu bei, den unterbrechungsfreien Zugriff auf Ihre Daten innerhalb einer Availability Zone sicherzustellen.

Eine Availability Zone ist eines oder mehrere diskrete Rechenzentren mit redundanter Stromversorgung, Vernetzung und Konnektivität in einem AWS-Region. Wenn Sie einen Verzeichnis-Bucket erstellen, wählen Sie die Availability Zone und den AWS-Region Speicherort Ihres Buckets aus. 

##### Einzelne Availability Zone
<a name="directory-buckets-availability-zone"></a>

Wenn Sie einen Verzeichnis-Bucket erstellen, wählen Sie die Availability Zone und die AWS-Region.

Verzeichnis-Buckets verwenden die Speicherklasse S3 Express One Zone, die für die Verwendung durch leistungssensitive Anwendungen konzipiert wurde. S3 Express One Zone ist die erste S3-Speicherklasse, bei der Sie eine einzelne Availability Zone mit der Option auswählen können, Ihren Objektspeicher gemeinsam mit Ihren Rechenressourcen zu platzieren, was die höchstmögliche Zugriffsgeschwindigkeit bietet.

Mit S3 Express One Zone werden Ihre Daten redundant auf mehreren Geräten innerhalb einer einzigen Availability Zone gespeichert. S3 Express One Zone ist für eine Verfügbarkeit von 99,95 % innerhalb einer einzigen Availability Zone konzipiert und wird durch das [Amazon S3 Service Level Agreement](https://aws.amazon.com/s3/sla/) unterstützt. Weitere Informationen finden Sie unter [Verfügbarkeitszonen](#s3-express-overview-az).

#### Endpunkte und Gateway-VPC-Endpunkte
<a name="s3-express-overview-endpoints"></a>

API-Operationen zur Bucket-Verwaltung für Verzeichnis-Buckets sind über einen regionalen Endpunkt verfügbar und werden als API-Vorgänge für regionale Endpunkte bezeichnet. Beispiele für API-Operationen für regionalen Endpunkte sind `CreateBucket` und `DeleteBucket`. Nachdem Sie einen Verzeichnis-Bucket erstellt haben, können Sie mithilfe von API-Operationen für zonale Endpunkte die Objekte in Ihrem Verzeichnis-Bucket hochladen und verwalten. API-Vorgänge für zonale Endpunkte sind über einen zonalen Endpunkt verfügbar. Beispiele für API-Operationen für zonale Endpunkte sind `PutObject` und `CopyObject`.

Sie können über Gateway-VPC-Endpunkte von Ihrer VPC aus auf S3 Express One Zone zugreifen. Nachdem Sie den Gateway-Endpunkt erstellt haben, können Sie ihn als Ziel in Ihrer Routing-Tabelle für Datenverkehr hinzufügen, der von Ihrer VPC zu S3Express One Zone bestimmt ist. Wie bei Amazon S3 fallen für die Nutzung von Gateway-Endpunkten keine zusätzlichen Gebühren an. Weitere Informationen dazu, wie Sie Gateway-VPC-Endpunkte konfigurieren, finden Sie unter [Netzwerke für Verzeichnis-Buckets](s3-express-networking.md).

#### Sitzungsbasierte Autorisierung
<a name="s3-express-overview-authorization"></a>

Mit S3 Express One Zone authentifizieren und autorisieren Sie Anforderungen mithilfe eines neuen sitzungsbasierten Mechanismus, der für die niedrigste Latenz optimiert ist. Sie können mit `CreateSession` temporäre Anmeldeinformationen anfordern, die den Zugriff auf Ihren Bucket mit geringer Latenz ermöglichen. Diese temporären Anmeldeinformationen sind einem bestimmten S3-Verzeichnis-Bucket zugeordnet. Sitzungs-Token werden nur für zonale Operationen (auf Objektebene) verwendet (mit Ausnahme von [CopyObject](directory-buckets-objects-copy.md)). Weitere Informationen finden Sie unter [Autorisieren zonaler Endpunkt-API-Operationen mit `CreateSession`](s3-express-create-session.md). 

Die [AWS SDKsfür S3 Express One Zone unterstützte Zone kümmert](s3-express-SDKs.md#s3-express-getting-started-accessing-sdks) sich in Ihrem Namen um die Einrichtung und Aktualisierung von Sitzungen. Um Ihre Sitzungen zu schützen, laufen temporäre Sicherheitsanmeldedaten nach 5 Minuten ab. Nachdem Sie die erforderlichen AWS Identity and Access Management (IAM-) Berechtigungen heruntergeladen AWS SDKs und installiert und konfiguriert haben, können Sie sofort mit der Nutzung der API-Operationen beginnen.

### Funktionen von S3 Express One Zone
<a name="s3-express-features"></a>

Die folgenden S3-Funktionen sind für S3 Express One Zone verfügbar. Eine vollständige Liste der unterstützten API-Operationen und nicht unterstützten Funktionen finden Sie unter [Unterschiede bei Verzeichnis-Buckets](s3-express-differences.md).

#### Zugriffsverwaltung und Sicherheit
<a name="s3-express-features-access-management"></a>

Sie können die folgenden Funktionen zum Überwachen und Verwalten des Zugriffs verwenden. Standardmäßig sind Verzeichnis-Buckets privat und sind nur für Benutzer zugänglich, denen explizit Zugriff gewährt wurde. Im Gegensatz zu Allzweck-Buckets, bei denen die Zugriffskontrollgrenze auf Bucket-, Präfix- oder Objekt-Tag-Ebene festgelegt werden kann, wird die Zugriffskontrollgrenze für Verzeichnis-Buckets nur auf Bucket-Ebene festgelegt. Weitere Informationen finden Sie unter [Autorisieren regionaler Endpunkt-API-Operationen mit IAM](s3-express-security-iam.md). 
+ [S3 Block Public Access](access-control-block-public-access.md) – Alle Einstellungen für S3 Block Public Access sind standardmäßig auf Bucket-Ebene aktiviert. Diese Standardeinstellung kann nicht geändert werden. 
+ [S3 Object Ownership](about-object-ownership.md) (Bucket-Besitzer ist standardmäßig aktiviert) — Zugriffskontrolllisten (ACLs) werden für Verzeichnis-Buckets nicht unterstützt. Verzeichnis-Buckets verwenden automatisch die Einstellung „Bucket-Eigentümer erzwungen“ für S3 Object Ownership. Bucket Owner erzwungen bedeutet, dass diese deaktiviert ACLs sind, und der Bucket-Besitzer besitzt automatisch jedes Objekt im Bucket und hat die volle Kontrolle darüber. Diese Standardeinstellung kann nicht geändert werden. 
+ [AWS Identity and Access Management (IAM)](s3-express-security-iam.md) — IAM hilft Ihnen, den Zugriff auf Ihre Verzeichnis-Buckets sicher zu kontrollieren. Sie können IAM verwenden, um den Zugriff auf Bucket-Management-API-Operationen (regional) und Objekt-Management-API-Operationen (zonal) über die `s3express:CreateSession`-Aktion zu gewähren. Weitere Informationen finden Sie unter [Autorisieren regionaler Endpunkt-API-Operationen mit IAM](s3-express-security-iam.md). Im Gegensatz zu Objektverwaltungsaktionen können Bucket-Verwaltungsaktionen nicht kontoübergreifend sein. Nur der Bucket-Eigentümer kann diese Aktionen ausführen.
+ [Bucket-Richtlinien](s3-express-security-iam-example-bucket-policies.md) – Verwenden Sie die IAM-basierte Richtliniensprache, um ressourcenbasierte Berechtigungen für Ihre Verzeichnis-Buckets zu konfigurieren. Sie können IAM auch verwenden, um den Zugriff auf die `CreateSession`-API-Operation zu steuern, die es Ihnen ermöglicht, die zonalen oder objektbezogenen API-Operationen zu verwenden. Sie können kontointernen oder kontoübergreifenden Zugriff auf zonale API-Operationen gewähren. Weitere Informationen zu den Berechtigungen und Richtlinien von S3 Express One Zone finden Sie unter [Autorisieren regionaler Endpunkt-API-Operationen mit IAM](s3-express-security-iam.md).
+ [IAM Access Analyzer für S3](access-analyzer.md) – Bewerten und überwachen Sie Ihre Zugriffsrichtlinien, um sicherzustellen, dass die Richtlinien nur den beabsichtigten Zugriff auf Ihre S3-Ressourcen zulassen.

#### Protokollierung und Überwachung
<a name="s3-express-features-logging-monitoring"></a>

S3 Express One Zone verwendet die folgenden S3-Protokollierungs- und Überwachungstools, mit denen Sie überwachen und steuern können, wie Ihre Ressourcen verwendet werden.
+ [ CloudWatch Amazon-Metriken](cloudwatch-monitoring.md) — Überwachen Sie Ihre AWS Ressourcen und Anwendungen CloudWatch , indem Sie Metriken sammeln und verfolgen. S3 Express One Zone verwendet denselben CloudWatch Namespace wie andere Amazon S3 S3-Speicherklassen (`AWS/S3`) und unterstützt tägliche Speichermetriken für Verzeichnis-Buckets: `BucketSizeBytes` und. `NumberOfObjects` Weitere Informationen finden Sie unter [Metriken mit Amazon überwachen CloudWatch](cloudwatch-monitoring.md).
+ [AWS CloudTrail Logs](cloudtrail-logging-s3-info.md) — AWS CloudTrail ist ein Programm AWS-Service , das Sie bei der Durchführung von Betriebs- und Risikoprüfungen, Governance und Compliance unterstützt, AWS-Konto indem es die von einem Benutzer, einer Rolle oder einem ausgeführten Aktionen aufzeichnet. AWS-Service CloudTrail Erfasst für S3 Express One Zone regionale Endpunkt-API-Operationen (zum Beispiel `CreateBucket` und`PutBucketPolicy`) als Verwaltungsereignisse und zonale API-Operationen (zum Beispiel `GetObject` und`PutObject`) als Datenereignisse. Zu diesen Ereignissen gehören Aktionen AWS-Managementkonsole, die im Rahmen der AWS API-Operationen AWS SDKs, AWS Command Line Interface (AWS CLI) und ausgeführt wurden. Weitere Informationen finden Sie unter [Protokollierung mit AWS CloudTrail für S3 Express One Zone](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-one-zone-logging.html).

**Anmerkung**  
Amazon-S3-Serverzugriffsprotokolle werden von S3 Express One Zone nicht unterstützt.

#### Verwaltung von Objekten
<a name="s3-express-features-object-management"></a>

Sie können Ihren Objektspeicher mithilfe der Amazon S3 S3-Konsole AWS SDKs, und verwalten AWS CLI. Die folgenden Funktionen sind für die Objektverwaltung mit S3 Express One Zone verfügbar:
+ [S3-Stapeloperationen](batch-ops-create-job.md) — Verwenden Sie Batch-Operationen, um Massenoperationen an Objekten in Verzeichnis-Buckets durchzuführen, z. B. die Funktionen **Kopieren** und **Aufrufen AWS Lambda **. Sie können mit Batch Operations beispielsweise Objekte zwischen Verzeichnis-Buckets und Allzweck-Buckets kopieren. Mit Batch Operations können Sie Milliarden von Objekten in großem Umfang mit einer einzigen S3-Anfrage verwalten, indem Sie das AWS SDKs oder AWS CLI oder einige Mausklicks in der Amazon S3 S3-Konsole verwenden. 
+ [Import](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-import-job.html) – Nachdem Sie einen Verzeichnis-Bucket erstellt haben, können Sie Ihren Bucket mithilfe der Importfunktion in der Amazon-S3-Konsole mit Objekten füllen. Import ist eine optimierte Methode zur Erstellung von Batch-Operations-Aufträgen zum Kopieren von Objekten aus Allzweck-Buckets in Verzeichnis-Buckets.

#### AWS SDKs und Client-Bibliotheken
<a name="s3-express-features-client-libraries"></a>

 Sie können Ihren Objektspeicher mithilfe der Clientbibliotheken AWS SDKs und verwalten. 
+ [Mountpoint für Amazon S3](https://github.com/awslabs/mountpoint-s3/blob/main/doc/SEMANTICS.md) – Mountpoint for Amazon S3 ist ein Open-Source-Datei-Client, der Zugriff mit hohem Durchsatz ermöglicht und so die Rechenkosten für Data Lakes auf Amazon S3 senkt. Mountpoint für Amazon S3 ist ein lokales Dateisystem, das API-Aufrufe in S3-Objekt-API-Aufrufe wie `GET` und `LIST` umwandelt. Dies ist ideal für leseintensive Data-Lake-Workloads geeignet, die Petabytes an Daten verarbeiten und einen hohen elastischen Durchsatz benötigen, der von Amazon S3 bereitgestellt wird, um über Tausende von Instances hoch- oder herunterzuskalieren.
+ [https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#Introducing_the_Hadoop_S3A_client](https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#Introducing_the_Hadoop_S3A_client) – S3A ist eine empfohlene, mit Hadoop kompatible Schnittstelle für den Zugriff auf Datenspeicher in Amazon S3. S3A ersetzt den S3N–HadoopDateisystem-Client.
+ [PyTorchon AWS](https://docs.aws.amazon.com//sagemaker/latest/dg/pytorch.html) — PyTorch on AWS ist ein Open-Source-Deep-Learning-Framework, das die Entwicklung von Modellen für maschinelles Lernen und deren Einsatz in der Produktion erleichtert. 
+ [AWS SDKs](https://aws.amazon.com//developer/tools/)— Sie können das verwenden AWS SDKs , wenn Sie Anwendungen mit Amazon S3 entwickeln. Sie AWS SDKs vereinfachen Ihre Programmieraufgaben, indem Sie die zugrunde liegende Amazon S3 S3-REST-API einschließen. Weitere Informationen zur Verwendung der One Zone AWS SDKs mit S3 Express finden Sie unter[AWS SDKs](s3-express-SDKs.md#s3-express-getting-started-accessing-sdks).

### Verschlüsselung und Datenschutz
<a name="s3-express-features-encryption"></a>

Objekte in S3 Express One Zone werden automatisch durch serverseitige Verschlüsselung mit von Amazon S3 verwalteten Schlüsseln (SSE-S3) verschlüsselt. S3 Express One Zone unterstützt auch serverseitige Verschlüsselung mit AWS Key Management Service (AWS KMS)-Schlüsseln (SSE-KMS). S3 Express One Zone unterstützt keine serverseitige Verschlüsselung mit vom Kunden bereitgestellten Verschlüsselungsschlüsseln (SSE-C) oder die serverseitige Dual-Layer-Verschlüsselung mit AWS KMS keys (DSSE-KMS). Weitere Informationen finden Sie unter [Datenschutz und Verschlüsselung](s3-express-data-protection.md).

S3 Express One Zone bietet Ihnen die Möglichkeit, den Prüfsummenalgorithmus auszuwählen, der zur Validierung Ihrer Daten beim Hoch- oder Herunterladen verwendet wird. Sie können einen der folgenden Algorithmen zur Prüfung der Datenintegrität mit Secure Hash Algorithms (SHA) oder Cyclic Redundancy Check (CRC) auswählen: CRC32 C CRC32, SHA-1 und SHA-256. MD5basierte Prüfsummen werden von der S3 Express One Zone-Speicherklasse nicht unterstützt. 

Weitere Informationen finden Sie unter [Bewährte Methoden für zusätzliche S3-Prüfsummen](s3-express-optimizing-performance.md#s3-express-optimizing-performance-checksums).

### AWS Signatur Version 4 () SigV4
<a name="s3-express-features-sigv4"></a>

S3 Express One Zone verwendet AWS Signaturversion 4 (SigV4). SigV4ist ein Signaturprotokoll, das zur Authentifizierung von Anfragen an Amazon S3 über HTTPS verwendet wird. S3 Express One Zone signiert Anfragen mithilfe AWS Sigv4 von. Weitere Informationen finden Sie unter [Authentifizieren von Anfragen (AWS Signature Version 4)](https://docs.aws.amazon.com//AmazonS3/latest/API/sig-v4-authenticating-requests.html) in der *Amazon Simple Storage Service API-Referenz.*

### Starke Konsistenz
<a name="s3-express-features-strong-consistency"></a>

S3 Express One Zone bietet eine hohe read-after-write Konsistenz für alle Objekte `PUT` und `DELETE` Anfragen von Objekten in Ihren Verzeichnis-Buckets. AWS-Regionen Weitere Informationen finden Sie unter [Amazon S3-Datenkonsistenzmodell](Welcome.md#ConsistencyModel).

### Zugehörige Services
<a name="s3-express-related-services"></a>

Sie können Folgendes AWS-Services mit der S3 Express One Zone-Speicherklasse verwenden, um Ihren spezifischen Anwendungsfall mit niedriger Latenz zu unterstützen.
+ [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/ec2/index.html) – Amazon EC2 bietet sichere und skalierbare Rechenkapazität in der AWS Cloud. Amazon EC2 reduziert die Notwendigkeit, im Voraus in Hardware investieren zu müssen. Daher können Sie Anwendungen schneller entwickeln und bereitstellen. Mit Amazon EC2 können Sie so viele oder so wenige virtuelle Server starten, wie Sie benötigen, die Sicherheit und das Netzwerk konfigurieren und den Speicher verwalten.
+ [AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/welcome.html.html) – Lambda ist ein Computingservice, mit dem Sie Code ausführen können, ohne Server bereitstellen oder verwalten zu müssen. Sie konfigurieren Benachrichtigungseinstellungen für einen Bucket und erteilen die Amazon-S3-Berechtigung zum Aufrufen einer Funktion in der ressourcenbasierten Berechtigungsrichtlinie der Funktion. 
+ [Amazon Elastic Kubernetes Service (Amazon EKS)](https://docs.aws.amazon.com/eks/latest/userguide/what-is-eks.html) — Amazon EKS ist ein verwalteter Service, der die Installation, den Betrieb und die Wartung Ihrer eigenen Kubernetes Steuerungsebene überflüssig macht. AWS[https://kubernetes.io/docs/concepts/overview/](https://kubernetes.io/docs/concepts/overview/)ist ein Open-Source-System, das die Verwaltung, Skalierung und Bereitstellung von containerisierten Anwendungen automatisiert.
+ [Amazon Elastic Container Service (Amazon ECS)](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/Welcome.html) – Amazon ECS ist ein vollständig verwalteter Container-Orchestrierungsservice, mit dem Sie containerisierte Anwendungen einfach bereitstellen, verwalten und skalieren können.
+ [AWS Key Management Service (AWS KMS)](https://docs.aws.amazon.com/kms/latest/developerguide/overview.html) — AWS Der Key Management Service (AWS KMS) ist ein AWS verwalteter Dienst, mit dem Sie die Verschlüsselungsschlüssel, die zur Verschlüsselung Ihrer Daten verwendet werden, auf einfache Weise erstellen und kontrollieren können. Die AWS KMS-Schlüssel, die Sie in AWS KMS erstellen, werden durch FIPS 140-2-validierte Hardware-Sicherheitsmodule (HSM) geschützt. Um Ihre KMS-Schlüssel zu verwenden oder zu verwalten, interagieren Sie mit KMS. AWS 
+ [Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/what-is.html) – Athena ist ein interaktiver Abfrageservice, der die Analyse von Daten in Amazon S3 mit Standard-[SQL](https://docs.aws.amazon.com/athena/latest/ug/ddl-sql-reference.html) erleichtert. Athena vereinfacht auch die interaktive Ausführung von Datenanalysen mit Apache Spark, ohne Ressourcen planen, konfigurieren oder verwalten zu müssen. Wenn Sie Apache Spark-Anwendungen auf Athena ausführen, übermitteln Sie Spark-Code zur Verarbeitung und erhalten die Ergebnisse direkt.
+ [Amazon SageMaker Training](https://docs.aws.amazon.com//sagemaker/latest/dg/how-it-works-training.html) — Informieren Sie sich über die Optionen für Trainingsmodelle bei AmazonSageMaker, einschließlich integrierter Algorithmen, benutzerdefinierter Algorithmen, Bibliotheken und Modelle aus dem AWS Marketplace.
+ [AWS Glue](https://docs.aws.amazon.com/glue/latest/dg/what-is-glue.html)— AWS Glue ist ein serverloser Datenintegrationsservice, der es Analytics-Benutzern leicht macht, Daten aus verschiedenen Quellen zu finden, aufzubereiten, zu verschieben und zu integrieren. Sie können ihn AWS Glue für Analysen, maschinelles Lernen und Anwendungsentwicklung verwenden. AWS Glue umfasst auch zusätzliche Produktivitäts- und Datenmanagement-Tools für die Erstellung, Ausführung von Jobs und Implementierung von Geschäftsabläufen.
+ [Amazon EMR](https://docs.aws.amazon.com//emr/latest/ManagementGuide/emr-what-is-emr.html) — Amazon EMR ist eine verwaltete Cluster-Plattform, die den Betrieb von Big-Data-Frameworks wie Apache Hadoop und vereinfachtApache Spark, AWS um riesige Datenmengen zu verarbeiten und zu analysieren. 
+ [AWS CloudTrail](https://docs.aws.amazon.com//awscloudtrail/latest/userguide/cloudtrail-user-guide.html)— AWS CloudTrail ist ein AWS Service, der Sie bei der Betriebs- und Risikoprüfung, Verwaltung und Einhaltung der Vorschriften für Ihr AWS Konto unterstützt. Von einem Benutzer, einer Rolle oder einem AWS Dienst ausgeführte Aktionen werden als Ereignisse in aufgezeichnet CloudTrail. Zu den Ereignissen gehören Aktionen, die in der AWS Managementkonsole, der AWS Befehlszeilenschnittstelle und AWS SDKs und ausgeführt wurden APIs. 
+ [AWS CloudFormation ](https://docs.aws.amazon.com//AWSCloudFormation/latest/UserGuide/Welcome.html)— ist ein Service, der Sie bei der Modellierung und Einrichtung Ihrer AWS Ressourcen unterstützt, sodass Sie weniger Zeit mit der Verwaltung dieser Ressourcen verbringen und sich mehr auf Ihre Anwendungen konzentrieren können, die in ausgeführt AWS werden. Sie erstellen eine Vorlage, die alle gewünschten AWS Ressourcen beschreibt (wie Amazon EC2 EC2-Instances oder Amazon RDS-DB-Instances) und CloudFormation kümmert sich um die Bereitstellung und Konfiguration dieser Ressourcen für Sie. Sie müssen AWS Ressourcen nicht einzeln erstellen und konfigurieren und herausfinden, was wovon abhängt, sondern CloudFormation kümmert sich darum.

### Nächste Schritte
<a name="s3-express-next-steps"></a>

Weitere Informationen zum Arbeiten mit der Speicherklasse S3 Express One Zone und Verzeichnis-Buckets finden Sie in den folgenden Themen:
+ [Tutorial: Erste Schritte mit S3 Express One Zone](s3-express-getting-started.md)
+ [Availability Zones und Regionen bei S3 Express One Zone](s3-express-Endpoints.md)
+ [Netzwerke für Verzeichnis-Buckets in einer Availability Zone](directory-bucket-az-networking.md)
+ [Erstellen von Verzeichnis-Buckets in einer Availability Zone](directory-bucket-create.md)
+ [Regionale und zonale Endpunkte für Verzeichnis-Buckets in einer Availability Zone](endpoint-directory-buckets-AZ.md)
+ [Optimieren der Leistung von S3 Express One Zone](s3-express-performance.md)

# Tutorial: Erste Schritte mit S3 Express One Zone
<a name="s3-express-getting-started"></a>

Amazon S3 Express One Zone ist die erste S3-Speicherklasse, bei der Sie eine einzelne Availability Zone mit der Option auswählen können, Ihren Objektspeicher zusammen mit Ihren Rechenressourcen zu platzieren, was die höchstmögliche Zugriffsgeschwindigkeit bietet. Daten in S3 Express One Zone werden in Verzeichnis-Buckets gespeichert, die sich in Availability Zones befinden. Weitere Informationen zu Verzeichnis-Buckets finden Sie unter [Verzeichnis-Buckets](https://docs.aws.amazon.com//AmazonS3/latest/userguide/directory-buckets-overview.html). 

 S3 Express One Zone ist ideal für jede Anwendung, bei der es entscheidend ist, die Anforderungslatenz zu minimieren. Bei solchen Anwendungen kann es sich um Workflows handeln, mit denen Menschen interagieren, z. B. bei der Videobearbeitung, wo kreative Mitarbeiter über ihre Benutzeroberflächen schnell auf Inhalte zugreifen müssen. S3 Express One Zone bietet auch Vorteile für Analysen und Machine Learning, die ähnliche Anforderungen an die Reaktionsfähigkeit ihrer Daten stellen, insbesondere Workloads mit vielen kleineren Zugriffen oder einer großen Anzahl zufälliger Zugriffe. S3 Express One Zone kann mit anderen AWS Diensten wie Amazon EMR, Amazon Athena, AWS Glue Data Catalog und Amazon SageMaker Model Training verwendet werden, um Workloads für Analysen, künstliche Intelligenz und maschinelles Lernen (AI/ML) zu unterstützen. Sie können mit der Speicherklasse und den Verzeichnis-Buckets von S3 Express One Zone arbeiten, indem Sie die Amazon S3 S3-Konsole AWS SDKs, die AWS Befehlszeilenschnittstelle (AWS CLI) und die Amazon S3 S3-REST-API verwenden. Weitere Informationen finden Sie unter [Was ist S3 Express One Zone?](https://docs.aws.amazon.com//AmazonS3/latest/userguide/s3-express-one-zone.html) und [Wodurch zeichnet sich S3 Express One Zone aus?](https://docs.aws.amazon.com//AmazonS3/latest/userguide/s3-express-differences.html). 

![\[Dies ist ein Workflow-Diagramm für S3 Express One Zone.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/s3-express-one-zone.png)


**Ziel**  
In diesem Tutorial erfahren Sie, wie Sie einen Gateway-Endpunkt erstellen, eine IAM-Richtlinie erstellen und anhängen, einen Verzeichnis-Bucket erstellen und dann die Import-Aktion verwenden, um Ihren Verzeichnis-Bucket mit Objekten zu füllen, die derzeit in Ihrem Allzweck-Bucket gespeichert sind. Alternativ können Sie Objekte manuell in Ihre Verzeichnis-Bucket hochladen. 

**Topics**
+ [Voraussetzungen](#s3-express-tutorial-prerequisites)
+ [Schritt 1: Konfigurieren Sie einen Gateway-VPC-Endpunkt, um S3 Express One Zone-Verzeichnis-Buckets zu erreichen](s3-express-tutorial-endpoints.md)
+ [Schritt 2: Erstellen eines S3 Express One Zone-Verzeichnis-Buckets](s3-express-tutorial-create-directory-bucket.md)
+ [Schritt 3: Importieren von Daten in einen S3 Express One Zone-Verzeichnis-Bucket](s3-express-tutorial-Import.md)
+ [Schritt 4: Manuelles Hochladen von Objekten in Ihr S3 Express One Zone-Verzeichnis-Bucket](s3-express-tutorial-Upload.md)
+ [Schritt 5: Leeren Sie Ihren S3 Express One Zone-Verzeichnis-Bucket](s3-express-tutoiral-Empty.md)
+ [Schritt 6: Löschen Sie Ihren S3 Express One Zone-Verzeichnis-Bucket](s3-express-tutoiral-Delete.md)
+ [Nächste Schritte](#s3-express-tutoiral-Next)

## Voraussetzungen
<a name="s3-express-tutorial-prerequisites"></a>

Bevor Sie mit diesem Tutorial beginnen, benötigen Sie einen AWS-Konto , bei dem Sie sich als AWS Identity and Access Management (IAM-) Benutzer mit den richtigen Berechtigungen anmelden können.

**Topics**
+ [Erstellen Sie ein AWS-Konto](#s3-express-create-account)
+ [Erstellen Sie einen IAM-Benutzer in Ihrer AWS-Konto (Konsole)](#s3-express-tutorial-user)
+ [Erstellen Sie eine IAM-Richtlinie und fügen Sie diese an einen IAM-Benutzer oder eine -Rolle (Konsole) an.](#s3-express-tutorial-polict)

### Erstellen Sie ein AWS-Konto
<a name="s3-express-create-account"></a>

Um dieses Tutorial abzuschließen, benötigen Sie eine AWS-Konto. Wenn Sie sich für registrieren AWS, AWS-Konto ist Ihr automatisch für alle Services angemeldet AWS, einschließlich Amazon S3. Berechnet werden Ihnen aber nur die Services, die Sie nutzen. Weitere Informationen zu Preisen finden Sie unter [S3 – Preise](https://aws.amazon.com/s3/pricing/). 

### Erstellen Sie einen IAM-Benutzer in Ihrer AWS-Konto (Konsole)
<a name="s3-express-tutorial-user"></a>

AWS Identity and Access Management (IAM) hilft Administratoren dabei AWS-Service , den Zugriff auf Ressourcen sicher zu AWS kontrollieren. IAM-Administratoren steuern, wer authentifiziert (angemeldet) und autorisiert (Berechtigungen erhalten) werden kann, um auf Objekte zuzugreifen und Verzeichnis-Buckets in S3 Express One Zone zu nutzen. Sie können IAM ohne zusätzliche Kosten nutzen. 

Standardmäßig haben Benutzer keine Berechtigungen, um auf Verzeichnis-Buckets zuzugreifen und Operationen in S3 Express One Zone auszuführen. Um Zugriffsberechtigungen für Verzeichnis-Buckets und S3-Express-One-Zone-Vorgänge zu gewähren, können Sie IAM verwenden, um Benutzer oder Rollen zu erstellen und diesen Identitäten Berechtigungen zuzuweisen. Weitere Informationen zum Erstellen eines IAM-Benutzers finden Sie unter [Erstellen von IAM-Benutzern (Konsole)](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_users_create.html#id_users_create_console) im *IAM-Benutzerhandbuch*. Weitere Informationen zum Erstellen einer IAM-Rolle finden Sie unter [Erstellen einer Rolle zum Delegieren von Berechtigungen an einen IAM-Benutzer](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_create_for-user.html) im *IAM-Benutzerhandbuch*. 

Der Einfachheit halber wird in diesem Tutorial einen IAM-Benutzer erstellt und verwendet. Denken Sie nach Abschluss dieses Tutorials an [Löschen des IAM-Benutzers](tutorial-s3-object-lambda-uppercase.md#ol-upper-step8-delete-user). Für den Einsatz in der Produktion empfehlen wir, dass Sie die [bewährten Sicherheitsmethoden in IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/best-practices.html) im *IAM-Benutzerhandbuch* befolgen. Eine bewährte Methode ist, dass menschliche Benutzer den Verbund mit einem Identitätsanbieter verwenden, um mit temporären Anmeldeinformationen auf AWS zuzugreifen. Eine weitere bewährte Methode besteht darin, dass Workloads temporäre Anmeldeinformationen mit IAM-Rollen verwenden müssen, um auf AWS zuzugreifen. Weitere Informationen AWS IAM Identity Center zur Erstellung von Benutzern mit temporären Anmeldeinformationen finden Sie unter [Erste Schritte](https://docs.aws.amazon.com/singlesignon/latest/userguide/getting-started.html) im *AWS IAM Identity Center Benutzerhandbuch*. 

**Warnung**  
IAM-Benutzer verfügen über langfristige Anmeldeinformationen, was ein Sicherheitsrisiko darstellt. Um dieses Risiko zu minimieren, empfehlen wir, diesen Benutzern nur die Berechtigungen zu gewähren, die sie für die Ausführung der Aufgabe benötigen, und diese Benutzer zu entfernen, wenn sie nicht mehr benötigt werden.

### Erstellen Sie eine IAM-Richtlinie und fügen Sie diese an einen IAM-Benutzer oder eine -Rolle (Konsole) an.
<a name="s3-express-tutorial-polict"></a>

Standardmäßig haben Benutzer keine Berechtigungen für Verzeichnis-Buckets und S3-Express-One-Zone-Vorgänge. Um Zugriffsberechtigungen für Verzeichnis-Buckets zu gewähren, können Sie IAM verwenden, um Benutzer, Gruppen oder Rollen zu erstellen und diesen Identitäten Berechtigungen zuzuweisen. Verzeichnis-Buckets sind die einzige Ressource, die Sie in Bucket-Richtlinien oder IAM-Identitätsrichtlinien für den Zugriff auf S3 Express One Zone aufnehmen können. 

Um regionale Endpunkt-API-Operationen (Operationen auf Bucket-Ebene oder Steuerebene) mit S3 Express One Zone zu verwenden, verwenden Sie das IAM-Autorisierungsmodell, das kein Sitzungsmanagement beinhaltet. Berechtigungen werden für Aktionen einzeln erteilt. Um API-Vorgänge für zonale Endpunkte (Vorgänge auf Objektebene oder Datenebene) zu verwenden, verwenden Sie [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateSession.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateSession.html), um Sitzungen zu erstellen und zu verwalten, die für die Autorisierung von Datenanforderungen mit geringer Latenz optimiert sind. Um ein Sitzungstoken abzurufen und zu verwenden, müssen Sie die `s3express:CreateSession`-Aktion für Ihren Verzeichnis-Bucket in einer identitätsbasierten Richtlinie oder einer Bucket-Richtlinie zulassen. Wenn Sie in der Amazon S3-Konsole, über die AWS Befehlszeilenschnittstelle (AWS CLI) oder mithilfe der auf S3 Express One Zone zugreifen AWS SDKs, erstellt S3 Express One Zone in Ihrem Namen eine Sitzung. Weitere Informationen finden Sie unter [`CreateSession`-Autorisierung](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-create-session.html) und [AWS Identity and Access Management (IAM) für S3 Express One Zone](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-security-iam.html). 

**So erstellen Sie eine benutzerdefinierte IAM-Richtlinie und fügen diese an einen IAM-Benutzer (oder eine Rolle) an**

1. Melden Sie sich bei der AWS Management Console an und öffnen Sie die IAM Management Console.

1. Wählen Sie im Navigationsbereich **Richtlinien**.

1. Wählen Sie **Richtlinie erstellen** aus.

1. Wählen Sie **JSON** aus.

1. Kopieren Sie die nachstehende Richtlinie in das Fenster **Richtlinien-Editor**. Bevor Sie Verzeichnis-Buckets erstellen oder S3 Express One Zone verwenden können, müssen Sie Ihrer AWS Identity and Access Management (IAM-) Rolle oder Ihren Benutzern die erforderlichen Berechtigungen erteilen. Diese Beispielrichtlinie erlaubt den Zugriff auf die `CreateSession`-API-Operation (zur Verwendung mit anderen zonalen oder objektbezogenen API-Operationen) sowie auf alle API-Operationen des regionalen Endpunkts (Bucket-Ebene). Diese Richtlinie ermöglicht die Verwendung des `CreateSession`-API-Vorgangs mit allen Verzeichnis-Buckets, aber die API-Operationen für regionale Endpunkte sind nur für die Verwendung mit dem angegebenen Verzeichnis-Bucket zulässig. Wenn Sie diese Beispielrichtlinie verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre eigenen Informationen.

------
#### [ JSON ]

****  

   ```
   {
        "Version":"2012-10-17",		 	 	 
        "Statement": [ 
            {
                "Sid": "AllowAccessRegionalEndpointAPIs",
                "Effect": "Allow",
                "Action": [
                    "s3express:DeleteBucket",
                    "s3express:DeleteBucketPolicy",
                    "s3express:CreateBucket",
                    "s3express:PutBucketPolicy",
                    "s3express:GetBucketPolicy",
                    "s3express:ListAllMyDirectoryBuckets"
                ],
   
                "Resource": "arn:aws:s3express:us-east-1:111122223333:bucket/amzn-s3-demo-bucket--usw2-az1--x-s3/*"
            },
            {
                "Sid": "AllowCreateSession",
                "Effect": "Allow",
                "Action": "s3express:CreateSession",
                "Resource": "*"
            }
        ]
    }
   ```

------

1. Wählen Sie **Weiter** aus.

1. Benennen Sie die Richtlinie.
**Anmerkung**  
Bucket-Tags werden für S3 Express One Zone nicht unterstützt.

1. Wählen Sie **Richtlinie erstellen**.

1.  Nachdem Sie eine IAM-Richtlinie erstellt haben, können Sie sie einem IAM-Benutzer anfügen. Wählen Sie im Navigationsbereich **Richtlinien**.

1. Geben Sie im **Suchfeld** den Namen der Richtlinie ein.

1. Wählen Sie im Menü **Aktionen** die Option **Anhängen** aus. 

1. Wählen Sie unter **Nach Entitätstyp filtern** die Option **IAM-Benutzer** oder **Rollen** aus. 

1. GebenSie im **Suchfeld** den Namen des Benutzers oder der Rolle ein, den/die Sie verwenden möchten.

1. Wählen Sie **Richtlinie anfügen** aus.

**Topics**
+ [Erstellen Sie ein AWS-Konto](#s3-express-create-account)
+ [Erstellen Sie einen IAM-Benutzer in Ihrer AWS-Konto (Konsole)](#s3-express-tutorial-user)
+ [Erstellen Sie eine IAM-Richtlinie und fügen Sie diese an einen IAM-Benutzer oder eine -Rolle (Konsole) an.](#s3-express-tutorial-polict)

# Schritt 1: Konfigurieren Sie einen Gateway-VPC-Endpunkt, um S3 Express One Zone-Verzeichnis-Buckets zu erreichen
<a name="s3-express-tutorial-endpoints"></a>

 Sie können über Gateway-Virtual-Private-Cloud (VPC)-Endpunkte auf zonale und regionale Endpunkte zugreifen. Gateway-Endpunkte können es ermöglichen, dass der Datenverkehr S3 Express One Zone erreicht, ohne ein NAT-Gateway zu passieren. Wir empfehlen dringend, Gateway-Endpunkte zu verwenden, da sie bei der Arbeit mit S3 Express One Zone den optimalsten Netzwerkpfad bieten. Sie können auf Verzeichnis-Buckets von S3-Express One Zone von Ihrer VPC aus zugreifen, ohne ein Internet-Gateway oder ein NAT-Gerät für Ihre VPC zu benötigen und ohne zusätzliche Kosten. Gehen Sie wie folgt vor, um einen Gateway-Endpunkt zu konfigurieren, der eine Verbindung zu Objekten der Speicherklasse Amazon S3 Express One Zone und Verzeichnis-Buckets herstellt.

Für den Zugriff auf S3 Express One Zone verwenden Sie regionale und zonale Endpunkte, die sich von den standardmäßigen Amazon-S3-Endpunkten unterscheiden. Je nachdem, welchen Amazon-S3-API-Vorgang Sie verwenden, ist entweder ein regionaler oder ein zonaler Endpunkt erforderlich. Eine vollständige Liste der unterstützten API-Operationen nach Endpunkttyp finden Sie unter [Von S3 Express One Zone unterstützte API-Operationen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-differences.html#s3-express-differences-api-operations). Sie müssen über einen Gateway Virtual-Private-Cloud (VPC)-Endpunkt auf zonale und regionale Endpunkte zugreifen. 

 Gehen Sie wie folgt vor, um einen Gateway-Endpunkt zu erstellen, der eine Verbindung zu Objekten der Speicherklasse S3 Express One Zone und Verzeichnis-Buckets herstellt.

**So konfigurieren Sie einen Gateway-VPC-Endpunkt**

1. Öffnen Sie die Amazon-VPC-Konsole unter [https://console.aws.amazon.com/vpc/](https://console.aws.amazon.com/vpc/).

1. Wählen Sie im Navigationsmenü unter **Virtual Private Cloud** die Option **Endpunkte** aus.

1. Wählen Sie **Endpunkt erstellen** aus.

1. Erstellen Sie einen Namen für Ihren Endpunkt.

1. Wählen Sie für **Servicekategorie** die Option **AWS-Services** aus. 

1. **Suchen Sie unter **Dienste** mit dem Filter **Type=Gateway** und wählen Sie dann das Optionsfeld neben com.amazonaws aus. *region*.s3express.** 

1. Wählen Sie für **VPC** die VPC, in der der Endpunkt erstellt werden soll.

1. Wählen Sie für **Routing-Tabellen** die Routing-Tabelle in Ihrer lokalen Zone aus, die vom Endpunkt verwendet werden soll. Nachdem der Endpunkt erstellt wurde, wird der Routing-Tabelle, die Sie in diesem Schritt auswählen, ein Routing-Datensatz hinzugefügt.

1. Wählen Sie für **Richtlinie** **Vollzugriff**, um alle Operationen aller Prinzipale auf allen Ressourcen über den VPC-Endpunkt zuzulassen. Wählen Sie andernfalls **Benutzerdefiniert** aus, um eine VPC-Endpunktrichtlinie anzufügen, die die Berechtigungen steuert, die Prinzipale zum Ausführen von Aktionen für Ressourcen über den VPC-Endpunkt haben.

1. Wählen Sie für **IP address type** (IP-Adressentyp) eine der folgenden Optionen aus:
   +  **IPv4**— Weisen Sie den Netzwerkschnittstellen der Endpunkte IPv4 Adressen zu. Diese Option wird nur unterstützt, wenn alle ausgewählten Subnetze IPv4 Adressbereiche haben und der Dienst IPv4 Anfragen akzeptiert. 
   +  **IPv6**— Weist den Endpunkt-Netzwerkschnittstellen IPv6 Adressen zu. Diese Option wird nur unterstützt, wenn alle ausgewählten Subnetze IPv6 nur Subnetze sind und der Dienst Anfragen akzeptiert IPv6 .
   +  **Dualstack** — Weisen Sie den IPv4 Endpunkt-Netzwerkschnittstellen sowohl als auch IPv6 Adressen zu. Diese Option wird nur unterstützt, wenn alle ausgewählten Subnetze sowohl als auch IPv6 Adressbereiche haben IPv4 und der Dienst sowohl Anfragen als auch IPv4 Anfragen akzeptiert. IPv6 

1. (Optional) Sie fügen ein Tag hinzu, indem Sie **Neues Tag hinzufügen** auswählen und den Schlüssel und den Wert für das Tag eingeben.

1. Wählen Sie **Endpunkt erstellen** aus.

Nachdem Sie einen Gateway-Endpunkt erstellt haben, können Sie regionale API-Endpunkte und zonale API-Endpunkte verwenden, um auf Objekte in der Speicherklasse Amazon S3 Express One Zone und Verzeichnis-Buckets zuzugreifen.

# Schritt 2: Erstellen eines S3 Express One Zone-Verzeichnis-Buckets
<a name="s3-express-tutorial-create-directory-bucket"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie in der Navigationsleiste oben auf der Seite den Namen der aktuell angezeigten Datei aus AWS-Region. Wählen Sie anschließend die Region aus, in der Sie einen Bucket erstellen möchten. 
**Anmerkung**  
Wählen Sie eine Region in der Nähe aus, um Latenz und Kosten gering zu halten und behördliche Vorschriften zu erfüllen. In einer Region gespeicherte Objekte verbleiben so lange in der Region, bis sie explizit in eine andere Region verschoben werden. Eine Liste von Amazon S3 finden Sie AWS-Regionen unter [AWS-Service Endpoints](https://docs.aws.amazon.com/general/latest/gr/rande.html#s3_region) in der *Allgemeine Amazon Web Services-Referenz*.

1. Wählen Sie im linken Navigationsbereich **Verzeichnis-Buckets** aus.

1. Wählen Sie **Create Bucket** (Bucket erstellen) aus. Anschließend wird die Seite **Bucket erstellen** geöffnet.

1. Sehen Sie sich unter **Allgemeine Konfiguration** an, AWS-Region wo Ihr Bucket erstellt wird. 

   Wählen Sie unter **Bucket-Typ** die Option **Verzeichnis** aus.
**Anmerkung**  
Wenn Sie eine Region ausgewählt haben, die keine Verzeichnis-Buckets unterstützt, verschwindet die Option **Bucket-Typ** und der Bucket-Typ wird standardmäßig zu einem Allzweck-Bucket. Um einen Verzeichnis-Bucket zu erstellen, müssen Sie eine unterstützte Region auswählen. Eine Liste der Regionen, die Verzeichnis-Buckets und die Speicherklasse Amazon S3 Express One Zone unterstützen, finden Sie unter [Availability Zones und Regionen bei S3 Express One Zone](s3-express-Endpoints.md).
Nach dem Erstellen des Buckets kann der Bucket-Typ nicht mehr geändert werden.
**Anmerkung**  
Die Availability Zone kann nicht geändert werden, nachdem der Bucket erstellt wurde. 

1. Wählen Sie für **Availability Zone** eine Availability Zone aus, die für Ihre Computing-Services lokal ist. Eine Liste von Availability Zones, die Verzeichnis-Buckets und die Speicherklasse S3 Express One Zone unterstützen, finden Sie unter [Availability Zones und Regionen bei S3 Express One Zone](s3-express-Endpoints.md). 

   Markieren Sie unter **Availability Zone** das Kontrollkästchen, um zu bestätigen, dass Ihre Daten im Falle eines Ausfalls der Availability Zone möglicherweise nicht verfügbar sind oder verloren gehen. 
**Wichtig**  
Verzeichnis-Buckets werden über mehrere Geräte hinweg innerhalb einer einzelnen Availability Zone gespeichert, speichern jedoch Daten nicht in redundanter Weise über Availability Zones hinweg.

1. Geben Sie unter **Bucket-Name** einen Namen für Ihren Verzeichnis-Bucket ein.

   Die folgenden Regeln gelten für die Benennung von Verzeichnis-Buckets.
   + Seien Sie innerhalb der ausgewählten Zone (AWS Availability Zone oder AWS Local Zone) einzigartig. 
   + Der Bucket-Name muss mindestens 3 und darf höchstens 63 Zeichen enthalten, einschließlich des Suffixes.
   + Darf nur aus Kleinbuchstaben, Zahlen und Bindestrichen bestehen.
   + Muss mit einer Zahl oder einem Buchstaben beginnen und enden. 
   + Muss das folgende Suffix enthalten: `--zone-id--x-s3`.
   + Der Bucket-Name darf nicht mit dem Präfix `xn--` beginnen.
   + Der Bucket-Name darf nicht mit dem Präfix `sthree-` beginnen.
   + Der Bucket-Name darf nicht mit dem Präfix `sthree-configurator` beginnen.
   + Der Bucket-Name darf nicht mit dem Präfix ` amzn-s3-demo-` beginnen.
   + Bucket-Namen dürfen nicht mit dem Suffix `-s3alias` enden. Dieses Suffix ist für Zugriffspunkt-Aliasnamen reserviert. Weitere Informationen finden Sie unter [Zugriffspunkt-Aliasse](access-points-naming.md#access-points-alias).
   + Bucket-Namen dürfen nicht mit dem Suffix `--ol-s3` enden. Dieses Suffix ist für Objekt-Lambda-Zugriffspunkt-Aliasnamen reserviert. Weitere Informationen finden Sie unter [So verwenden Sie einen Alias im Bucket-Stil für den Object Lambda Access Point Ihres S3-Buckets](olap-use.md#ol-access-points-alias).
   + Bucket-Namen dürfen nicht mit dem Suffix `.mrap` enden. Dieses Suffix ist für Namen Multi-Region Access Point reserviert. Weitere Informationen finden Sie unter [Regeln zur Benennung von Amazon S3-Multi-Regions-Zugriffspunkten](multi-region-access-point-naming.md).

   Dem von Ihnen angegebenen Basisnamen wird automatisch ein Suffix hinzugefügt, wenn Sie einen Verzeichnis-Buckets mit der Konsole erstellen. Dieses Suffix enthält die ID der Availability Zone, die Sie ausgewählt haben.

   Der Name eines einmal erstellten Buckets kann nicht nachträglich geändert werden. Weitere Informationen zur Benennung von Buckets finden Sie unter [Benennungsregeln für Allzweck-Buckets](bucketnamingrules.md). 
**Wichtig**  
Geben Sie keine vertrauliche Informationen, wie Kontonummern, im Bucket-Namen an. Der Bucket-Name ist in dem Bereich sichtbar URLs , der auf die Objekte im Bucket verweist.

1. Unter **Object Ownership** **ist die Einstellung Bucket Owner** erforced automatisch aktiviert und alle Zugriffskontrolllisten (ACLs) sind deaktiviert. Kann für Verzeichnis-Buckets nicht ACLs aktiviert werden. 

    **Bucket-Besitzer erzwungen (Standard)** — ACLs sind deaktiviert, und der Bucket-Besitzer besitzt automatisch jedes Objekt im Allzweck-Bucket und hat die volle Kontrolle darüber. ACLs wirken sich nicht mehr auf die Zugriffsberechtigungen für Daten im S3-Allzweck-Bucket aus. Der Bucket verwendet ausschließlich Richtlinien, um die Zugriffssteuerung zu definieren.

1. Unter **Einstellungen für den öffentlichen Zugriff für diesen Bucket blockieren** werden die Einstellungen für die Blockierung des öffentlichen Zugriffs für Ihren Verzeichnis-Bucket automatisch aktiviert. Diese Einstellung kann für Verzeichnis-Buckets nicht geändert werden. Weitere Informationen zum Blockieren des öffentlichen Zugriffs finden Sie unter [Blockieren des öffentlichen Zugriffs auf Ihren Amazon-S3-Speicher](access-control-block-public-access.md).

1. Wählen Sie eine der folgenden Optionen unter **Verschlüsselungstyp** aus, um die Standardverschlüsselung zu konfigurieren: 
   + **Serverseitige Verschlüsselung mit von Amazon S3 verwaltetem Schlüssel (SSE-S3)**
   + **Serverseitige Verschlüsselung mit AWS Key Management Service Schlüssel (SSE-KMS)**

   Weitere Informationen zur Datenverschlüsselung mit der serverseitigen Amazon-S3-Verschlüsselung finden Sie unter [Datenschutz und Verschlüsselung](s3-express-data-protection.md).
**Wichtig**  
Wenn Sie die Option SSE-KMS für die Standardverschlüsselung verwenden, unterliegen Sie den Kontingenten der Anforderungen pro Sekunde (RPS) von AWS KMS. Weitere Informationen zu AWS KMS -Kontingenten und zum Anfordern einer Kontingenterhöhung finden Sie unter [Kontingente](https://docs.aws.amazon.com/kms/latest/developerguide/limits.html) im *Entwicklerhandbuch zu AWS Key Management Service *.  
Möglicherweise müssen Sie Ihre Bucket-Richtlinie aktualisieren, wenn Sie die Standardverschlüsselung aktivieren. Weitere Informationen finden Sie unter [Verwenden der SSE-KMS-Verschlüsselung für kontoübergreifende Vorgänge](bucket-encryption.md#bucket-encryption-update-bucket-policy).

1. Wenn Sie **Serverseitige Verschlüsselung mit verwalteten Amazon-S3-Schlüsseln (SSE-S3)** ausgewählt haben, wird unter **Bucket Key** **Enabled** angezeigt. S3-Bucket-Schlüssel sind immer aktiviert, wenn Sie Ihren Verzeichnis-Bucket für die Verwendung der Standardverschlüsselung mit SSE-S3 konfigurieren. S3 Bucket Keys sind immer für `GET`- und `PUT`-Vorgänge in einem Verzeichnis-Bucket aktiviert und können nicht deaktiviert werden. S3 Bucket Keys werden nicht unterstützt, wenn Sie SSE-KMS-verschlüsselte Objekte von Allzweck-Buckets zu Verzeichnis-Buckets, von Verzeichnis-Buckets zu Allzweck-Buckets oder zwischen Verzeichnis-Buckets über [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html), [die Copy-Operation in Batch Operations](directory-buckets-objects-Batch-Ops.md) oder [die import-Aufgaben](create-import-job.md) kopieren. In diesem Fall ruft Amazon S3 AWS KMS jedes Mal, wenn eine Kopieranforderung für ein KMS-verschlüsseltes Objekt gestellt wird, auf.

   S3-Bucket-Keys senken die Kosten für die Verschlüsselung, indem sie den Anforderungsverkehr von Amazon S3 zu verringern AWS KMS. Weitere Informationen finden Sie unter [Reduzieren des Preises von SSE-KMS mit Amazon-S3-Bucket-Schlüsseln](bucket-key.md).

1. Wenn Sie **serverseitige Verschlüsselung mit AWS Key Management Service Schlüssel (SSE-KMS)** ausgewählt haben, geben Sie unter ** AWS KMS Schlüssel** Ihren AWS Key Management Service Schlüssel auf eine der folgenden Arten an oder erstellen Sie einen neuen Schlüssel.
   + **Um aus einer Liste verfügbarer KMS-Schlüssel auszuwählen, wählen Sie Wählen Sie **aus Ihrem und wählen Sie Ihren AWS KMS keys** **KMS-Schlüssel** unter Verfügbar aus. AWS KMS keys**

     In dieser Liste werden nur Ihre kundenseitig verwaltete Schlüssel angezeigt. Das Von AWS verwalteter Schlüssel (`aws/s3`) wird in Verzeichnis-Buckets nicht unterstützt. Weitere Informationen über vom Kunden verwaltete Schlüssel finden Sie unter [Kundenschlüssel und AWS -Schlüssel](https://docs.aws.amazon.com//kms/latest/developerguide/concepts.html#key-mgmt) im *Entwicklerhandbuch zu AWS Key Management Service *.
   + Wählen Sie zum Eingeben des KMS-Schlüssel-ARN ** AWS KMS key -ARN eingeben** aus und geben Sie Ihren KMS-Schlüssel-ARN oder Alias in **AWS KMS key -ARN** ein. 
   + Um einen neuen vom Kunden verwalteten Schlüssel in der AWS KMS Konsole zu **erstellen, wählen Sie Create a KMS key** aus.

     Weitere Informationen zum Erstellen eines finden Sie AWS KMS key unter [Creating Keys](https://docs.aws.amazon.com//kms/latest/developerguide/create-keys.html) im *AWS Key Management Service Developer Guide*.
**Wichtig**  
Ihre SSE-KMS-Konfiguration kann für die gesamte Lebensdauer des Buckets nur einen [vom Kunden verwalteten Schlüssel](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#customer-cmk) pro Verzeichnis-Bucket unterstützen. Der [https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#aws-managed-cmk](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#aws-managed-cmk) (`aws/s3`) wird nicht unterstützt. Nachdem Sie einen vom Kunden verwalteten Schlüssel für SSE-KMS angegeben haben, können Sie den vom Kunden verwalteten Schlüssel für die SSE-KMS-Konfiguration des Buckets nicht mehr überschreiben.  
Sie können den vom Kunden verwalteten Schlüssel, den Sie für die SSE-KMS-Konfiguration des Buckets angegeben haben, wie folgt identifizieren:  
Sie stellen eine `HeadObject` API-Operationsanforderung, um den Wert von `x-amz-server-side-encryption-aws-kms-key-id` in Ihrer Antwort zu ermitteln.
Um einen neuen, vom Kunden verwalteten Schlüssel für Ihre Daten zu verwenden, empfehlen wir, Ihre vorhandenen Objekte mit einem neuen vom Kunden verwalteten Schlüssel in einen neuen Verzeichnis-Bucket zu kopieren.
Sie können nur KMS-Schlüssel verwenden, die im selben AWS-Region Bucket verfügbar sind. Die Amazon-S3-Konsole führt nur die ersten 100 KMS-Schlüssel auf, die in derselben Region wie der Bucket verfügbar sind. Wenn Sie einen KMS-Schlüssel verwenden möchten, der nicht aufgeführt ist, müssen Sie den KMS-Schlüssel-ARN eingeben. Wenn Sie einen KMS-Schlüssel verwenden möchten, der sich im Besitz eines anderen Kontos befindet, müssen Sie über die Berechtigung zum Verwenden des Schlüssels verfügen und Sie müssen den KMS-Schlüssel-ARN eingeben. Weitere Informationen zu kontoübergreifenden Berechtigungen für KMS-Schlüssel finden Sie unter [Erstellen von KMS-Schlüsseln, die von anderen Konten verwendet werden können](https://docs.aws.amazon.com//kms/latest/developerguide/key-policy-modifying-external-accounts.html#cross-account-console) im *Entwicklerhandbuch zu AWS Key Management Service *. Weitere Informationen zu SSE-KMS finden Sie unter [Spezifizierung der serverseitigen Verschlüsselung mit AWS KMS (SSE-KMS) für das Hochladen neuer Objekte in Verzeichnis-Buckets](s3-express-specifying-kms-encryption.md).
Wenn Sie einen AWS KMS key für die serverseitige Verschlüsselung in Verzeichnis-Buckets verwenden, müssen Sie einen KMS-Schlüssel für die symmetrische Verschlüsselung wählen. Amazon S3 unterstützt nur KMS-Schlüssel mit symmetrischer Verschlüsselung und keine asymmetrischen KMS-Schlüssel. Weitere Informationen finden Sie unter [Erkennen von symmetrischen und asymmetrischen KMS-Schlüsseln](https://docs.aws.amazon.com//kms/latest/developerguide/find-symm-asymm.html) im *Entwicklerhandbuch zu AWS Key Management Service *.

   Weitere Informationen zur Verwendung AWS KMS mit Amazon S3 finden Sie unter[Verwendung der serverseitigen Verschlüsselung mit Schlüsseln (SSE-KMS) in Verzeichnis-Buckets AWS KMS](s3-express-UsingKMSEncryption.md).

1. Wählen Sie **Create Bucket** (Bucket erstellen) aus. Nachdem Sie den Bucket erstellt haben, können Sie ihm Dateien und Ordner hinzufügen. Weitere Informationen finden Sie unter [Arbeiten mit Objekten in einem Verzeichnis-Bucket](directory-buckets-objects.md).

# Schritt 3: Importieren von Daten in einen S3 Express One Zone-Verzeichnis-Bucket
<a name="s3-express-tutorial-Import"></a>

Um diesen Schritt abzuschließen, benötigen Sie einen Allzweck-Bucket, der Objekte enthält und sich im selben Verzeichnis befindet AWS-Region wie Ihr Verzeichnis-Bucket.

Nachdem Sie einen Verzeichnis-Bucket in Amazon S3 erstellt haben, können Sie den neuen Bucket mit Daten füllen, indem Sie die Importaktion in der Amazon-S3-Konsole verwenden. Import vereinfacht das Kopieren von Daten in Verzeichnis-Buckets, indem Sie ein Präfix oder einen Allzweck-Bucket auswählen können, aus dem Daten importiert werden sollen, ohne alle zu kopierenden Objekte einzeln angeben zu müssen. Import verwendet S3 Batch Operations, wobei Objekte im ausgewählten Präfix oder im Allzweck-Bucket kopiert werden. Sie können den Fortschritt des Import-Kopierauftrags auf der Seite mit den Auftragsdetails für S3 Batch Operations überwachen. 

**So verwenden Sie die Import-Aktion**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie in der Navigationsleiste oben auf der Seite den Namen der aktuell angezeigten AWS-Region aus. Wählen Sie als Nächstes die Region aus, die mit der Availability Zone verknüpft ist, in der sich Ihr Verzeichnis-Bucket befindet. 

1. Wählen Sie im linken Navigationsbereich **Verzeichnis-Buckets** aus.

1. Wählen Sie die Optionsschaltfläche neben dem Namen des Buckets, in den Sie Objekte importieren möchten.

1. Wählen Sie **Importieren** aus.

1. Geben Sie unter **Quelle** den Allzweck-Bucket (oder den Bucket-Pfad einschließlich Präfix) ein, der die Objekte enthält, die Sie importieren möchten. Um einen vorhandenen Allzweck-Bucket aus einer Liste auszuwählen, wählen Sie **S3 durchsuchen**.

1.  Im Bereich **Berechtigungen** können Sie festlegen, dass eine IAM-Rolle automatisch generiert wird. Alternativ können Sie eine IAM-Rolle aus einer Liste auswählen oder direkt einen IAM-Rollen-ARN eingeben. 
   + Damit Amazon S3 für Sie eine neue IAM-Rolle erstellen kann, wählen Sie **Neue IAM-Rolle erstellen**.
**Anmerkung**  
Wenn Ihre Quellobjekte mit serverseitiger Verschlüsselung mit AWS Key Management Service (AWS KMS)-Schlüsseln (SSE-KMS) verschlüsselt sind, wählen Sie die Option **Neue IAM-Rolle erstellen** nicht aus. Geben Sie stattdessen eine vorhandene IAM-Rolle an, die über die `kms:Decrypt`-Berechtigung verfügt.  
Amazon S3 verwendet diese Berechtigung, um Ihre Objekte zu entschlüsseln. Während des Importvorgangs verschlüsselt Amazon S3 diese Objekte erneut unter Verwendung der serverseitigen Verschlüsselung mit von Amazon S3 verwalteten Schlüsseln (SSE-S3).
   + Um eine bestehende IAM-Rolle aus einer Liste auszuwählen, wählen Sie **Aus vorhandenen IAM-Rollen auswählen**.
   + Um eine bestehende IAM-Rolle anzugeben, indem Sie ihren Amazon-Ressourcennamen (ARN) angeben, wählen Sie **IAM-Rollen-ARN eingeben** aus und geben den ARN im entsprechenden Feld an.

1. Überprüfen Sie die Informationen, die in den Abschnitten **Ziel** und **Kopierte Objekteinstellungen** angezeigt werden. Wenn die Informationen im Bereich **Ziel** korrekt sind, wählen Sie **Import**, um den Kopierauftrag zu starten.

   Die Amazon-S3-Konsole zeigt den Status Ihres neuen Auftrags auf der Seite **Batch-Operationen** an. Für weitere Informationen über den Auftrag klicken Sie auf das Optionsfeld neben dem Auftragsnamen und wählen dann im Menü **Aktionen** die Option **Details anzeigen**. Um den Verzeichnis-Bucket zu öffnen, in den die Objekte importiert werden, wählen Sie **Importziel anzeigen**.

# Schritt 4: Manuelles Hochladen von Objekten in Ihr S3 Express One Zone-Verzeichnis-Bucket
<a name="s3-express-tutorial-Upload"></a>

Sie können Objekte auch manuell in Ihren Verzeichnis-Bucket hochladen.

**So laden Sie Objekte manuell hoch**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie in der Navigationsleiste in der oberen rechten Ecke der Seite den Namen der aktuell angezeigten Seite aus AWS-Region. Wählen Sie als Nächstes die Region aus, die mit der Availability Zone verknüpft ist, in der sich Ihr Verzeichnis-Bucket befindet. 

1. Wählen Sie im linken Navigationsbereich **Verzeichnis-Buckets** aus.

1. Wählen Sie den Namen des Buckets aus, in den Sie Ihre Ordner oder Dateien hochladen möchten. 
**Anmerkung**  
 Wenn Sie denselben Verzeichnis-Bucket ausgewählt haben, den Sie in den vorherigen Schritten dieses Tutorials verwendet haben, enthält Ihr Verzeichnis-Bucket die Objekte, die mit dem Import-Tool hochgeladen wurden. Beachten Sie, dass diese Objekte jetzt in der Speicherklasse S3 Express One Zone gespeichert sind. 

1. Wählen Sie in der Liste **Objekte** die Option **Upload** aus.

1. Führen Sie auf der Seite **Upload** einen der folgenden Schritte aus: 
   + Ziehen Sie Dateien und Ordner auf den gepunkteten Upload-Bereich.
   + Wählen Sie **Datei hinzufügen** oder **Ordner hinzufügen** aus, wählen Sie die hochzuladenden Dateien oder den Ordner aus und anschließend **Öffnen** oder **Hochladen**.

1. Wählen Sie unter **Prüfsummen** die **Prüfsummenfunktion** aus, die Sie verwenden möchten. 
**Anmerkung**  
 Wir empfehlen, CRC32 C CRC32 zu verwenden, um die beste Leistung mit der S3 Express One Zone-Speicherklasse zu erzielen. Weitere Informationen finden Sie unter [Zusätzliche bewährte Methoden für S3-Prüfsummen](https://docs.aws.amazon.com//AmazonS3/latest/userguide/s3-express-optimizing-performance-design-patterns.html#s3-express-optimizing--checksums.html). 

   (Optional) Wenn Sie ein einzelnes Objekt hochladen, das kleiner als 16 MB ist, können Sie auch einen vorab berechneten Prüfsummenwert angeben. Wenn Sie einen vorab berechneten Wert angeben, vergleicht Amazon S3 ihn mit dem Wert, den es mithilfe der ausgewählten Prüfsummenfunktion berechnet. Wenn die Werte nicht übereinstimmen, startet der Upload nicht. 

1. Die Optionen in den Abschnitten **Berechtigungen** und **Eigenschaften** werden automatisch auf die Standardeinstellungen festgelegt und können nicht geändert werden. „Öffentlichen Zugriff blockieren“ ist automatisch aktiviert und S3 Versioning und S3 Object Lock können nicht für Verzeichnis-Buckets aktiviert werden. 

   (Optional) Wenn Sie Ihren Objekten Metadaten in Schlüssel-Wert-Paaren hinzufügen möchten, erweitern Sie den Abschnitt **Eigenschaften** und wählen Sie dann im Abschnitt **Metadaten** die Option **Metadaten hinzufügen** aus.

1. Um die aufgelisteten Dateien und Ordner hochzuladen, wählen Sie **Upload** aus.

   Amazon S3 lädt Ihre Objekte und Ordner hoch. Wenn der Upload abgeschlossen ist, wird auf der Seite **Upload: Status** eine Erfolgsmeldung angezeigt.

    Sie haben erfolgreich einen Verzeichnis-Bucket erstellt und Objekte in Ihren Bucket hochgeladen. 

# Schritt 5: Leeren Sie Ihren S3 Express One Zone-Verzeichnis-Bucket
<a name="s3-express-tutoiral-Empty"></a>

Sie können Ihren Amazon-S3-Verzeichnis-Bucket mit der Amazon-S3-Konsole leeren.

**So leeren Sie einen Verzeichnis-Bucket.**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie in der Navigationsleiste in der oberen rechten Ecke der Seite den Namen der aktuell angezeigten Seite aus AWS-Region. Wählen Sie als Nächstes die Region aus, die mit der Availability Zone verknüpft ist, in der sich Ihr Verzeichnis-Bucket befindet. 

1. Wählen Sie im linken Navigationsbereich **Verzeichnis-Buckets** aus.

1. Wählen Sie die Optionstaste neben dem Namen des Buckets aus, den Sie leeren möchten, und wählen Sie anschließend **Leeren** aus.

1. Bestätigen Sie auf der Seite **Empty bucket (Bucket leeren)**, dass Sie den Bucket leeren möchten, indem Sie **permanently delete** in das Textfeld eingeben und dann **Empty (Leeren)** auswählen.

1. Überwachen Sie den Fortschritt des Vorgangs zum Entleeren von Buckets auf der Seite **Bucket entleeren: Status**.

# Schritt 6: Löschen Sie Ihren S3 Express One Zone-Verzeichnis-Bucket
<a name="s3-express-tutoiral-Delete"></a>

Nachdem Sie Ihren Verzeichnis-Bucket geleert und alle laufenden mehrteiligen Uploads abgebrochen haben, können Sie Ihren Bucket mithilfe der Amazon-S3-Konsole löschen.

**So löschen Sie einen Verzeichnis-Bucket**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie in der Navigationsleiste in der oberen rechten Ecke der Seite den Namen der aktuell angezeigten Seite aus AWS-Region. Wählen Sie als Nächstes die Region aus, die mit der Availability Zone verknüpft ist, in der sich Ihr Verzeichnis-Bucket befindet. 

1. Wählen Sie im linken Navigationsbereich **Verzeichnis-Buckets** aus.

1. Wählen Sie in der Liste **Verzeichnis-Buckets** das Optionsfeld neben dem Bucket aus, den Sie löschen möchten.

1. Wählen Sie **Löschen** aus.

1. Geben Sie auf der Seite **Bucket löschen** den Namen des Buckets in das Textfeld ein, um das Löschen Ihres Buckets zu bestätigen. 
**Wichtig**  
Das Löschen eines Verzeichnis-Buckets kann nicht rückgängig gemacht werden.

1. Um Ihren Verzeichnis-Bucket zu löschen, wählen Sie **Bucket löschen** aus.

## Nächste Schritte
<a name="s3-express-tutoiral-Next"></a>

In diesem Tutorial haben Sie gelernt, wie man einen Verzeichnis-Bucket erstellt und die Speicherklasse S3 Express One Zone verwendet. Nach Abschluss dieses Tutorials können Sie verwandte AWS -Services für die Verwendung mit der Speicherklasse S3 Express One Zone erkunden.

Sie können Folgendes AWS-Services mit der S3 Express One Zone-Speicherklasse verwenden, um Ihren speziellen Anwendungsfall mit niedriger Latenz zu unterstützen.
+ [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/ec2/index.html) – Amazon EC2 bietet sichere und skalierbare Rechenkapazität in der AWS Cloud. Amazon EC2 reduziert die Notwendigkeit, im Voraus in Hardware investieren zu müssen. Daher können Sie Anwendungen schneller entwickeln und bereitstellen. Mit Amazon EC2 können Sie so viele oder so wenige virtuelle Server starten, wie Sie benötigen, die Sicherheit und das Netzwerk konfigurieren und den Speicher verwalten.
+ [AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/welcome.html.html) – Lambda ist ein Computingservice, mit dem Sie Code ausführen können, ohne Server bereitstellen oder verwalten zu müssen. Sie konfigurieren Benachrichtigungseinstellungen für einen Bucket und erteilen die Amazon-S3-Berechtigung zum Aufrufen einer Funktion in der ressourcenbasierten Berechtigungsrichtlinie der Funktion. 
+ [Amazon Elastic Kubernetes Service (Amazon EKS)](https://docs.aws.amazon.com/eks/latest/userguide/what-is-eks.html) — Amazon EKS ist ein verwalteter Service, der die Installation, den Betrieb und die Wartung Ihrer eigenen Kubernetes Steuerungsebene überflüssig macht. AWS[https://kubernetes.io/docs/concepts/overview/](https://kubernetes.io/docs/concepts/overview/)ist ein Open-Source-System, das die Verwaltung, Skalierung und Bereitstellung von containerisierten Anwendungen automatisiert.
+ [Amazon Elastic Container Service (Amazon ECS)](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/Welcome.html) – Amazon ECS ist ein vollständig verwalteter Container-Orchestrierungsservice, mit dem Sie containerisierte Anwendungen einfach bereitstellen, verwalten und skalieren können.
+ [Amazon EMR](https://docs.aws.amazon.com//emr/latest/ManagementGuide/emr-express-one-zone.html) — Amazon EMR ist eine verwaltete Cluster-Plattform, die den Betrieb von Big-Data-Frameworks vereinfacht, z. Apache Hadoop B. Apache Spark AWS zur Verarbeitung und Analyse riesiger Datenmengen. 
+ [Amazon Athena](https://docs.aws.amazon.com//athena/latest/ug/querying-express-one-zone.html) – Athena ist ein interaktiver Abfrageservice, der die Analyse von Daten in Amazon S3 mit Standard-[SQL](https://docs.aws.amazon.com/athena/latest/ug/ddl-sql-reference.html) erleichtert. Athena vereinfacht auch die interaktive Ausführung von Datenanalysen mit Apache Spark, ohne Ressourcen planen, konfigurieren oder verwalten zu müssen. Wenn Sie Apache Spark-Anwendungen auf Athena ausführen, übermitteln Sie Spark-Code zur Verarbeitung und erhalten die Ergebnisse direkt.
+ [AWS Glue Data Catalog](https://docs.aws.amazon.com//glue/latest/dg/catalog-and-crawler.html) — AWS Glue ist ein serverloser Datenintegrationsdienst, der es Analytics-Benutzern erleichtert, Daten aus mehreren Quellen zu entdecken, aufzubereiten, zu verschieben und zu integrieren. Sie können ihn AWS Glue für Analysen, maschinelles Lernen und Anwendungsentwicklung verwenden. AWS Glue Data Catalog ist ein zentrales Repository, das Metadaten zu den Datensätzen Ihres Unternehmens speichert. Es ein Index für die Speicherort-, Schema- und Laufzeitmetriken Ihrer Datenquellen. 
+ [Amazon SageMaker Runtime Model Training](https://docs.aws.amazon.com//sagemaker/latest/dg/model-access-training-data.html) — Amazon SageMaker Runtime ist ein vollständig verwalteter Service für maschinelles Lernen. Mit SageMaker Runtime können Datenwissenschaftler und Entwickler schnell und einfach Modelle für maschinelles Lernen erstellen und trainieren und sie dann direkt in einer produktionsbereiten gehosteten Umgebung bereitstellen.

 Weitere Informationen zu S3 Express One Zone finden Sie unter [Was ist S3 Express One Zone?](https://docs.aws.amazon.com//AmazonS3/latest/userguide/s3-express-one-zone.html) und [Wodurch zeichnet sich S3 Express One Zone aus?](https://docs.aws.amazon.com//AmazonS3/latest/userguide/s3-express-differences.html).

# Availability Zones und Regionen bei S3 Express One Zone
<a name="s3-express-Endpoints"></a>

Eine Availability Zone ist eines oder mehrere diskrete Rechenzentren mit redundanter Stromversorgung, Vernetzung und Konnektivität in einem AWS-Region. Um Abrufe mit niedriger Latenz zu optimieren, werden Objekte in der Speicherklasse Amazon S3 Express One Zone redundant in S3-Verzeichnis-Buckets in einer einzigen Availability Zone gespeichert, die für Ihr Computing-Workload lokal ist. Wenn Sie einen Verzeichnis-Bucket erstellen, wählen Sie die Availability Zone und den AWS-Region Speicherort Ihres Buckets aus. 

AWS ordnet die physischen Availability Zones nach dem Zufallsprinzip den jeweiligen Availability Zonen-Namen zu AWS-Konto. Dieser Ansatz hilft dabei, Ressourcen auf die Availability Zones in einer Region zu verteilen AWS-Region, anstatt dass sich die Ressourcen wahrscheinlich auf die erste Availability Zone für jede Region konzentrieren. Daher entspricht die Availability Zone `us-east-1a` für Sie AWS-Konto möglicherweise nicht demselben physischen Standort wie `us-east-1a` für eine andere AWS-Konto. Weitere Informationen finden Sie unter [Regionen and Availability Zones](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-regions-availability-zones.html) im *Amazon-EC2-Benutzerhandbuch*.

Um die Availability Zones kontenübergreifend zu koordinieren, müssen Sie die *AZ-ID* verwenden, die eine eindeutige und konsistente Kennung für eine Availability Zone ist. Dies `use1-az1` ist beispielsweise eine AZ-ID für die `us-east-1` Region und sie hat in jeder Region denselben physischen Standort AWS-Konto. Die folgende Abbildung zeigt, dass die AZ für jedes Konto identisch IDs sind, auch wenn die Namen der Availability Zone für jedes Konto unterschiedlich zugeordnet werden können.

![\[Abbildung, die die Zuordnung der Availability Zone und die Regionen zeigt.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/availability-zone-mapping.png)


Mit S3 Express One Zone werden Ihre Daten redundant auf mehreren Geräten innerhalb einer einzigen Availability Zone gespeichert. S3 Express One Zone ist für eine Verfügbarkeit von 99,95 % innerhalb einer einzigen Availability Zone konzipiert und wird durch das [Amazon S3 Service Level Agreement](https://aws.amazon.com/s3/sla/) unterstützt. Weitere Informationen finden Sie unter [Verfügbarkeitszonen](directory-bucket-high-performance.md#s3-express-overview-az).

 Die folgende Tabelle zeigt die von S3 Express One Zone unterstützten Regionen und Availability Zones. 

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/s3-express-Endpoints.html)

# Netzwerke für Verzeichnis-Buckets in einer Availability Zone
<a name="directory-bucket-az-networking"></a>

Um die Zeit zu reduzieren, die Ihre Pakete im Netzwerk verbringen, konfigurieren Sie Ihre Virtual Private Cloud (VPC) mit einem Gateway-Endpunkt, um auf Verzeichnis-Buckets in Availability Zones zuzugreifen und gleichzeitig den Datenverkehr innerhalb des AWS Netzwerks zu halten, ohne dass zusätzliche Kosten anfallen.

**Topics**
+ [Endpunkte für Verzeichnis-Buckets in Availability Zones](#s3-express-endpoints-az)
+ [Konfiguration von VPC-Gateway-Endpunkten](#s3-express-networking-vpc-gateway)

## Endpunkte für Verzeichnis-Buckets in Availability Zones
<a name="s3-express-endpoints-az"></a>

Die folgende Tabelle zeigt die regionalen und zonalen API-Endpunkte, die für jede Region und Availability Zone verfügbar sind.


| Name der Region | Region | Verfügbarkeitszone IDs | Regionaler Endpunkt | Zonaler Endpunkt | 
| --- | --- | --- | --- | --- | 
|  USA Ost (Nord-Virginia)  |  `us-east-1`  |  `use1-az4` `use1-az5` `use1-az6`  |  `s3express-control.us-east-1.amazonaws.com` `s3express-control-dualstack.us-east-1.amazonaws.com `  |  `s3express-use1-az4.us-east-1.amazonaws.com` `s3express-use1-az4.dualstack.us-east-1.amazonaws.com` `s3express-use1-az5.us-east-1.amazonaws.com` `s3express-use1-az5.dualstack.us-east-1.amazonaws.com` `s3express-use1-az6.us-east-1.amazonaws.com` `s3express-use1-az6.dualstack.us-east-1.amazonaws.com`  | 
|  USA Ost (Ohio)  |  `us-east-2`  |  `use2-az1` `use2-az2`  |  `s3express-control.us-east-2.amazonaws.com` `s3express-control-dualstack.us-east-2.amazonaws.com`  |  `s3express-use2-az1.us-east-2.amazonaws.com` `s3express-use2-az1.dualstack.us-east-2.amazonaws.com` `s3express-use2-az2.us-east-2.amazonaws.com` `s3express-use2-az2.dualstack.us-east-2.amazonaws.com`  | 
|  USA West (Oregon)  |  `us-west-2`  |  `usw2-az1` `usw2-az3` `usw2-az4`  |  `s3express-control.us-west-2.amazonaws.com` `s3express-control-dualstack.us-west-2.amazonaws.com`  |  `s3express-usw2-az1.us-west-2.amazonaws.com` `s3express-usw2-az1.dualstack.us-west-2.amazonaws.com` `s3express-usw2-az3.us-west-2.amazonaws.com` `s3express-usw2-az3.dualstack.us-west-2.amazonaws.com` `s3express-usw2-az4.us-west-2.amazonaws.com` `s3express-usw2-az4.dualstack.us-west-2.amazonaws.com`  | 
|  Asien-Pazifik (Mumbai)  |  `ap-south-1`  |  `aps1-az1` `aps1-az3`  |  `s3express-control.ap-south-1.amazonaws.com` `s3express-control-dualstack.ap-south-1.amazonaws.com`  |  `s3express-aps1-az1.ap-south-1.amazonaws.com` `s3express-aps1-az1.dualstack.ap-south-1.amazonaws.com` `s3express-aps1-az3.ap-south-1.amazonaws.com` `s3express-aps1-az3.dualstack.ap-south-1.amazonaws.com`  | 
|  Asien-Pazifik (Tokio)  |  `ap-northeast-1`  |  `apne1-az1` `apne1-az4`  |  `s3express-control.ap-northeast-1.amazonaws.com` `s3express-control-dualstack.ap-northeast-1.amazonaws.com`  |  `s3express-apne1-az1.ap-northeast-1.amazonaws.com` `s3express-apne1-az1.dualstack.ap-northeast-1.amazonaws.com` `s3express-apne1-az4.ap-northeast-1.amazonaws.com` `s3express-apne1-az4.dualstack.ap-northeast-1.amazonaws.com`  | 
|  Europa (Irland)  |  `eu-west-1`  |  `euw1-az1` `euw1-az3`  |  `s3express-control.eu-west-1.amazonaws.com` `s3express-control-dualstack.eu-west-1.amazonaws.com`  |  `s3express-euw1-az1.eu-west-1.amazonaws.com` `s3express-euw1-az1.dualstack.eu-west-1.amazonaws.com` `s3express-euw1-az3.eu-west-1.amazonaws.com` `s3express-euw1-az3.dualstack.eu-west-1.amazonaws.com`  | 
|  Europa (Stockholm)  |  `eu-north-1`  |  `eun1-az1` `eun1-az2` `eun1-az3`  |  `s3express-control.eu-north-1.amazonaws.com` `s3express-control-dualstack.eu-north-1.amazonaws.com`  |  `s3express-eun1-az1.eu-north-1.amazonaws.com` `s3express-eun1-az1.dualstack.eu-north-1.amazonaws.com` `s3express-eun1-az2.eu-north-1.amazonaws.com` `s3express-eun1-az2.dualstack.eu-north-1.amazonaws.com` `s3express-eun1-az3.eu-north-1.amazonaws.com` `s3express-eun1-az3.dualstack.eu-north-1.amazonaws.com`  | 

## Konfiguration von VPC-Gateway-Endpunkten
<a name="s3-express-networking-vpc-gateway"></a>

Gehen Sie wie folgt vor, um einen Gateway-Endpunkt zu erstellen, der eine Verbindung zu Objekten der Speicherklasse Amazon S3 Express One Zone und Verzeichnis-Buckets herstellt.

**So konfigurieren Sie einen Gateway-VPC-Endpunkt**

1. Öffnen Sie die [Amazon-VPC-Konsole](https://console.aws.amazon.com/vpc/). 

1. Wählen Sie im Navigationsbereich **Endpunkte** aus.

1. Wählen Sie **Endpunkt erstellen** aus.

1. Erstellen Sie einen Namen für Ihren Endpunkt.

1. Wählen Sie für **Servicekategorie** die Option **AWS-Services** aus. 

1. **Fügen Sie für **Services** den Filter **Type=Gateway** hinzu und wählen Sie dann die Optionsschaltfläche neben com.amazonaws. *region*.s3express.** 

1. Wählen Sie für **VPC** die VPC, in der der Endpunkt erstellt werden soll.

1. Wählen Sie für **Routing-Tabellen** die Routing-Tabelle in Ihrer VPC aus, die vom Endpunkt verwendet werden soll. Nachdem der Endpunkt erstellt wurde, wird der Routing-Tabelle, die Sie in diesem Schritt auswählen, ein Routing-Datensatz hinzugefügt.

1. Wählen Sie für **Richtlinie** **Vollzugriff**, um alle Operationen aller Prinzipale auf allen Ressourcen über den VPC-Endpunkt zuzulassen. Wählen Sie andernfalls **Benutzerdefiniert** aus, um eine VPC-Endpunktrichtlinie anzufügen, die die Berechtigungen steuert, die Prinzipale zum Ausführen von Aktionen für Ressourcen über den VPC-Endpunkt haben.

1. Wählen Sie für **IP address type** (IP-Adressentyp) eine der folgenden Optionen aus:
   +  **IPv4**— Weisen Sie den Netzwerkschnittstellen des Endpunkts IPv4 Adressen zu. Diese Option wird nur unterstützt, wenn alle ausgewählten Subnetze IPv4 Adressbereiche haben und der Dienst IPv4 Anfragen akzeptiert. 
   +  **IPv6**— Weist den Endpunkt-Netzwerkschnittstellen IPv6 Adressen zu. Diese Option wird nur unterstützt, wenn alle ausgewählten Subnetze IPv6 nur Subnetze sind und der Dienst Anfragen akzeptiert IPv6 .
   +  **Dualstack** — Weisen Sie den IPv4 Endpunkt-Netzwerkschnittstellen sowohl als auch IPv6 Adressen zu. Diese Option wird nur unterstützt, wenn alle ausgewählten Subnetze sowohl als auch IPv6 Adressbereiche haben IPv4 und der Dienst sowohl Anfragen als auch IPv4 Anfragen akzeptiert. IPv6 

1. (Optional) Sie fügen ein Tag hinzu, indem Sie **Neues Tag hinzufügen** auswählen und den Schlüssel und den Wert für das Tag eingeben.

1. Wählen Sie **Endpunkt erstellen** aus.

Nachdem Sie einen Gateway-Endpunkt erstellt haben, können Sie regionale API-Endpunkte und zonale API-Endpunkte verwenden, um auf Objekte in der Speicherklasse Amazon S3 Express One Zone und Verzeichnis-Buckets zuzugreifen.

Weitere Informationen zu Gateway-Endpunkten finden Sie unter [Gateway-Endpunkte](https://docs.aws.amazon.com/vpc/latest/privatelink/gateway-endpoints.html) im *AWS PrivateLink -Handbuch*. Für Anwendungsfälle mit Datenresidenz empfehlen wir, den Zugriff auf Ihre Buckets nur von Ihrer VPC aus unter Verwendung von Gateway-VPC-Endpunkten zu aktivieren. Wenn der Zugriff auf eine VPC oder einen VPC-Endpunkt beschränkt ist, können Sie über die, die REST-API AWS-Managementkonsole AWS CLI, und auf die Objekte zugreifen. AWS SDKs

**Anmerkung**  
Um den Zugriff auf eine VPC oder einen VPC-Endpunkt mithilfe von zu beschränken AWS-Managementkonsole, müssen Sie den AWS-Managementkonsole privaten Zugriff verwenden. Weitere Informationen finden Sie im *AWS-Managementkonsole Leitfaden*AWS-Managementkonsole unter [AWS-Managementkonsole Private Access](https://docs.aws.amazon.com/awsconsolehelpdocs/latest/gsg/console-private-access.html).

# Erstellen von Verzeichnis-Buckets in einer Availability Zone
<a name="directory-bucket-create"></a>

Um mit der Verwendung der Speicherklasse Amazon S3 Express One Zone zu beginnen, erstellen Sie einen Verzeichnis-Buckets. Die Speicherklasse S3 Express One Zone kann nur mit Verzeichnis-Buckets verwendet werden. Die Speicherklasse S3 Express One Zone unterstützt Anwendungsfälle mit niedriger Latenz und ermöglicht eine schnellere Datenverarbeitung innerhalb einer einzigen Availability Zone. Wenn Ihre Anwendung leistungsempfindlich ist und von `PUT`- und `GET`-Latenzen im einstelligen Millisekundenbereich profitiert, empfehlen wir, einen Verzeichnis-Bucket zu erstellen, damit Sie die Speicherklasse S3 Express One Zone verwenden können.

Es gibt zwei Arten von Amazon-S3-Buckets: Allzweck-Buckets und Verzeichnis-Buckets. Sie sollten den Bucket-Typ wählen, der am besten zu Ihren Anwendungs- und Leistungsanforderungen passt. Bei Allzweck-Buckets handelt es sich um den ursprünglichen S3-Bucket-Typ. Allzweck-Buckets werden für die meisten Anwendungsfälle und Zugriffsmuster empfohlen und ermöglichen die Speicherung von Objekten in allen Speicherklassen außer S3 Express One Zone. Weitere Informationen über Allzweck-Buckets finden Sie unter [Übersicht über Allzweck-Buckets](UsingBucket.md).

Verzeichnis-Buckets verwenden die Speicherklasse S3 Express One Zone, die für Workloads oder leistungskritische Anwendungen konzipiert ist, die eine konsistente Latenz im einstelligen Millisekundenbereich erfordern. S3 Express One Zone ist die erste S3-Speicherklasse, bei der Sie eine einzelne Availability Zone mit der Option auswählen können, Ihren Objektspeicher gemeinsam mit Ihren Rechenressourcen zu platzieren, was die höchstmögliche Zugriffsgeschwindigkeit bietet. Wenn Sie einen Directory-Bucket erstellen, können Sie optional eine Availability Zone AWS-Region und eine Availability Zone angeben, die lokal für Ihre Amazon EC2-, Amazon Elastic Kubernetes Service- oder Amazon Elastic Container Service (Amazon ECS) Compute-Instances sind, um die Leistung zu optimieren.

Mit S3 Express One Zone werden Ihre Daten redundant auf mehreren Geräten innerhalb einer einzigen Availability Zone gespeichert. S3 Express One Zone ist für eine Verfügbarkeit von 99,95 % innerhalb einer einzigen Availability Zone konzipiert und wird durch das [Amazon S3 Service Level Agreement](https://aws.amazon.com/s3/sla/) unterstützt. Weitere Informationen finden Sie unter [Verfügbarkeitszonen](directory-bucket-high-performance.md#s3-express-overview-az).

Verzeichnis-Buckets organisieren Daten hierarchisch in Verzeichnissen, im Gegensatz zur flachen Speicherstruktur von Allzweck-Buckets. Es gibt keine Präfixbeschränkungen für Verzeichnis-Buckets und einzelne Verzeichnisse können horizontal skaliert werden. 

Weitere Information zu Verzeichnis-Buckets finden Sie unter [Arbeiten mit Verzeichnis-Buckets](directory-buckets-overview.md).

**Namen von Verzeichnis-Buckets**  
Die Namen von Verzeichnis-Buckets müssen diesem Format folgen und den Regeln für die Benennung von Verzeichnis-Buckets entsprechen:

```
bucket-base-name--zone-id--x-s3
```

Der folgende Verzeichnis-Bucket-Name enthält beispielsweise die Availability-Zone-ID `usw2-az1`:

```
bucket-base-name--usw2-az1--x-s3
```

Weitere Informationen zu den Benennungsregeln für Verzeichnis-Buckets finden Sie unter [Regeln für die Benennung von Verzeichnis-Buckets](directory-bucket-naming-rules.md).

## Verwenden der S3-Konsole
<a name="create-directory-bucket-console"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie in der Navigationsleiste oben auf der Seite den Namen der aktuell angezeigten Datei aus AWS-Region. Wählen Sie anschließend die Region aus, in der Sie einen Bucket erstellen möchten. 
**Anmerkung**  
Wählen Sie eine Region in der Nähe aus, um Latenz und Kosten gering zu halten und behördliche Vorschriften zu erfüllen. In einer Region gespeicherte Objekte verbleiben so lange in der Region, bis sie explizit in eine andere Region verschoben werden. Eine Liste von Amazon S3 finden Sie AWS-Regionen unter [AWS-Service Endpoints](https://docs.aws.amazon.com/general/latest/gr/rande.html#s3_region) in der *Allgemeine Amazon Web Services-Referenz*.

1. Wählen Sie im linken Navigationsbereich **Verzeichnis-Buckets** aus.

1. Wählen Sie **Create Bucket** (Bucket erstellen) aus. Anschließend wird die Seite **Bucket erstellen** geöffnet.

1. Sehen Sie sich unter **Allgemeine Konfiguration** an, AWS-Region wo Ihr Bucket erstellt wird. 

   Wählen Sie unter **Bucket-Typ** die Option **Verzeichnis** aus.
**Anmerkung**  
Wenn Sie eine Region ausgewählt haben, die keine Verzeichnis-Buckets unterstützt, verschwindet die Option **Bucket-Typ** und der Bucket-Typ wird standardmäßig zu einem Allzweck-Bucket. Um einen Verzeichnis-Bucket zu erstellen, müssen Sie eine unterstützte Region auswählen. Eine Liste der Regionen, die Verzeichnis-Buckets und die Speicherklasse Amazon S3 Express One Zone unterstützen, finden Sie unter [Availability Zones und Regionen bei S3 Express One Zone](s3-express-Endpoints.md).
Nach dem Erstellen des Buckets kann der Bucket-Typ nicht mehr geändert werden.
**Anmerkung**  
Die Availability Zone kann nicht geändert werden, nachdem der Bucket erstellt wurde. 

1. Wählen Sie für **Availability Zone** eine Availability Zone aus, die für Ihre Computing-Services lokal ist. Eine Liste von Availability Zones, die Verzeichnis-Buckets und die Speicherklasse S3 Express One Zone unterstützen, finden Sie unter [Availability Zones und Regionen bei S3 Express One Zone](s3-express-Endpoints.md). 

   Markieren Sie unter **Availability Zone** das Kontrollkästchen, um zu bestätigen, dass Ihre Daten im Falle eines Ausfalls der Availability Zone möglicherweise nicht verfügbar sind oder verloren gehen. 
**Wichtig**  
Verzeichnis-Buckets werden über mehrere Geräte hinweg innerhalb einer einzelnen Availability Zone gespeichert, speichern jedoch Daten nicht in redundanter Weise über Availability Zones hinweg.

1. Geben Sie unter **Bucket-Name** einen Namen für Ihren Verzeichnis-Bucket ein.

   Die folgenden Regeln gelten für die Benennung von Verzeichnis-Buckets.
   + Seien Sie innerhalb der ausgewählten Zone (AWS Availability Zone oder AWS Local Zone) einzigartig. 
   + Der Bucket-Name muss mindestens 3 und darf höchstens 63 Zeichen enthalten, einschließlich des Suffixes.
   + Darf nur aus Kleinbuchstaben, Zahlen und Bindestrichen bestehen.
   + Muss mit einer Zahl oder einem Buchstaben beginnen und enden. 
   + Muss das folgende Suffix enthalten: `--zone-id--x-s3`.
   + Der Bucket-Name darf nicht mit dem Präfix `xn--` beginnen.
   + Der Bucket-Name darf nicht mit dem Präfix `sthree-` beginnen.
   + Der Bucket-Name darf nicht mit dem Präfix `sthree-configurator` beginnen.
   + Der Bucket-Name darf nicht mit dem Präfix ` amzn-s3-demo-` beginnen.
   + Bucket-Namen dürfen nicht mit dem Suffix `-s3alias` enden. Dieses Suffix ist für Zugriffspunkt-Aliasnamen reserviert. Weitere Informationen finden Sie unter [Zugriffspunkt-Aliasse](access-points-naming.md#access-points-alias).
   + Bucket-Namen dürfen nicht mit dem Suffix `--ol-s3` enden. Dieses Suffix ist für Objekt-Lambda-Zugriffspunkt-Aliasnamen reserviert. Weitere Informationen finden Sie unter [So verwenden Sie einen Alias im Bucket-Stil für den Object Lambda Access Point Ihres S3-Buckets](olap-use.md#ol-access-points-alias).
   + Bucket-Namen dürfen nicht mit dem Suffix `.mrap` enden. Dieses Suffix ist für Namen Multi-Region Access Point reserviert. Weitere Informationen finden Sie unter [Regeln zur Benennung von Amazon S3-Multi-Regions-Zugriffspunkten](multi-region-access-point-naming.md).

   Dem von Ihnen angegebenen Basisnamen wird automatisch ein Suffix hinzugefügt, wenn Sie einen Verzeichnis-Buckets mit der Konsole erstellen. Dieses Suffix enthält die ID der Availability Zone, die Sie ausgewählt haben.

   Der Name eines einmal erstellten Buckets kann nicht nachträglich geändert werden. Weitere Informationen zur Benennung von Buckets finden Sie unter [Benennungsregeln für Allzweck-Buckets](bucketnamingrules.md). 
**Wichtig**  
Geben Sie keine vertrauliche Informationen, wie Kontonummern, im Bucket-Namen an. Der Bucket-Name ist in dem Bereich sichtbar URLs , der auf die Objekte im Bucket verweist.

1. Unter **Object Ownership** **ist die Einstellung Bucket Owner** erforced automatisch aktiviert und alle Zugriffskontrolllisten (ACLs) sind deaktiviert. Kann für Verzeichnis-Buckets nicht ACLs aktiviert werden. 

    **Bucket-Besitzer erzwungen (Standard)** — ACLs sind deaktiviert, und der Bucket-Besitzer besitzt automatisch jedes Objekt im Allzweck-Bucket und hat die volle Kontrolle darüber. ACLs wirken sich nicht mehr auf die Zugriffsberechtigungen für Daten im S3-Allzweck-Bucket aus. Der Bucket verwendet ausschließlich Richtlinien, um die Zugriffssteuerung zu definieren.

1. Unter **Einstellungen für den öffentlichen Zugriff für diesen Bucket blockieren** werden die Einstellungen für die Blockierung des öffentlichen Zugriffs für Ihren Verzeichnis-Bucket automatisch aktiviert. Diese Einstellung kann für Verzeichnis-Buckets nicht geändert werden. Weitere Informationen zum Blockieren des öffentlichen Zugriffs finden Sie unter [Blockieren des öffentlichen Zugriffs auf Ihren Amazon-S3-Speicher](access-control-block-public-access.md).

1. Wählen Sie eine der folgenden Optionen unter **Verschlüsselungstyp** aus, um die Standardverschlüsselung zu konfigurieren: 
   + **Serverseitige Verschlüsselung mit von Amazon S3 verwaltetem Schlüssel (SSE-S3)**
   + **Serverseitige Verschlüsselung mit AWS Key Management Service Schlüssel (SSE-KMS)**

   Weitere Informationen zur Datenverschlüsselung mit der serverseitigen Amazon-S3-Verschlüsselung finden Sie unter [Datenschutz und Verschlüsselung](s3-express-data-protection.md).
**Wichtig**  
Wenn Sie die Option SSE-KMS für die Standardverschlüsselung verwenden, unterliegen Sie den Kontingenten der Anforderungen pro Sekunde (RPS) von AWS KMS. Weitere Informationen zu AWS KMS -Kontingenten und zum Anfordern einer Kontingenterhöhung finden Sie unter [Kontingente](https://docs.aws.amazon.com/kms/latest/developerguide/limits.html) im *Entwicklerhandbuch zu AWS Key Management Service *.  
Möglicherweise müssen Sie Ihre Bucket-Richtlinie aktualisieren, wenn Sie die Standardverschlüsselung aktivieren. Weitere Informationen finden Sie unter [Verwenden der SSE-KMS-Verschlüsselung für kontoübergreifende Vorgänge](bucket-encryption.md#bucket-encryption-update-bucket-policy).

1. Wenn Sie **Serverseitige Verschlüsselung mit verwalteten Amazon-S3-Schlüsseln (SSE-S3)** ausgewählt haben, wird unter **Bucket Key** **Enabled** angezeigt. S3-Bucket-Schlüssel sind immer aktiviert, wenn Sie Ihren Verzeichnis-Bucket für die Verwendung der Standardverschlüsselung mit SSE-S3 konfigurieren. S3 Bucket Keys sind immer für `GET`- und `PUT`-Vorgänge in einem Verzeichnis-Bucket aktiviert und können nicht deaktiviert werden. S3 Bucket Keys werden nicht unterstützt, wenn Sie SSE-KMS-verschlüsselte Objekte von Allzweck-Buckets zu Verzeichnis-Buckets, von Verzeichnis-Buckets zu Allzweck-Buckets oder zwischen Verzeichnis-Buckets über [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html), [die Copy-Operation in Batch Operations](directory-buckets-objects-Batch-Ops.md) oder [die import-Aufgaben](create-import-job.md) kopieren. In diesem Fall ruft Amazon S3 AWS KMS jedes Mal, wenn eine Kopieranforderung für ein KMS-verschlüsseltes Objekt gestellt wird, auf.

   S3-Bucket-Keys senken die Kosten für die Verschlüsselung, indem sie den Anforderungsverkehr von Amazon S3 zu verringern AWS KMS. Weitere Informationen finden Sie unter [Reduzieren des Preises von SSE-KMS mit Amazon-S3-Bucket-Schlüsseln](bucket-key.md).

1. Wenn Sie **serverseitige Verschlüsselung mit AWS Key Management Service Schlüssel (SSE-KMS)** ausgewählt haben, geben Sie unter ** AWS KMS Schlüssel** Ihren AWS Key Management Service Schlüssel auf eine der folgenden Arten an oder erstellen Sie einen neuen Schlüssel.
   + **Um aus einer Liste verfügbarer KMS-Schlüssel auszuwählen, wählen Sie Wählen Sie **aus Ihrem und wählen Sie Ihren AWS KMS keys** **KMS-Schlüssel** unter Verfügbar aus. AWS KMS keys**

     In dieser Liste werden nur Ihre kundenseitig verwaltete Schlüssel angezeigt. Das Von AWS verwalteter Schlüssel (`aws/s3`) wird in Verzeichnis-Buckets nicht unterstützt. Weitere Informationen über vom Kunden verwaltete Schlüssel finden Sie unter [Kundenschlüssel und AWS -Schlüssel](https://docs.aws.amazon.com//kms/latest/developerguide/concepts.html#key-mgmt) im *Entwicklerhandbuch zu AWS Key Management Service *.
   + Wählen Sie zum Eingeben des KMS-Schlüssel-ARN ** AWS KMS key -ARN eingeben** aus und geben Sie Ihren KMS-Schlüssel-ARN oder Alias in **AWS KMS key -ARN** ein. 
   + Um einen neuen vom Kunden verwalteten Schlüssel in der AWS KMS Konsole zu **erstellen, wählen Sie Create a KMS key** aus.

     Weitere Informationen zum Erstellen eines finden Sie AWS KMS key unter [Creating Keys](https://docs.aws.amazon.com//kms/latest/developerguide/create-keys.html) im *AWS Key Management Service Developer Guide*.
**Wichtig**  
Ihre SSE-KMS-Konfiguration kann für die gesamte Lebensdauer des Buckets nur einen [vom Kunden verwalteten Schlüssel](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#customer-cmk) pro Verzeichnis-Bucket unterstützen. Der [https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#aws-managed-cmk](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#aws-managed-cmk) (`aws/s3`) wird nicht unterstützt. Nachdem Sie einen vom Kunden verwalteten Schlüssel für SSE-KMS angegeben haben, können Sie den vom Kunden verwalteten Schlüssel für die SSE-KMS-Konfiguration des Buckets nicht mehr überschreiben.  
Sie können den vom Kunden verwalteten Schlüssel, den Sie für die SSE-KMS-Konfiguration des Buckets angegeben haben, wie folgt identifizieren:  
Sie stellen eine `HeadObject` API-Operationsanforderung, um den Wert von `x-amz-server-side-encryption-aws-kms-key-id` in Ihrer Antwort zu ermitteln.
Um einen neuen, vom Kunden verwalteten Schlüssel für Ihre Daten zu verwenden, empfehlen wir, Ihre vorhandenen Objekte mit einem neuen vom Kunden verwalteten Schlüssel in einen neuen Verzeichnis-Bucket zu kopieren.
Sie können nur KMS-Schlüssel verwenden, die im selben AWS-Region Bucket verfügbar sind. Die Amazon-S3-Konsole führt nur die ersten 100 KMS-Schlüssel auf, die in derselben Region wie der Bucket verfügbar sind. Wenn Sie einen KMS-Schlüssel verwenden möchten, der nicht aufgeführt ist, müssen Sie den KMS-Schlüssel-ARN eingeben. Wenn Sie einen KMS-Schlüssel verwenden möchten, der sich im Besitz eines anderen Kontos befindet, müssen Sie über die Berechtigung zum Verwenden des Schlüssels verfügen und Sie müssen den KMS-Schlüssel-ARN eingeben. Weitere Informationen zu kontoübergreifenden Berechtigungen für KMS-Schlüssel finden Sie unter [Erstellen von KMS-Schlüsseln, die von anderen Konten verwendet werden können](https://docs.aws.amazon.com//kms/latest/developerguide/key-policy-modifying-external-accounts.html#cross-account-console) im *Entwicklerhandbuch zu AWS Key Management Service *. Weitere Informationen zu SSE-KMS finden Sie unter [Spezifizierung der serverseitigen Verschlüsselung mit AWS KMS (SSE-KMS) für das Hochladen neuer Objekte in Verzeichnis-Buckets](s3-express-specifying-kms-encryption.md).
Wenn Sie einen AWS KMS key für die serverseitige Verschlüsselung in Verzeichnis-Buckets verwenden, müssen Sie einen KMS-Schlüssel für die symmetrische Verschlüsselung wählen. Amazon S3 unterstützt nur KMS-Schlüssel mit symmetrischer Verschlüsselung und keine asymmetrischen KMS-Schlüssel. Weitere Informationen finden Sie unter [Erkennen von symmetrischen und asymmetrischen KMS-Schlüsseln](https://docs.aws.amazon.com//kms/latest/developerguide/find-symm-asymm.html) im *Entwicklerhandbuch zu AWS Key Management Service *.

   Weitere Informationen zur Verwendung AWS KMS mit Amazon S3 finden Sie unter[Verwendung der serverseitigen Verschlüsselung mit Schlüsseln (SSE-KMS) in Verzeichnis-Buckets AWS KMS](s3-express-UsingKMSEncryption.md).

1. Wählen Sie **Create Bucket** (Bucket erstellen) aus. Nachdem Sie den Bucket erstellt haben, können Sie ihm Dateien und Ordner hinzufügen. Weitere Informationen finden Sie unter [Arbeiten mit Objekten in einem Verzeichnis-Bucket](directory-buckets-objects.md).

## Verwenden des AWS SDKs
<a name="create-directory-bucket-sdks"></a>

------
#### [ SDK for Go ]

Dieses Beispiel veranschaulicht, wie Sie einen Verzeichnis-Bucket mit AWS SDK für Go erstellen. 

**Example**  

```
var bucket = "..."

func runCreateBucket(c *s3.Client) {
    resp, err := c.CreateBucket(context.Background(), &s3.CreateBucketInput{
        Bucket: &bucket,
        CreateBucketConfiguration: &types.CreateBucketConfiguration{
            Location: &types.LocationInfo{
                Name: aws.String("usw2-az1"),
                Type: types.LocationTypeAvailabilityZone,
            },  
            Bucket: &types.BucketInfo{
                DataRedundancy: types.DataRedundancySingleAvailabilityZone,
                Type:           types.BucketTypeDirectory,
            },  
        },  
    })  
    var terr *types.BucketAlreadyOwnedByYou
    if errors.As(err, &terr) {
        fmt.Printf("BucketAlreadyOwnedByYou: %s\n", aws.ToString(terr.Message))
        fmt.Printf("noop...\n")
        return
    }   
    if err != nil {
        log.Fatal(err)
    }   

    fmt.Printf("bucket created at %s\n", aws.ToString(resp.Location))
}
```

------
#### [ SDK for Java 2.x ]

Dieses Beispiel veranschaulicht, wie Sie einen Verzeichnis-Bucket mit AWS SDK for Java 2.x erstellen. 

**Example**  

```
public static void createBucket(S3Client s3Client, String bucketName) {

    //Bucket name format is {base-bucket-name}--{az-id}--x-s3
    //example: doc-example-bucket--usw2-az1--x-s3 is a valid name for a directory bucket created in
    //Region us-west-2, Availability Zone 2  

    CreateBucketConfiguration bucketConfiguration = CreateBucketConfiguration.builder()
             .location(LocationInfo.builder()
                     .type(LocationType.AVAILABILITY_ZONE)
                     .name("usw2-az1").build()) //this must match the Region and Availability Zone in your bucket name
             .bucket(BucketInfo.builder()
                    .type(BucketType.DIRECTORY)
                    .dataRedundancy(DataRedundancy.SINGLE_AVAILABILITY_ZONE)
                    .build()).build();
    try {
    
             CreateBucketRequest bucketRequest = CreateBucketRequest.builder().bucket(bucketName).createBucketConfiguration(bucketConfiguration).build();
             CreateBucketResponse response = s3Client.createBucket(bucketRequest);
             System.out.println(response);
    } 
    
    catch (S3Exception e) {
            System.err.println(e.awsErrorDetails().errorMessage());
            System.exit(1);
         }
    }
```

------
#### [ AWS SDK für JavaScript ]

Dieses Beispiel veranschaulicht, wie Sie einen Verzeichnis-Bucket mit AWS SDK für JavaScript erstellen. 

**Example**  

```
// file.mjs, run with Node.js v16 or higher
// To use with the preview build, place this in a folder 
// inside the preview build directory, such as /aws-sdk-js-v3/workspace/

import { S3 } from "@aws-sdk/client-s3";

const region = "us-east-1";
const zone = "use1-az4";
const suffix = `${zone}--x-s3`;

const s3 = new S3({ region });

const bucketName = `...--${suffix}`;

const createResponse = await s3.createBucket( 
    { Bucket: bucketName, 
      CreateBucketConfiguration: {Location: {Type: "AvailabilityZone", Name: zone},
      Bucket: { Type: "Directory", DataRedundancy: "SingleAvailabilityZone" }}
    } 
   );
```

------
#### [ SDK für .NET ]

Dieses Beispiel veranschaulicht, wie Sie einen Verzeichnis-Bucket mit SDK für .NET erstellen. 

**Example**  

```
using (var amazonS3Client = new AmazonS3Client())
{
    var putBucketResponse = await amazonS3Client.PutBucketAsync(new PutBucketRequest
    {

       BucketName = "DOC-EXAMPLE-BUCKET--usw2-az1--x-s3",
       PutBucketConfiguration = new PutBucketConfiguration
       {
         BucketInfo = new BucketInfo { DataRedundancy = DataRedundancy.SingleAvailabilityZone, Type = BucketType.Directory },
         Location = new LocationInfo { Name = "usw2-az1", Type = LocationType.AvailabilityZone }
       }
     }).ConfigureAwait(false);
}
```

------
#### [ SDK for PHP ]

Dieses Beispiel veranschaulicht, wie Sie einen Verzeichnis-Bucket mit AWS SDK for PHP erstellen. 

**Example**  

```
require 'vendor/autoload.php';

$s3Client = new S3Client([

    'region'      => 'us-east-1',
]);


$result = $s3Client->createBucket([
    'Bucket' => 'doc-example-bucket--use1-az4--x-s3',
    'CreateBucketConfiguration' => [
        'Location' => ['Name'=> 'use1-az4', 'Type'=> 'AvailabilityZone'],
        'Bucket' => ["DataRedundancy" => "SingleAvailabilityZone" ,"Type" => "Directory"]   ],
]);
```

------
#### [ SDK for Python ]

Dieses Beispiel veranschaulicht, wie Sie einen Verzeichnis-Bucket mit AWS SDK für Python (Boto3) erstellen. 

**Example**  

```
import logging
import boto3
from botocore.exceptions import ClientError

def create_bucket(s3_client, bucket_name, availability_zone):
    '''
    Create a directory bucket in a specified Availability Zone

    :param s3_client: boto3 S3 client
    :param bucket_name: Bucket to create; for example, 'doc-example-bucket--usw2-az1--x-s3'
    :param availability_zone: String; Availability Zone ID to create the bucket in, for example, 'usw2-az1'
    :return: True if bucket is created, else False
    '''

    try:
        bucket_config = {
                'Location': {
                    'Type': 'AvailabilityZone',
                    'Name': availability_zone
                },
                'Bucket': {
                    'Type': 'Directory', 
                    'DataRedundancy': 'SingleAvailabilityZone'
                }
            }
        s3_client.create_bucket(
            Bucket = bucket_name,
            CreateBucketConfiguration = bucket_config
        )
    except ClientError as e:
        logging.error(e)
        return False
    return True


if __name__ == '__main__':
    bucket_name = 'BUCKET_NAME'
    region = 'us-west-2'
    availability_zone = 'usw2-az1'
    s3_client = boto3.client('s3', region_name = region)
    create_bucket(s3_client, bucket_name, availability_zone)
```

------
#### [ SDK for Ruby ]

Dieses Beispiel veranschaulicht, wie Sie einen Verzeichnis-Bucket mit AWS SDK für Ruby erstellen. 

**Example**  

```
s3 = Aws::S3::Client.new(region:'us-west-2')
s3.create_bucket(
  bucket: "bucket_base_name--az_id--x-s3",
  create_bucket_configuration: {
    location: { name: 'usw2-az1', type: 'AvailabilityZone' },
    bucket: { data_redundancy: 'SingleAvailabilityZone', type: 'Directory' }
  }
)
```

------

## Mit dem AWS CLI
<a name="create-directory-bucket-cli"></a>

Dieses Beispiel veranschaulicht, wie Sie einen Verzeichnis-Bucket mit AWS CLI erstellen. Um den Befehl zu verwenden, ersetzen Sie die *user input placeholders* durch Ihre eigenen Informationen.

Wenn Sie einen Verzeichnis-Bucket erstellen, müssen Sie Konfigurationsdetails angeben und die folgende Benennungskonvention verwenden: `bucket-base-name--zone-id--x-s3`

```
aws s3api create-bucket
--bucket bucket-base-name--zone-id--x-s3
--create-bucket-configuration 'Location={Type=AvailabilityZone,Name=usw2-az1},Bucket={DataRedundancy=SingleAvailabilityZone,Type=Directory}'
--region us-west-2
```

Weitere Informationen finden Sie unter [create-bucket](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/create-bucket.html) in der AWS Command Line Interface.

# Regionale und zonale Endpunkte für Verzeichnis-Buckets in einer Availability Zone
<a name="endpoint-directory-buckets-AZ"></a>

Um auf Ihre in S3 Express One Zone gespeicherten Objekte und Verzeichnis-Buckets zuzugreifen, verwenden Sie Gateway-VPC-Endpunkte. Verzeichnis-Buckets verwenden regionale und zonale API-Endpunkte. Je nachdem, welche Amazon-S3-API-Operation Sie verwenden, ist entweder ein regionaler oder ein zonaler Endpunkt erforderlich. Für die Nutzung von Gateway-Endpunkten fallen keine zusätzlichen Gebühren an.

API-Vorgänge auf Bucket-Ebene (Steuerebene) sind über einen regionalen Endpunkt verfügbar und werden als API-Vorgänge für regionale Endpunkte bezeichnet. Beispiele für API-Operationen für regionalen Endpunkte sind `CreateBucket` und `DeleteBucket`.

 Wenn Sie Verzeichnis-Buckets erstellen, die in S3 Express One Zone gespeichert sind, wählen Sie die Availability Zone aus, in der sich Ihr Bucket befinden wird. Sie können mithilfe von API-Operationen für zonale Endpunkte die Objekte in Ihrem Verzeichnis-Bucket hochladen und verwalten.

API-Operationen auf Objektebene (oder Datenebene) sind über zonale Endpunkte verfügbar und werden als API-Operationen für zonale Endpunkte bezeichnet. Beispiele für API-Operationen für zonale Endpunkte sind `CreateSession` und `PutObject`.


| Name der Region | Region | Verfügbarkeitszone IDs | Regionaler Endpunkt | Zonaler Endpunkt | 
| --- | --- | --- | --- | --- | 
|  USA Ost (Nord-Virginia)  |  `us-east-1`  |  `use1-az4` `use1-az5` `use1-az6`  |  `s3express-control.us-east-1.amazonaws.com` `s3express-control-dualstack.us-east-1.amazonaws.com `  |  `s3express-use1-az4.us-east-1.amazonaws.com` `s3express-use1-az4.dualstack.us-east-1.amazonaws.com` `s3express-use1-az5.us-east-1.amazonaws.com` `s3express-use1-az5.dualstack.us-east-1.amazonaws.com` `s3express-use1-az6.us-east-1.amazonaws.com` `s3express-use1-az6.dualstack.us-east-1.amazonaws.com`  | 
|  USA Ost (Ohio)  |  `us-east-2`  |  `use2-az1` `use2-az2`  |  `s3express-control.us-east-2.amazonaws.com` `s3express-control-dualstack.us-east-2.amazonaws.com`  |  `s3express-use2-az1.us-east-2.amazonaws.com` `s3express-use2-az1.dualstack.us-east-2.amazonaws.com` `s3express-use2-az2.us-east-2.amazonaws.com` `s3express-use2-az2.dualstack.us-east-2.amazonaws.com`  | 
|  USA West (Oregon)  |  `us-west-2`  |  `usw2-az1` `usw2-az3` `usw2-az4`  |  `s3express-control.us-west-2.amazonaws.com` `s3express-control-dualstack.us-west-2.amazonaws.com`  |  `s3express-usw2-az1.us-west-2.amazonaws.com` `s3express-usw2-az1.dualstack.us-west-2.amazonaws.com` `s3express-usw2-az3.us-west-2.amazonaws.com` `s3express-usw2-az3.dualstack.us-west-2.amazonaws.com` `s3express-usw2-az4.us-west-2.amazonaws.com` `s3express-usw2-az4.dualstack.us-west-2.amazonaws.com`  | 
|  Asien-Pazifik (Mumbai)  |  `ap-south-1`  |  `aps1-az1` `aps1-az3`  |  `s3express-control.ap-south-1.amazonaws.com` `s3express-control-dualstack.ap-south-1.amazonaws.com`  |  `s3express-aps1-az1.ap-south-1.amazonaws.com` `s3express-aps1-az1.dualstack.ap-south-1.amazonaws.com` `s3express-aps1-az3.ap-south-1.amazonaws.com` `s3express-aps1-az3.dualstack.ap-south-1.amazonaws.com`  | 
|  Asien-Pazifik (Tokio)  |  `ap-northeast-1`  |  `apne1-az1` `apne1-az4`  |  `s3express-control.ap-northeast-1.amazonaws.com` `s3express-control-dualstack.ap-northeast-1.amazonaws.com`  |  `s3express-apne1-az1.ap-northeast-1.amazonaws.com` `s3express-apne1-az1.dualstack.ap-northeast-1.amazonaws.com` `s3express-apne1-az4.ap-northeast-1.amazonaws.com` `s3express-apne1-az4.dualstack.ap-northeast-1.amazonaws.com`  | 
|  Europa (Irland)  |  `eu-west-1`  |  `euw1-az1` `euw1-az3`  |  `s3express-control.eu-west-1.amazonaws.com` `s3express-control-dualstack.eu-west-1.amazonaws.com`  |  `s3express-euw1-az1.eu-west-1.amazonaws.com` `s3express-euw1-az1.dualstack.eu-west-1.amazonaws.com` `s3express-euw1-az3.eu-west-1.amazonaws.com` `s3express-euw1-az3.dualstack.eu-west-1.amazonaws.com`  | 
|  Europa (Stockholm)  |  `eu-north-1`  |  `eun1-az1` `eun1-az2` `eun1-az3`  |  `s3express-control.eu-north-1.amazonaws.com` `s3express-control-dualstack.eu-north-1.amazonaws.com`  |  `s3express-eun1-az1.eu-north-1.amazonaws.com` `s3express-eun1-az1.dualstack.eu-north-1.amazonaws.com` `s3express-eun1-az2.eu-north-1.amazonaws.com` `s3express-eun1-az2.dualstack.eu-north-1.amazonaws.com` `s3express-eun1-az3.eu-north-1.amazonaws.com` `s3express-eun1-az3.dualstack.eu-north-1.amazonaws.com`  | 

# Optimieren der Leistung von S3 Express One Zone
<a name="s3-express-performance"></a>

Amazon S3 Express One Zone ist eine leistungsstarke S3-Speicherklasse mit einer einzigen Availability Zone (AZ), die speziell für den konsistenten Datenzugriff im einstelligen Millisekundenbereich für Ihre latenzempfindlichsten Anwendungen entwickelt wurde. S3 Express One Zone ist die erste S3-Speicherklasse, die Ihnen die Möglichkeit bietet, leistungsstarke Objektspeicher- und AWS Rechenressourcen wie Amazon Elastic Compute Cloud, Amazon Elastic Kubernetes Service und Amazon Elastic Container Service innerhalb einer einzigen Availability Zone zusammenzulegen. Die gemeinsame Nutzung Ihrer Speicher- und Computingressourcen optimiert die Rechenleistung und die Kosten und sorgt für eine höhere Datenverarbeitungsgeschwindigkeit. 

S3 Express One Zone bietet eine ähnliche Leistungselastizität wie andere S3-Speicherklassen, jedoch mit konsistenten Latenzen für Lese- und Schreibanfragen im ersten Byte im einstelligen Millisekundenbereich – bis zu zehnmal schneller als S3 Standard. S3 Express One Zone wurde von Grund auf für die Unterstützung von Burst-Durchsätzen bis hin zu sehr hohen Aggregatwerten konzipiert. Die Speicherklasse S3 Express One Zone verwendet eine maßgeschneiderte Architektur, um die Leistung zu optimieren und durch die Speicherung von Daten auf Hochleistungshardware eine konstant niedrige Anforderungslatenz zu gewährleisten. Das Objektprotokoll für S3 Express One Zone wurde verbessert, um die Authentifizierung und den Metadaten-Overhead zu optimieren. 

Um die Latenz weiter zu reduzieren und bis zu 2 Millionen Lesevorgänge und bis zu 200.000 Schreibvorgänge pro Sekunde zu unterstützen, speichert S3 Express One Zone Daten in einem Amazon S3-Verzeichnis-Bucket. Standardmäßig unterstützt jeder Verzeichnis-Bucket bis zu 200 000 Lesevorgänge und bis zu 100 000 Schreibvorgänge pro Sekunde. Wenn Ihr Workload mehr als die standardmäßigen TPS-Grenzwerte erfordert, können Sie über den [AWS -Support](https://support.console.aws.amazon.com/support/home#/case/create?issueType=service-limit-increase) eine Erhöhung beantragen.

Die Kombination aus leistungsstarker, speziell entwickelter Hardware und Software, die Datenzugriffsgeschwindigkeiten im einstelligen Millisekundenbereich bietet, und Verzeichnis-Buckets, die für eine große Anzahl von Transaktionen pro Sekunde skalierbar sind, machen S3 Express One Zone zur besten Amazon-S3-Speicherklasse für anforderungsintensive Operationen oder leistungskritische Anwendungen. 

Die folgenden Themen beschreiben bewährte Verfahren und Designmuster zur Optimierung der Leistung von Anwendungen, die die Speicherklasse Sr Express One Zone verwenden. 

**Topics**
+ [Bewährte Verfahren zur Optimierung der Leistung von S3 Express One Zone](s3-express-optimizing-performance-design-patterns.md)

# Bewährte Verfahren zur Optimierung der Leistung von S3 Express One Zone
<a name="s3-express-optimizing-performance-design-patterns"></a>

Bei der Entwicklung von Anwendungen, die Objekte zu Amazon S3 Express One Zone hochladen und daraus abrufen, sollten Sie unsere bewährten Methoden befolgen, um die Leistung zu optimieren. Um die Speicherklasse S3 Express One Zone zu verwenden, müssen Sie einen S3-Verzeichnis-Bucket erstellen. Die Speicherklasse S3 Express One Zone wird für die Verwendung mit S3-Allzweck-Buckets nicht unterstützt.

Leistungsrichtlinien für alle anderen Amazon-S3-Speicherklassen und S3-Allzweck-Buckets finden Sie unter [Bewährte Methoden für Designmuster: Optimieren der Leistung von Amazon S3](optimizing-performance.md).

Für eine optimale Leistung und Skalierbarkeit mit der Speicherklasse S3 Express One Zone und Verzeichnis-Buckets in hochskalierten Workloads ist es wichtig zu verstehen, wie sich Verzeichnis-Buckets von Allzweck-Buckets unterscheiden. Anschließend stellen wir bewährte Verfahren vor, mit denen Sie Ihre Anwendungen an die Funktionsweise von Verzeichnis-Buckets anpassen können.

## Funktionsweise von Verzeichnis-Buckets
<a name="s3-express-how-directory-buckets-work"></a>

Die Speicherklasse Amazon S3 Express One Zone kann Workloads mit bis zu 2 000 000 GET- und bis zu 200 000 PUT-Transaktionen pro Sekunde (TPS) pro Verzeichnis-Bucket unterstützen. Bei S3 Express One Zone werden die Daten in S3-Verzeichnis-Buckets in Availability Zones gespeichert. Auf Objekte in Verzeichnis-Buckets kann innerhalb eines hierarchischen Namespaces zugegriffen werden, ähnlich wie bei einem Dateisystem und im Gegensatz zu S3-Allzweck-Buckets, die einen flachen Namespace haben. Im Gegensatz zu Allzweck-Buckets organisieren Verzeichnis-Buckets Schlüssel hierarchisch in Verzeichnissen statt nach Präfixen. Ein Präfix ist eine Zeichenfolge am Anfang des Objektschlüsselnamens. Sie können Präfixe verwenden, um Ihre Daten zu organisieren und eine flache Objektspeicherarchitektur in Allzweck-Buckets zu verwalten. Weitere Informationen finden Sie unter [Organisieren von Objekten mit Präfixen](using-prefixes.md).

In Verzeichnis-Buckets werden Objekte in einem hierarchischen Namespace organisiert, wobei der Schrägstrich (`/`) das einzige unterstützte Trennzeichen ist. Wenn Sie ein Objekt mit einem Schlüssel wie `dir1/dir2/file1.txt` hochladen, werden die Verzeichnisse `dir1/` und `dir2/` automatisch von Amazon S3 erstellt und verwaltet. Verzeichnisse werden während `PutObject`- oder `CreateMultiPartUpload`-Operationen erstellt und automatisch entfernt, wenn sie nach `DeleteObject`- oder `AbortMultiPartUpload`-Vorgängen leer werden. Es gibt keine Obergrenze für die Anzahl der Objekte und Unterverzeichnisse in einem Verzeichnis.

Die Verzeichnisse, die erstellt werden, wenn Objekte in Verzeichnis-Buckets hochgeladen werden, können sofort skaliert werden, um die Wahrscheinlichkeit von HTTP-`503 (Slow Down)`-Fehlern zu verringern. Diese automatische Skalierung ermöglicht Ihren Anwendungen, Lese- und Schreibanforderungen innerhalb von Verzeichnissen und zwischen Verzeichnissen nach Bedarf zu parallelisieren. Für S3 Express One Zone sind die einzelnen Verzeichnisse so ausgelegt, dass sie die maximale Anforderungsrate eines Verzeichnis-Buckets unterstützen. Eine Randomisierung der Schlüsselpräfixe ist nicht erforderlich, um eine optimale Leistung zu erzielen, da das System die Objekte automatisch verteilt, um eine gleichmäßige Lastverteilung zu erreichen, was jedoch zur Folge hat, dass die Schlüssel nicht lexikografisch in den Buckets des Verzeichnisses gespeichert werden. Dies steht im Gegensatz zu S3-Allzweck-Buckets, bei denen lexikografisch näher beieinander liegende Schlüssel eher auf demselben Server gespeichert werden. 

Weitere Hinweise zu Beispielen für Verzeichnis-Bucket-Operationen und Verzeichnisinteraktionen finden Sie unter [Beispiele für den Betrieb von Buckets und die Interaktion mit Verzeichnissen](#s3-express-directory-bucket-examples).

## Best Practices
<a name="s3-express-best-practices-section"></a>

Befolgen Sie die Best Practices, um die Leistung Ihres Verzeichnis-Bucket zu optimieren und Ihre Workloads mit der Zeit abzuskalieren.

### Verzeichnisse verwenden, die viele Einträge enthalten (Objekte oder Unterverzeichnisse)
<a name="s3-express-best-practices-use-directories"></a>

Verzeichnis-Buckets bieten standardmäßig eine hohe Leistung für alle Workloads. Für eine noch größere Leistungsoptimierung bei bestimmten Operationen führt die Konsolidierung von mehr Einträgen (die Objekte oder Unterverzeichnisse sind) in Verzeichnissen zu einer geringeren Latenz und einer höheren Abrufrate: 
+ Mutierende API-Operationen wie `PutObject`, `DeleteObject`, `CreateMultiPartUpload` und `AbortMultiPartUpload` erzielen eine optimale Leistung, wenn sie mit weniger, dichteren Verzeichnissen mit Tausenden von Einträgen implementiert werden, anstatt mit einer großen Anzahl kleinerer Verzeichnisse. 
+ `ListObjectsV2`-Operationen funktionieren besser, wenn weniger Verzeichnisse durchsucht werden müssen, um eine Ergebnisseite zu füllen.

#### Keine Entropie in Präfixen verwenden
<a name="s3-express-best-practices-dont-use-entropy"></a>

Bei Amazon S3-Vorgängen bezieht sich Entropie auf die Zufälligkeit bei der Benennung von Präfixen, die dazu beiträgt, Arbeitslasten gleichmäßig auf Speicherpartitionen zu verteilen. Da Verzeichnis-Buckets jedoch intern die Lastverteilung verwalten, ist es nicht empfehlenswert, Entropie in Präfixen zu verwenden, um die beste Leistung zu erzielen. Der Grund dafür ist, dass Entropie bei Verzeichnis-Buckets dazu führen kann, dass Anfragen langsamer werden, weil die bereits erstellten Verzeichnisse nicht wiederverwendet werden.

Ein Schlüsselmuster, wie `$HASH/directory/object` könnte dazu führen, dass viele Zwischenverzeichnisse entstehen. Im folgenden Beispiel sind alle `job-1` s verschiedene Verzeichnisse, da ihre Eltern unterschiedlich sind. Verzeichnisse werden spärlich sein und Mutations- und Listenanfragen werden langsamer sein. In diesem Beispiel gibt es 12 Zwischenverzeichnisse, die alle einen einzigen Eintrag haben.

```
s3://my-bucket/0cc175b9c0f1b6a831c399e269772661/job-1/file1
  
s3://my-bucket/92eb5ffee6ae2fec3ad71c777531578f/job-1/file2
  
s3://my-bucket/4a8a08f09d37b73795649038408b5f33/job-1/file3
  
s3://my-bucket/8277e0910d750195b448797616e091ad/job-1/file4
  
s3://my-bucket/e1671797c52e15f763380b45e841ec32/job-1/file5
  
s3://my-bucket/8fa14cdd754f91cc6554c9e71929cce7/job-1/file6
```

Um die Leistung zu verbessern, können wir stattdessen die Komponente `$HASH` entfernen und `job-1` zu einem einzigen Verzeichnis werden lassen, was die Dichte eines Verzeichnisses verbessert. Im folgenden Beispiel kann ein einzelnes Zwischenverzeichnis mit 6 Einträgen zu einer besseren Leistung führen als im vorherigen Beispiel.

```
s3://my-bucket/job-1/file1
  
s3://my-bucket/job-1/file2
  
s3://my-bucket/job-1/file3
  
s3://my-bucket/job-1/file4
  
s3://my-bucket/job-1/file5
  
s3://my-bucket/job-1/file6
```

Dieser Leistungsvorteil entsteht dadurch, dass bei der erstmaligen Erstellung eines Objektschlüssels, dessen Schlüsselname ein Verzeichnis enthält, das Verzeichnis automatisch für das Objekt erstellt wird. Bei nachfolgenden Objekt-Uploads in dasselbe Verzeichnis muss das Verzeichnis nicht erstellt werden, wodurch die Latenz beim Hochladen von Objekten in bestehende Verzeichnisse reduziert wird.

#### Verwenden Sie ein anderes Trennzeichen als das Trennzeichen/, um Teile Ihres Schlüssels zu trennen, wenn Sie Objekte bei `ListObjectsV2`-Aufrufen nicht logisch gruppieren müssen
<a name="s3-express-best-practices-use-separator"></a>

Da das Begrenzungszeichen `/` für Verzeichnis-Buckets besonders behandelt wird, sollte es mit Bedacht verwendet werden. Verzeichnis-Buckets ordnen Objekte zwar nicht lexikografisch, aber Objekte innerhalb eines Verzeichnisses werden dennoch in `ListObjectsV2`-Ausgaben gruppiert. Wenn Sie diese Funktion nicht benötigen, können Sie `/` durch ein anderes Zeichen als Trennzeichen ersetzen, damit keine Zwischenverzeichnisse entstehen.

Nehmen wir zum Beispiel an, dass die folgenden Schlüssel in einem Präfixmuster `YYYY/MM/DD/HH/` enthalten sind

```
s3://my-bucket/2024/04/00/01/file1
  
s3://my-bucket/2024/04/00/02/file2
  
s3://my-bucket/2024/04/00/03/file3
  
s3://my-bucket/2024/04/01/01/file4
  
s3://my-bucket/2024/04/01/02/file5
  
s3://my-bucket/2024/04/01/03/file6
```

Wenn Sie Objekte in den `ListObjectsV2`-Ergebnissen nicht nach Stunden oder Tagen gruppieren müssen, sondern Objekte nach Monaten gruppieren müssen, führt das folgende Schlüsselmuster von `YYYY/MM/DD-HH-` zu deutlich weniger Verzeichnissen und zu einer besseren Leistung des `ListObjectsV2`-Vorgangs.

```
s3://my-bucket/2024/04/00-01-file1
  
s3://my-bucket/2024/04/00-01-file2
  
s3://my-bucket/2024/04/00-01-file3
  
s3://my-bucket/2024/04/01-02-file4
  
s3://my-bucket/2024/04/01-02-file5
  
s3://my-bucket/2024/04/01-02-file6
```

#### Verwenden Sie nach Möglichkeit abgegrenzte Listenoperationen
<a name="s3-express-best-practices-use-delimited-list"></a>

Eine `ListObjectsV2`-Anfrage ohne `delimiter` führt eine rekursive Durchquerung aller Verzeichnisse nach der Tiefe durch. Eine `ListObjectsV2`-Anfrage mit `delimiter` ruft nur Einträge in dem durch den `prefix` Parameter angegebenen Verzeichnis ab, wodurch die Latenz der Anfrage reduziert und die Anzahl der aggregierten Schlüssel pro Sekunde erhöht wird. Verwenden Sie für Verzeichnis-Buckets nach Möglichkeit Operationen mit abgegrenzten Listen. Abgegrenzte Listen führen dazu, dass Verzeichnisse weniger oft besucht werden, was zu mehr Schlüsseln pro Sekunde und einer geringeren Anfragelatenz führt.

Zum Beispiel für die folgenden Verzeichnisse und Objekte in Ihrem Verzeichnis-Bucket:

```
s3://my-bucket/2024/04/12-01-file1
  
s3://my-bucket/2024/04/12-01-file2
  
...
  
s3://my-bucket/2024/05/12-01-file1
  
s3://my-bucket/2024/05/12-01-file2
  
...
  
s3://my-bucket/2024/06/12-01-file1
  
s3://my-bucket/2024/06/12-01-file2
  
...
  
s3://my-bucket/2024/07/12-01-file1
  
s3://my-bucket/2024/07/12-01-file2
  
...
```

Um eine bessere `ListObjectsV2` Leistung zu erzielen, verwenden Sie eine durch Trennzeichen getrennte Liste, um Ihre Unterverzeichnisse und Objekte aufzulisten, wenn die Logik Ihrer Anwendung dies zulässt. Sie können zum Beispiel den folgenden Befehl für die Operation "Begrenzte Liste" ausführen,

```
aws s3api list-objects-v2 --bucket my-bucket --prefix '2024/' --delimiter '/'
```

Die Ausgabe ist die Liste der Unterverzeichnisse.

```
{
    "CommonPrefixes": [
        {
            "Prefix": "2024/04/"
        },
        {
            "Prefix": "2024/05/"
        },
        {
            "Prefix": "2024/06/"
        },
        {
            "Prefix": "2024/07/"
        }
    ]
}
```

Um die einzelnen Unterverzeichnisse mit besserer Leistung aufzulisten, können Sie einen Befehl wie das folgende Beispiel ausführen:

Befehl:

```
aws s3api list-objects-v2 --bucket my-bucket --prefix '2024/04' --delimiter '/'
```

Ausgabe:

```
{
    "Contents": [
        {
            "Key": "2024/04/12-01-file1"
        },
        {
            "Key": "2024/04/12-01-file2"
        }
    ]
}
```

### Platzieren Sie den S3-Express-One-Zone-Speicher gemeinsam mit Ihren -Computingressourcen
<a name="s3-express-best-practices-colocate"></a>

Mit S3 Express One Zone befindet sich jeder Verzeichnis-Bucket in einer einzigen Availability Zone, die Sie bei der Erstellung des Buckets auswählen. Sie können damit beginnen, indem Sie neuen Verzeichnis-Bucket in einer Availability Zone erstellen, die für Ihre Computing-Workloads oder Ressourcen lokal ist. Sie können dann sofort mit Lese- und Schreibvorgängen mit sehr niedriger Latenz beginnen. Verzeichnis-Buckets sind eine Art von S3-Buckets, in denen Sie die Availability Zone auswählen können, AWS-Region um die Latenz zwischen Datenverarbeitung und Speicher zu reduzieren.

Wenn Sie über Availability Zones hinweg auf Verzeichnis-Buckets zugreifen, kann es zu einer leicht erhöhten Latenz kommen. Um die Leistung zu optimieren, empfehlen wir, dass Sie von Amazon Elastic Container Service-, Amazon Elastic Kubernetes Service- und Amazon Elastic Compute Cloud-Instances, die sich nach Möglichkeit in derselben Availability Zone befinden, auf einen Directory-Bucket zugreifen.

### Verwenden Sie gleichzeitige Verbindungen, um einen hohen Durchsatz mit Objekten über 1 MB zu erreichen.
<a name="s3-express-best-practices-concurrent-connections"></a>

Sie erreichen die beste Leistung durch die Ausgabe mehrerer gleichzeitiger Anfragen an Verzeichnis-Buckets zur Verteilung Ihrer Anforderungen auf separate Verbindungen und zur Maximierung der verfügbaren Bandbreite. Wie bei Allzweck-Buckets gibt es auch bei S3 Express One Zone keine Beschränkungen für die Anzahl der Verbindungen zu Ihrem Verzeichnis-Bucket. Einzelne Verzeichnisse können die Leistung horizontal und automatisch skalieren, wenn eine große Anzahl gleichzeitiger Schreibvorgänge in dasselbe Verzeichnis stattfindet.

Für einzelne TCP-Verbindungen zu Verzeichnis-Buckets gilt eine feste Obergrenze für die Anzahl der Bytes, die pro Sekunde hoch- oder heruntergeladen werden können. Wenn die Objekte größer werden, wird die Anforderungszeit eher durch Byte-Streaming als durch Transaktionsverarbeitung dominiert. Wenn Sie mehrere Verbindungen verwenden möchten, um den Upload oder Download größerer Objekte zu parallelisieren, können Sie die Latenz reduzieren. end-to-end Wenn Sie das `Java 2.x` SDK verwenden, sollten Sie die Verwendung des [S3 Transfer Manager](https://docs.aws.amazon.com/sdk-for-java/latest/developer-guide/transfer-manager.html) in Betracht ziehen, der Leistungsverbesserungen wie die [mehrteiligen Upload-API-Operationen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/mpuoverview.html) und Byte-Range-Fetches für den parallelen Datenzugriff nutzt.

### Gateway VPC-Endpunkte verwenden
<a name="s3-express-best-practices-vpc-endpoints"></a>

Gateway-Endpunkte bieten eine direkte Verbindung von Ihrem VPC zu Verzeichnis-Buckets, ohne dass ein Internet-Gateway oder ein NAT-Gerät für Ihren VPC erforderlich ist. Um die Zeit zu verkürzen, die Ihre Pakete im Netzwerk verbringen, sollten Sie Ihre VPC mit einem Gateway-VPC-Endpunkt für Verzeichnis-Buckets konfigurieren. Weitere Informationen finden Sie unter [Netzwerke für Verzeichnis-Buckets](s3-express-networking.md).

### Sitzungsauthentifizierung und Wiederverwendung von Sitzungstoken, solange sie gültig sind
<a name="s3-express-best-practices-session-auth"></a>

Verzeichnis-Buckets bieten einen Sitzungs-Token-Authentifizierungsmechanismus, um die Latenz bei leistungsempfindlichen API-Vorgängen zu verringern. Sie können einen einzigen Aufruf von `CreateSession` tätigen, um ein Sitzungstoken zu erhalten, das dann in den folgenden 5 Minuten für alle Anfragen gültig ist. Um die geringste Latenzzeit bei Ihren API-Aufrufen zu erreichen, sollten Sie ein Sitzungs-Token erwerben und es für die gesamte Lebensdauer dieses Tokens wiederverwenden, bevor Sie es aktualisieren.

Wenn Sie diese Option verwenden AWS SDKs, werden die SDKs Aktualisierungen des Sitzungstokens automatisch durchgeführt, um Dienstunterbrechungen zu vermeiden, wenn eine Sitzung abläuft. Wir empfehlen, dass Sie den verwenden, AWS SDKs um Anfragen an den `CreateSession` API-Vorgang zu initiieren und zu verwalten.

Mehr über `CreateSession` erfahren Sie unter [Autorisieren zonaler Endpunkt-API-Operationen mit `CreateSession`](s3-express-create-session.md).

### Verwenden Sie einen CRT-basierten Client
<a name="s3-express-best-practices-crt"></a>

Die AWS Common Runtime (CRT) besteht aus modularen, performanten und effizienten Bibliotheken, die in C geschrieben wurden und als Grundlage für die dienen sollen. AWS SDKs Der CRT bietet einen verbesserten Durchsatz, ein verbessertes Verbindungsmanagement und kürzere Startup-Zeiten. Die CRT ist in allen Versionen außer Go verfügbar. AWS SDKs 

[Weitere Informationen zur Konfiguration der CRT für das von Ihnen verwendete SDK finden Sie unter [AWS Common Runtime (CRT) -Bibliotheken](https://docs.aws.amazon.com/sdkref/latest/guide/common-runtime.html), [Beschleunigen Sie den Amazon S3 S3-Durchsatz mit der AWS Common Runtime](https://aws.amazon.com/blogs//storage/improving-amazon-s3-throughput-for-the-aws-cli-and-boto3-with-the-aws-common-runtime/), [Einführung in den CRT-basierten S3-Client und den S3 Transfer Manager im AWS SDK for Java 2.x, S3 CrtClient für](https://aws.amazon.com/blogs//developer/introducing-crt-based-s3-client-and-the-s3-transfer-manager-in-the-aws-sdk-for-java-2-x/)[Amazon S3 S3-Operationen verwenden](https://docs.aws.amazon.com/sdk-for-cpp/v1/developer-guide/examples-s3-crt.html) und CRT-basierte HTTP-Clients konfigurieren. AWS](https://docs.aws.amazon.com/sdk-for-java/latest/developer-guide/http-configuration-crt.html)

### Verwenden Sie die neueste Version von AWS SDKs
<a name="s3-express-best-practices-latest-sdks"></a>

 AWS SDKs Sie bieten integrierte Unterstützung für viele der empfohlenen Richtlinien zur Optimierung der Amazon S3 S3-Leistung. Sie SDKs bieten eine einfachere API für die Nutzung der Vorteile von Amazon S3 innerhalb einer Anwendung und werden regelmäßig aktualisiert, um den neuesten Best Practices zu entsprechen. Beispielsweise werden Anfragen nach `503` HTTP-Fehlern SDKs automatisch wiederholt und langsame Verbindungsantworten verarbeitet.

Wenn Sie das `Java 2.x` SDK verwenden, sollten Sie die Verwendung des [S3 Transfer Manager](https://docs.aws.amazon.com/sdk-for-java/latest/developer-guide/transfer-manager.html)in Betracht ziehen, der Verbindungen automatisch horizontal skaliert, um Tausende von Anfragen pro Sekunde zu erreichen, indem er gegebenenfalls Byte-Range-Anfragen verwendet. Byte-Bereichs-Anforderungen können die Leistung verbessern, da Sie über gleichzeitige Verbindungen zu S3 verschiedene Byte-Bereiche innerhalb desselben Objekts abrufen können. Dies hilft beim Erreichen eines höheren aggregierten Durchsatzes als bei einer einzelnen Anforderung eines ganzen Objekts. Daher ist es wichtig, die neueste Version von zu verwenden AWS SDKs , um die neuesten Funktionen zur Leistungsoptimierung zu erhalten.

## Fehlerbehebung bei der Leistung
<a name="s3-express-performance-troubleshooting"></a>

### Haben Sie Wiederholungsanforderungen für latenzempfindliche Anwendungen festgelegt?
<a name="s3-express-performance-troubleshooting-retry"></a>

S3 Express One Zone wurde speziell für gleichbleibende Leistung ohne zusätzliche Anpassungen entwickelt. Die Festlegung aggressiver Timeout-Werte und Wiederholungsversuche kann jedoch weiter zu einer gleichbleibenden Latenz und Leistung beitragen. Sie AWS SDKs verfügen über konfigurierbare Werte für Timeout und Wiederholungsversuche, die Sie an die Toleranzen Ihrer spezifischen Anwendung anpassen können.

### Verwenden Sie AWS Common Runtime (CRT) -Bibliotheken und optimale Amazon EC2 EC2-Instance-Typen?
<a name="s3-express-performance-troubleshooting-crt-ec2"></a>

Anwendungen, die eine große Anzahl von Lese- und Schreibvorgängen ausführen, benötigen wahrscheinlich mehr Arbeitsspeicher oder Computing-Kapazitäten als Anwendungen, bei denen dies nicht der Fall ist. Wählen Sie beim Starten Ihrer Amazon-Elastic-Compute-Cloud (Amazon EC2)-Instances für Ihre leistungsfordernde Workloads die Instance-Typen aus, die über die Menge dieser Ressourcen verfügen, die Ihre Anwendung benötigt. S3 Express One Zone Hochleistungsspeicher lässt sich ideal mit größeren und neueren Instance-Typen kombinieren, die über mehr Systemspeicher verfügen und leistungsfähiger sind CPUs und GPUs die Vorteile von leistungsfähigerem Speicher nutzen können. Wir empfehlen außerdem, die neuesten Versionen von CRT-Enabled zu verwenden AWS SDKs, wodurch Lese- und Schreibanforderungen besser parallel beschleunigt werden können.

### Verwenden Sie AWS SDKs für die sitzungsbasierte Authentifizierung?
<a name="s3-express-performance-troubleshooting-session-auth"></a>

Mit Amazon S3 können Sie auch die Leistung optimieren, wenn Sie HTTP-REST-API-Anfragen verwenden, indem Sie dieselben bewährten Methoden befolgen, die Teil von sind AWS SDKs. Angesichts des sitzungsbasierten Autorisierungs- und Authentifizierungsmechanismus, der von S3 Express One Zone verwendet wird, empfehlen wir Ihnen jedoch dringend, das Token für die Verwaltung `CreateSession` und das zugehörige verwaltete Sitzungstoken AWS SDKs zu verwenden. Sie erstellen und aktualisieren Tokens AWS SDKs automatisch in Ihrem Namen mithilfe der `CreateSession` API-Operation. Bei der Autorisierung der einzelnen Anfragen wird die AWS Identity and Access Management Round-Trip-Latenz pro Anfrage (IAM) `CreateSession` eingespart.

## Beispiele für den Betrieb von Buckets und die Interaktion mit Verzeichnissen
<a name="s3-express-directory-bucket-examples"></a>

Die folgenden drei Beispiele zeigen, wie Verzeichnis-Buckets funktionieren.

### Beispiel 1: Interaktion von S3 `PutObject`-Anfragen an einen Verzeichnis-Bucket mit Verzeichnissen
<a name="s3-express-directory-bucket-examples-put"></a>

1. Wenn der Vorgang `PUT(<bucket>, "documents/reports/quarterly.txt")` in einem leeren Bucket ausgeführt wird, wird das Verzeichnis `documents/` im Stammverzeichnis des Buckets erstellt, das Verzeichnis `reports/` innerhalb von `documents/` erstellt und das Objekt `quarterly.txt` innerhalb von `reports/` erstellt. Für diesen Vorgang wurden zusätzlich zum Objekt zwei Verzeichnisse angelegt.  
![\[Diagramm, das die Verzeichnisstruktur nach der PUT-Operation für documents/reports/quarterly.txt zeigt\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/directory-examples-foo-bar-baz.png)

1. Wenn dann eine weitere Operation `PUT(<bucket>, "documents/logs/application.txt")` ausgeführt wird, ist das Verzeichnis `documents/` bereits vorhanden, das Verzeichnis `logs/` innerhalb von `documents/` existiert nicht und wird erstellt, und das Objekt `application.txt` innerhalb von `logs/` wird erstellt. Bei diesem Vorgang wurde nur ein Verzeichnis zusätzlich zum Objekt erstellt.  
![\[Diagramm, das die Verzeichnisstruktur nach der PUT-Operation für documents/logs/application.txt zeigt\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/directory-examples-foo-baz-quux.png)

1. Wenn schließlich eine `PUT(<bucket>, "documents/readme.txt")` Operation ausgeführt wird, existiert das Verzeichnis `documents/` im Stammverzeichnis bereits und das Objekt `readme.txt` wird erstellt. Bei diesem Vorgang werden keine Verzeichnisse erstellt.  
![\[Diagramm, das die Verzeichnisstruktur nach der PUT-Operation für documents/readme.txt zeigt\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/directory-examples-foo-bar.png)

### Beispiel 2: Wie S3-`ListObjectsV2`-Anfragen an einen Verzeichnis-Bucket mit Verzeichnissen interagieren
<a name="s3-express-directory-bucket-examples-list"></a>

Bei den S3 `ListObjectsV2` -Anfragen ohne Angabe eines Trennzeichens wird ein Bucket in der Tiefe durchlaufen. Die Ausgaben werden in einer einheitlichen Reihenfolge zurückgegeben. Diese Reihenfolge bleibt zwar zwischen den Anfragen gleich, ist aber nicht lexikografisch. Für den Bucket und die Verzeichnisse, die im vorherigen Beispiel erstellt wurden:

1. Wenn `LIST(<bucket>)` ausgeführt wird, wird das Verzeichnis `documents/` eingegeben und das Traversieren beginnt.

1. Das Unterverzeichnis `logs/` wird betreten und die Durchsuchung beginnt.

1. Das Objekt `application.txt` befindet sich in `logs/`.

1. Darin sind keine weiteren Einträge in `logs/` vorhanden. Der Listenvorgang wird beendet `logs/` und gibt `documents/` erneut ein.

1. Das Verzeichnis `documents/` wird weiter durchlaufen und das Objekt `readme.txt` wird gefunden.

1. Das Verzeichnis `documents/` wird weiter durchlaufen und das Unterverzeichnis `reports/` wird betreten und das Durchlaufen beginnt.

1. Das Objekt `quarterly.txt` befindet sich in `reports/`.

1. Darin sind keine weiteren Einträge in `reports/` vorhanden. Die Liste verlässt `reports/` und geht zurück zu `documents/`.

1. Es sind keine weiteren Einträge vorhanden in `documents/` und die Liste kehrt zurück.

In diesem Beispiel wird `logs/` vor `readme.txt` bestellt und `readme.txt` wird vor `reports/` bestellt.

### Beispiel 3: Wie S3-`DeleteObject`-Anfragen an einen Verzeichnis-Bucket mit Verzeichnissen interagieren
<a name="s3-express-directory-bucket-examples-delete"></a>

![\[Diagramm der anfänglichen Verzeichnisstruktur vor DELETE-Operationen\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/directory-examples-delete-before.png)


1. Wenn der Vorgang `DELETE(<bucket>, "documents/reports/quarterly.txt")` in demselben Bucket ausgeführt wird, wird das Objekt `quarterly.txt` gelöscht, sodass das Verzeichnis `reports/` leer bleibt und es sofort gelöscht wird. Das Verzeichnis `documents/` ist nicht leer, da es sowohl das Verzeichnis `logs/` als auch das `readme.txt` Objekt enthält, sodass es nicht gelöscht wird. Bei diesem Vorgang wurden nur ein Objekt und ein Verzeichnis gelöscht.  
![\[Diagramm, das die Verzeichnisstruktur nach dem DELETE-Vorgang für documents/reports/quarterly.txt zeigt\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/directory-examples-delete1.png)

1. Wenn der Vorgang `DELETE(<bucket>, "documents/readme.txt")` ausgeführt wird, wird das Objekt `readme.txt` gelöscht. `documents/` ist immer noch nicht leer, weil es das Verzeichnis `logs/` enthält, also wurde es nicht gelöscht. Bei diesem Vorgang werden keine Verzeichnisse gelöscht, sondern nur das Objekt.  
![\[Diagramm, das die Verzeichnisstruktur nach dem DELETE-Vorgang für documents/readme.txt zeigt\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/directory-examples-delete2.png)

1. Wenn die Operation `DELETE(<bucket>, "documents/logs/application.txt")` ausgeführt wird, wird `application.txt` schließlich gelöscht, sodass `logs/` leer bleibt und sofort gelöscht wird. Dadurch bleibt `documents/` leer und wird auch sofort gelöscht. Bei diesem Vorgang werden zwei Verzeichnisse und ein Objekt gelöscht. Der Bucket ist nun leer.  
![\[Diagramm, das die Verzeichnisstruktur nach dem DELETE-Vorgang für documents/logs/application.txt zeigt\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/directory-examples-delete3.png)

# Workloads mit Datenresidenz
<a name="directory-bucket-data-residency"></a>

AWS Dedizierte Local Zones (Dedicated Local Zones) sind eine Art von AWS Infrastruktur AWS, die vollständig von Ihnen oder Ihrer Community verwaltet, für die ausschließliche Nutzung durch Sie oder Ihre Community gebaut und an einem von Ihnen angegebenen Standort oder Rechenzentrum platziert wird, um die Einhaltung der gesetzlichen Anforderungen zu gewährleisten. Dedicated Local Zones sind eine Art von AWS Local Zones (Local Zones) -Angebot. Weitere Informationen finden Sie unter [AWS Dedizierte lokale Zonen](https://aws.amazon.com/dedicatedlocalzones/).

In Dedicated Local Zones können Sie S3-Verzeichnis-Buckets erstellen, um Daten in einem bestimmten Datenperimeter zu speichern, was Anwendungsfälle für Datenresidenz und Isolation unterstützt. Verzeichnis-Buckets in Dedicated Local Zones können die Speicherklassen S3 Express One Zone und S3 One Zone-Infrequent Access (S3 One Zone-IA; Z-IA) unterstützen. Verzeichnis-Buckets sind derzeit an anderen [Standorten von AWS Local Zones](https://aws.amazon.com/about-aws/global-infrastructure/localzones/locations/) nicht verfügbar. 

Sie können die AWS-Managementkonsole REST-API AWS Command Line Interface (AWS CLI) und AWS SDKs in Dedicated Local Zones verwenden. 



Weitere Informationen zum Arbeiten mit Verzeichnis-Buckets in Local Zones finden Sie in den folgenden Themen:

**Topics**
+ [Konzepte für Verzeichnis-Buckets in Local Zones](s3-lzs-for-directory-buckets.md)
+ [Aktivieren von Konten für Local Zones](opt-in-directory-bucket-lz.md)
+ [Private Konnektivität von Ihrer VPC](connectivity-lz-directory-buckets.md)
+ [Erstellen eines Verzeichnis-Buckets in einer Local Zone](create-directory-bucket-LZ.md)
+ [Authentifizierung und Autorisierung für Verzeichnis-Buckets in Local Zones](iam-directory-bucket-LZ.md)

# Konzepte für Verzeichnis-Buckets in Local Zones
<a name="s3-lzs-for-directory-buckets"></a>

Bevor Sie einen Verzeichnis-Bucket in einer lokalen Zone erstellen, müssen Sie die ID der lokalen Zone kennen, in der Sie einen Bucket erstellen möchten. Sie können alle Informationen zur lokalen Zone mithilfe der [DescribeAvailabilityZones](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_DescribeAvailabilityZones.html)API-Operation finden. Dieser API-Vorgang listet Informationen zu Local Zones auf, einschließlich ihrer lokalen Zone IDs, der Namen der übergeordneten Regionen, der Netzwerkgrenzgruppen und des Opt-in-Status. Nachdem Sie Ihre ID für die lokale Zone erhalten haben und eingeloggt sind, können Sie einen Verzeichnis-Bucket in der lokalen Zone erstellen. Ein Verzeichnis-Bucket-Name besteht aus einem von Ihnen angegebenen Basisnamen und einem Suffix, das die Zonen-ID des Bucket-Standorts enthält, gefolgt von `--x-s3`. 

Eine Local Zone ist über das redundante private Amazon-Netzwerk mit sehr hoher Bandbreite mit der **übergeordneten Region** verbunden. Dadurch erhalten Anwendungen, die in der lokalen Zone ausgeführt werden, schnellen, sicheren und nahtlosen Zugriff auf den Rest AWS-Services der übergeordneten Region. Die **ID der übergeordneten Zone** ist die ID der Zone, die einige Operationen auf der Steuerebene der Local Zone, wie API-Aufrufe, abwickelt. Die **Network Border Group** ist eine einzigartige Gruppe, von der AWS aus öffentliche IP-Adressen veröffentlicht werden. Weitere Informationen zu Local Zones, übergeordneter Region und übergeordneter Zonen-ID finden Sie unter [AWS Local Zones concepts](https://docs.aws.amazon.com/local-zones/latest/ug/concepts-local-zones.html) im AWS Local Zones *User Guide*.

Alle Verzeichnis-Buckets verwenden den Namespace `s3express`, der sich vom Namespace `s3` für Allzweck-Buckets unterscheidet. Bei Verzeichnis-Buckets werden Anforderungen entweder an einen **regionalen** oder einen **zonalen Endpunkt** weitergeleitet. Das Routing wird automatisch für Sie übernommen, wenn Sie AWS-Managementkonsole AWS CLI, oder verwenden AWS SDKs. 

API-Operationen auf Bucket-Ebene (wie `CreateBucket` und `DeleteBucket`) werden an regionale Endpunkte weitergeleitet und werden als regionale Endpunkt-API-Operationen bezeichnet. Regionale Endpunkte haben das Format `s3express-control.ParentRegionCode.amazonaws.com`. Alle API-Operationen auf Objektebene (z. B. `PutObject`) und zwei API-Operationen auf Bucket-Ebene (`CreateSession` und `HeadBucket`) werden an zonale Endpunkte weitergeleitet und werden als API-Operationen für zonale Endpunkte bezeichnet. Zonale Endpunkte haben das Format `s3express-LocalZoneID.ParentRegionCode.amazonaws.com`. Eine vollständige Liste der API-Operationen nach Endpunkttyp finden Sie unter [API-Operationen für Verzeichnis-Buckets](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-differences.html#s3-express-differences-api-operations).

Um von Ihrer Virtual Private Cloud (VPC) aus auf Verzeichnis-Buckets in Local Zones zuzugreifen, können Sie Gateway-VPC-Endpunkte verwenden. Für die Nutzung von Gateway-Endpunkten fallen keine zusätzlichen Gebühren an. Informationen zur Konfiguration von Gateway-VPC-Endpunkten für den Zugriff auf Verzeichnis-Buckets und Objekte in lokalen Zonen finden Sie unter [Private Konnektivität von Ihrer VPC](connectivity-lz-directory-buckets.md). 

# Aktivieren von Konten für Local Zones
<a name="opt-in-directory-bucket-lz"></a>

Im folgenden Thema wird beschrieben, wie Konten für Dedicated Local Zones aktiviert werden.

Für alle Dienste in AWS Dedicated Local Zones (Dedicated Local Zones), einschließlich Amazon S3, muss Ihr Administrator Ihre aktivieren, AWS-Konto bevor Sie Ressourcen in der Dedicated Local Zone erstellen oder darauf zugreifen können. Sie können den [DescribeAvailabilityZones](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_DescribeAvailabilityZones.html)API-Vorgang verwenden, um den Zugriff Ihrer Konto-ID auf eine lokale Zone zu bestätigen.

Um Ihre Daten in Amazon S3 weiter zu schützen, haben Sie standardmäßig nur Zugriff auf die S3-Ressourcen, die Sie erstellen. Bei Buckets in Local Zones sind alle Einstellungen für S3 Block Public Access standardmäßig aktiviert und S3 Object Ownership ist auf „Bucket-Eigentümer erzwungen“ festgelegt. Diese Einstellungen können nicht geändert werden. Optional können Sie den Bedingungsschlüssel `s3express:AllAccessRestrictedToLocalZoneGroup` in Ihren IAM-Richtlinien verwenden, um den Zugriff auf Gruppen innerhalb der Netzwerkgrenzen der Local Zone zu beschränken. Weitere Informationen finden Sie unter [Authentifizierung und Autorisierung für Verzeichnis-Buckets in Local Zones](iam-directory-bucket-LZ.md).

# Private Konnektivität von Ihrer VPC
<a name="connectivity-lz-directory-buckets"></a>

Um die Zeit zu reduzieren, die Ihre Pakete im Netzwerk verbringen, konfigurieren Sie Ihre Virtual Private Cloud (VPC) mit einem Gateway-Endpunkt, um auf Verzeichnis-Buckets in Availability Zones zuzugreifen und gleichzeitig den Datenverkehr innerhalb des AWS Netzwerks zu halten, ohne dass zusätzliche Kosten anfallen.

**So konfigurieren Sie einen Gateway-VPC-Endpunkt**

1. Öffnen Sie die [Amazon-VPC-Konsole](https://console.aws.amazon.com/vpc/). 

1. Wählen Sie im Navigationsbereich **Endpunkte** aus.

1. Wählen Sie **Endpunkt erstellen** aus.

1. Erstellen Sie einen Namen für Ihren Endpunkt.

1. Wählen Sie für **Servicekategorie** die Option **AWS-Services** aus. 

1. **Fügen Sie für **Dienste** den Filter **Type=Gateway** hinzu und wählen Sie dann das Optionsfeld neben com.amazonaws aus. *region*.s3express.** 

1. Wählen Sie für **VPC** die VPC, in der der Endpunkt erstellt werden soll.

1. Wählen Sie für **Routing-Tabellen** die Routing-Tabelle in Ihrer VPC aus, die vom Endpunkt verwendet werden soll. Nachdem der Endpunkt erstellt wurde, wird der Routing-Tabelle, die Sie in diesem Schritt auswählen, ein Routing-Datensatz hinzugefügt.

1. Wählen Sie für **Richtlinie** **Vollzugriff**, um alle Operationen aller Prinzipale auf allen Ressourcen über den VPC-Endpunkt zuzulassen. Wählen Sie andernfalls **Benutzerdefiniert** aus, um eine VPC-Endpunktrichtlinie anzufügen, die die Berechtigungen steuert, die Prinzipale zum Ausführen von Aktionen für Ressourcen über den VPC-Endpunkt haben. 

1. Wählen Sie für **IP address type** (IP-Adressentyp) eine der folgenden Optionen aus:
   +  **IPv4**— Weisen Sie den Netzwerkschnittstellen des Endpunkts IPv4 Adressen zu. Diese Option wird nur unterstützt, wenn alle ausgewählten Subnetze IPv4 Adressbereiche haben und der Dienst IPv4 Anfragen akzeptiert. 
   +  **IPv6**— Weist den Endpunkt-Netzwerkschnittstellen IPv6 Adressen zu. Diese Option wird nur unterstützt, wenn alle ausgewählten Subnetze IPv6 nur Subnetze sind und der Dienst Anfragen akzeptiert IPv6 .
   +  **Dualstack** — Weisen Sie den IPv4 Endpunkt-Netzwerkschnittstellen sowohl als auch IPv6 Adressen zu. Diese Option wird nur unterstützt, wenn alle ausgewählten Subnetze sowohl als auch IPv6 Adressbereiche haben IPv4 und der Dienst sowohl Anfragen als auch IPv4 Anfragen akzeptiert. IPv6 

1. (Optional) Sie fügen ein Tag hinzu, indem Sie **Neues Tag hinzufügen** auswählen und den Schlüssel und den Wert für das Tag eingeben.

1. Wählen Sie **Endpunkt erstellen** aus.

Weitere Informationen zu Gateway-Endpunkten finden Sie unter [Gateway-Endpunkte](https://docs.aws.amazon.com/vpc/latest/privatelink/gateway-endpoints.html) im *AWS PrivateLink -Handbuch*. Für Anwendungsfälle mit Datenresidenz empfehlen wir, den Zugriff auf Ihre Buckets nur von Ihrer VPC aus unter Verwendung von Gateway-VPC-Endpunkten zu aktivieren. Wenn der Zugriff auf eine VPC oder einen VPC-Endpunkt beschränkt ist, können Sie über die, die REST-API AWS-Managementkonsole AWS CLI, und auf die Objekte zugreifen. AWS SDKs

**Anmerkung**  
Um den Zugriff auf eine VPC oder einen VPC-Endpunkt mithilfe von zu beschränken AWS-Managementkonsole, müssen Sie den AWS-Managementkonsole privaten Zugriff verwenden. Weitere Informationen finden Sie unter [AWS-Managementkonsole Private Access](https://docs.aws.amazon.com/awsconsolehelpdocs/latest/gsg/console-private-access.html) im *AWS-Managementkonsole -Benutzerhandbuch*.

# Erstellen eines Verzeichnis-Buckets in einer Local Zone
<a name="create-directory-bucket-LZ"></a>

In Dedicated Local Zones können Sie Verzeichnis-Buckets zum Speichern und Abrufen von Objekten in einem bestimmten Datenperimeter erstellen, um Ihre Anwendungsfälle für Datenresidenz und Datenisolierung zu unterstützen. S3-Verzeichnis-Buckets sind der einzige unterstützte Bucket-Typ in lokalen Zonen und enthalten einen Bucket-Speicherorttyp namens `LocalZone`. Der Name eines Verzeichnis-Buckets besteht aus einem Basisnamen, den Sie bereitstellen, und einem Suffix, das die Zonen-ID des Speicherorts Ihres Buckets und `--x-s3` enthält. Mithilfe der [DescribeAvailabilityZones](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_DescribeAvailabilityZones.html)API-Operation können Sie eine Liste der lokalen Zonen IDs abrufen. Weitere Informationen finden Sie unter [Regeln für die Benennung von Verzeichnis-Buckets](directory-bucket-naming-rules.md).

**Anmerkung**  
Für alle Dienste in AWS Dedicated Local Zones (Dedicated Local Zones), einschließlich S3, muss Ihr Administrator Sie aktivieren, AWS-Konto bevor Sie Ressourcen in der Dedicated Local Zone erstellen oder darauf zugreifen können. Weitere Informationen finden Sie unter [Aktivieren von Konten für Local Zones](opt-in-directory-bucket-lz.md).
Für die Anforderungen an die Datenresidenz empfehlen wir, den Zugriff auf Ihre Buckets nur von Gateway-VPC-Endpunkten aus zu aktivieren. Weitere Informationen finden Sie unter [Private Konnektivität von Ihrer VPC](connectivity-lz-directory-buckets.md).
Um den Zugriff nur auf Gruppen innerhalb der Netzwerkgrenzen der Local Zone zu beschränken, können Sie den Bedingungsschlüssel `s3express:AllAccessRestrictedToLocalZoneGroup` in Ihren IAM-Richtlinien verwenden. Weitere Informationen finden Sie unter [Authentifizierung und Autorisierung für Verzeichnis-Buckets in Local Zones](iam-directory-bucket-LZ.md).

Im Folgenden werden Möglichkeiten zum Erstellen eines Verzeichnis-Buckets in einer einzelnen lokalen Zone mit den AWS-Managementkonsole Zeichen AWS CLI, und beschrieben AWS SDKs. 

## Verwenden der S3-Konsole
<a name="create-directory-bucket-lz-console"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie in der Navigationsleiste oben auf der Seite den Namen der aktuell angezeigten Datei aus AWS-Region. Wählen Sie als Nächstes die übergeordnete Region einer Local Zone aus, in der Sie einen Verzeichnis-Bucket erstellen möchten. 
**Anmerkung**  
Weitere Informationen zu übergeordneten Regionen finden Sie unter [Konzepte für Verzeichnis-Buckets in Local Zones](s3-lzs-for-directory-buckets.md).

1. Wählen Sie im linken Navigationsbereich **Buckets** aus.

1. Wählen Sie **Create Bucket** (Bucket erstellen) aus.

   Anschließend wird die Seite **Bucket erstellen** geöffnet.

1. Sehen Sie sich unter **Allgemeine Konfiguration** die AWS-Region an, in der Ihr Bucket erstellt wird. 

1.  Wählen Sie unter **Bucket-Typ** die Option **Verzeichnis** aus.
**Anmerkung**  
Wenn Sie eine Region ausgewählt haben, die keine Verzeichnis-Buckets unterstützt, wird als Bucket-Typ standardmäßig ein Allzweck-Bucket verwendet. Um einen Verzeichnis-Bucket zu erstellen, müssen Sie eine unterstützte Region auswählen. Eine Liste der Regionen, die Verzeichnis-Buckets unterstützen, finden Sie unter [Regionale und zonale Endpunkte für Verzeichnis-Buckets](s3-express-Regions-and-Zones.md).
Nach dem Erstellen des Buckets kann der Bucket-Typ nicht mehr geändert werden.

1. Wählen Sie unter **Bucket-Speicherort** eine Local Zone aus, die Sie verwenden möchten. 
**Anmerkung**  
Die Local Zone kann nicht geändert werden, nachdem der Bucket erstellt wurde. 

1. Markieren Sie unter **Bucket-Speicherort** das Kontrollkästchen, um zu bestätigen, dass Ihre Daten im Falle eines Ausfalls der Local Zone möglicherweise nicht verfügbar sind oder verloren gehen. 
**Wichtig**  
Verzeichnis-Buckets werden über mehrere Geräte hinweg innerhalb einer einzelnen Local Zone gespeichert, speichern jedoch Daten nicht in redundanter Weise über Local Zones hinweg.

1. Geben Sie unter **Bucket-Name** einen Namen für Ihren Verzeichnis-Bucket ein.

   Weitere Informationen zu den Benennungsregeln für Verzeichnis-Buckets finden Sie unter [Benennungsregeln für Allzweck-Buckets](bucketnamingrules.md). Dem von Ihnen angegebenen Basisnamen wird automatisch ein Suffix hinzugefügt, wenn Sie einen Verzeichnis-Buckets mit der Konsole erstellen. Dieses Suffix enthält die ID der Availability Zone, die Sie ausgewählt haben.

   Der Name eines einmal erstellten Buckets kann nicht nachträglich geändert werden. 
**Wichtig**  
Geben Sie keine vertrauliche Informationen, wie Kontonummern, im Bucket-Namen an. Der Bucket-Name ist in dem Punkt sichtbar URLs , an dem die Objekte im Bucket angezeigt werden.

1. Unter **Object Ownership** **ist die Einstellung Bucket Owner** erforced automatisch aktiviert und alle Zugriffskontrolllisten (ACLs) sind deaktiviert. Bei Verzeichnis-Buckets ACLs sind sie deaktiviert und können nicht aktiviert werden.

   Wenn die Einstellung „**Bucket-Besitzer erzwungen**“ aktiviert ist, besitzt der Bucket-Besitzer automatisch jedes Objekt im Bucket und hat die volle Kontrolle darüber. ACLs wirkt sich nicht mehr auf die Zugriffsberechtigungen für Daten im S3-Bucket aus. Der Bucket verwendet ausschließlich Richtlinien, um die Zugriffssteuerung zu definieren. Für die meisten modernen Anwendungsfälle in Amazon S3 ist die Verwendung von nicht mehr erforderlich ACLs. Weitere Informationen finden Sie unter [Kontrolle des Besitzes von Objekten und Deaktivierung ACLs für Ihren Bucket](about-object-ownership.md).

1. Unter **Einstellungen für den öffentlichen Zugriff für diesen Bucket blockieren** werden die Einstellungen für die Blockierung des öffentlichen Zugriffs für Ihren Verzeichnis-Bucket automatisch aktiviert. Diese Einstellung kann für Verzeichnis-Buckets nicht geändert werden. Weitere Informationen zum Blockieren des öffentlichen Zugriffs finden Sie unter [Blockieren des öffentlichen Zugriffs auf Ihren Amazon-S3-Speicher](access-control-block-public-access.md).

1. Unter **Standardverschlüsselung** verwenden Verzeichnis-Buckets standardmäßig die **serverseitige Verschlüsselung mit von Amazon S3 verwalteten Schlüsseln (SSE-S3)** zum Verschlüsseln von Daten. Sie haben auch die Möglichkeit, Daten in Verzeichnis-Buckets mit **serverseitiger Verschlüsselung mit AWS Key Management Service Schlüsseln (SSE-KMS) zu verschlüsseln**.

1. Wählen Sie **Create Bucket** (Bucket erstellen) aus.

   Nachdem Sie den Bucket erstellt haben, können Sie ihm Dateien und Ordner hinzufügen. Weitere Informationen finden Sie unter [Arbeiten mit Objekten in einem Verzeichnis-Bucket](directory-buckets-objects.md).

## Mit dem AWS CLI
<a name="create-directory-bucket-lz-cli"></a>

Dieses Beispiel veranschaulicht, wie Sie einen Verzeichnis-Bucket in einer lokalen Zone mit AWS CLI erstellen. Wenn Sie diesen Befehl verwenden wollen, ersetzen Sie *user input placeholders* durch Ihre eigenen Informationen.

Wenn Sie einen Verzeichnis-Bucket erstellen, müssen Sie Konfigurationsdetails angeben und die folgende Benennungskonvention verwenden: `bucket-base-name--zone-id--x-s3`.

```
aws s3api create-bucket
--bucket bucket-base-name--zone-id--x-s3
--create-bucket-configuration 'Location={Type=LocalZone,Name=local-zone-id},Bucket={DataRedundancy=SingleLocalZone,Type=Directory}'
--region parent-region-code
```

Weitere Informationen zur Local Zone ID und zum Parent Region Code finden Sie unter [Konzepte für Verzeichnis-Buckets in Local Zones](s3-lzs-for-directory-buckets.md). Weitere Informationen über diesen AWS CLI -Befehl finden Sie unter [create-bucket](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/create-bucket.html) in der *AWS CLI -Referenz*.

## Mit dem AWS SDKs
<a name="create-directory-bucket-lz-sdks"></a>

------
#### [ SDK for Go ]

Dieses Beispiel veranschaulicht, wie Sie einen Verzeichnis-Bucket in einer lokalen Zone mit AWS SDK für Go erstellen. 

**Example**  

```
var bucket = "bucket-base-name--zone-id--x-s3" // The full directory bucket name

func runCreateBucket(c *s3.Client) {
    resp, err := c.CreateBucket(context.Background(), &s3.CreateBucketInput{
        Bucket: &bucket,
        CreateBucketConfiguration: &types.CreateBucketConfiguration{
            Location: &types.LocationInfo{
                Name: aws.String("local-zone-id"),
                Type: types.LocationTypeLocalZone,
            },  
            Bucket: &types.BucketInfo{
                DataRedundancy: types.DataRedundancySingleLocalZone,
                Type:           types.BucketTypeDirectory,
            },  
        },  
    })  
    var terr *types.BucketAlreadyOwnedByYou
    if errors.As(err, &terr) {
        fmt.Printf("BucketAlreadyOwnedByYou: %s\n", aws.ToString(terr.Message))
        fmt.Printf("noop...\n") // No operation performed, just printing a message
        return
    }   
    if err != nil {
        log.Fatal(err)
    }   

    fmt.Printf("bucket created at %s\n", aws.ToString(resp.Location))
}
```

------
#### [ SDK for Java 2.x ]

Dieses Beispiel veranschaulicht, wie Sie einen Verzeichnis-Bucket in einer lokalen Zone mit AWS SDK for Java 2.x erstellen. 

**Example**  

```
public static void createBucket(S3Client s3Client, String bucketName) {

    //Bucket name format is {base-bucket-name}--{local-zone-id}--x-s3
    //example: doc-example-bucket--local-zone-id--x-s3 is a valid name for a directory bucket created in a Local Zone.

    CreateBucketConfiguration bucketConfiguration = CreateBucketConfiguration.builder()
             .location(LocationInfo.builder()
                     .type(LocationType.LOCAL_ZONE)
                     .name("local-zone-id").build()) //this must match the Local Zone ID in your bucket name
             .bucket(BucketInfo.builder()
                    .type(BucketType.DIRECTORY)
                    .dataRedundancy(DataRedundancy.SINGLE_LOCAL_ZONE)
                    .build()).build();
    try {
    
             CreateBucketRequest bucketRequest = CreateBucketRequest.builder().bucket(bucketName).createBucketConfiguration(bucketConfiguration).build();
             CreateBucketResponse response = s3Client.createBucket(bucketRequest);
             System.out.println(response);
    } 
    
    catch (S3Exception e) {
            System.err.println(e.awsErrorDetails().errorMessage());
            System.exit(1);
         }
    }
```

------
#### [ AWS SDK für JavaScript ]

Dieses Beispiel veranschaulicht, wie Sie einen Verzeichnis-Bucket in einer lokalen Zone mit AWS SDK für JavaScript erstellen. 

**Example**  

```
// file.mjs, run with Node.js v16 or higher
// To use with the preview build, place this in a folder 
// inside the preview build directory, such as /aws-sdk-js-v3/workspace/

import { S3 } from "@aws-sdk/client-s3";

const region = "parent-region-code";
const zone = "local-zone-id";
const suffix = `${zone}--x-s3`;

const s3 = new S3({ region });

const bucketName = `bucket-base-name--${suffix}`; // Full directory bucket name

const createResponse = await s3.createBucket( 
    { Bucket: bucketName, 
      CreateBucketConfiguration: {Location: {Type: "LocalZone", Name: "local-zone-id"},
      Bucket: { Type: "Directory", DataRedundancy: "SingleLocalZone" }}
    } 
   );
```

------
#### [ SDK für .NET ]

Dieses Beispiel veranschaulicht, wie Sie einen Verzeichnis-Bucket in einer lokalen Zone mit SDK für .NET erstellen. 

**Example**  

```
using (var amazonS3Client = new AmazonS3Client())
{
    var putBucketResponse = await amazonS3Client.PutBucketAsync(new PutBucketRequest
    {

       BucketName = "bucket-base-name--local-zone-id--x-s3",
       PutBucketConfiguration = new PutBucketConfiguration
       {
         BucketInfo = new BucketInfo { DataRedundancy = DataRedundancy.SingleLocalZone, Type = BucketType.Directory },
         Location = new LocationInfo { Name = "local-zone-id", Type = LocationType.LocalZone }
       }
     }).ConfigureAwait(false);
}
```

------
#### [ SDK for PHP ]

Dieses Beispiel veranschaulicht, wie Sie einen Verzeichnis-Bucket in einer lokalen Zone mit AWS SDK for PHP erstellen. 

**Example**  

```
require 'vendor/autoload.php';

$s3Client = new S3Client([

    'region'      => 'parent-region-code',
]);


$result = $s3Client->createBucket([
    'Bucket' => 'bucket-base-name--local-zone-id--x-s3',
    'CreateBucketConfiguration' => [
        'Location' => ['Name'=> 'local-zone-id', 'Type'=> 'LocalZone'],
        'Bucket' => ["DataRedundancy" => "SingleLocalZone" ,"Type" => "Directory"]   ],
]);
```

------
#### [ SDK for Python ]

Dieses Beispiel veranschaulicht, wie Sie einen Verzeichnis-Bucket in einer lokalen Zone mit AWS SDK für Python (Boto3) erstellen. 

**Example**  

```
import logging
import boto3
from botocore.exceptions import ClientError

def create_bucket(s3_client, bucket_name, local_zone):
    '''
    Create a directory bucket in a specified Local Zone

    :param s3_client: boto3 S3 client
    :param bucket_name: Bucket to create; for example, 'bucket-base-name--local-zone-id--x-s3'
    :param local_zone: String; Local Zone ID to create the bucket in
    :return: True if bucket is created, else False
    '''

    try:
        bucket_config = {
                'Location': {
                    'Type': 'LocalZone',
                    'Name': local_zone
                },
                'Bucket': {
                    'Type': 'Directory', 
                    'DataRedundancy': 'SingleLocalZone'
                }
            }
        s3_client.create_bucket(
            Bucket = bucket_name,
            CreateBucketConfiguration = bucket_config
        )
    except ClientError as e:
        logging.error(e)
        return False
    return True


if __name__ == '__main__':
    bucket_name = 'BUCKET_NAME'
    region = 'parent-region-code'
    local_zone = 'local-zone-id'
    s3_client = boto3.client('s3', region_name = region)
    create_bucket(s3_client, bucket_name, local_zone)
```

------
#### [ SDK for Ruby ]

Dieses Beispiel veranschaulicht, wie Sie einen Verzeichnis-Bucket in einer Local Zone mit AWS SDK für Ruby erstellen. 

**Example**  

```
s3 = Aws::S3::Client.new(region:'parent-region-code')
s3.create_bucket(
  bucket: "bucket-base-name--local-zone-id--x-s3",
  create_bucket_configuration: {
    location: { name: 'local-zone-id', type: 'LocalZone' },
    bucket: { data_redundancy: 'SingleLocalZone', type: 'Directory' }
  }
)
```

------

# Authentifizierung und Autorisierung für Verzeichnis-Buckets in Local Zones
<a name="iam-directory-bucket-LZ"></a>

Verzeichnis-Buckets in Local Zones unterstützen sowohl die AWS Identity and Access Management (IAM-) Autorisierung als auch die sitzungsbasierte Autorisierung. Weitere Informationen zur Authentifizierung und Autorisierung für Verzeichnis-Buckets finden Sie unter [Authentifizieren und Autorisieren von Anforderungen](s3-express-authenticating-authorizing.md).

## Ressourcen
<a name="directory-bucket-lz-resources"></a>

Amazon-Ressourcennamen (ARNs) für Verzeichnis-Buckets enthalten den `s3express` Namespace, die AWS übergeordnete Region, die AWS-Konto ID und den Verzeichnis-Bucket-Namen, der die Zonen-ID enthält. Wenn Sie auf Ihren Verzeichnis-Bucket zugreifen und Aktionen für diesen ausführen möchten, müssen Sie das folgende ARN-Format verwenden:

```
arn:aws:s3express:region-code:account-id:bucket/bucket-base-name--ZoneID--x-s3
```

Bei Verzeichnis-Buckets in einer Local Zone ist die Zone ID die ID der Local Zone. Weitere Information zu Verzeichnis-Buckets in Local Zones finden Sie unter [Konzepte für Verzeichnis-Buckets in Local Zones](s3-lzs-for-directory-buckets.md). Weitere Informationen zu ARNs finden Sie unter [Amazon Resource Names (ARNs)](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference-arns.html) im *IAM-Benutzerhandbuch*. Weitere Informationen zu Ressourcen finden Sie unter [IAM-JSON-Richtlinienelemente: Ressource](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_elements_resource.html) im *IAM-Benutzerhandbuch*.

## Bedingungsschlüssel für Verzeichnis-Buckets in Local Zones
<a name="condition-key-db-lz"></a>

In lokalen Zonen können Sie alle diese [Bedingungsschlüssel](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazons3express.html#amazons3express-policy-keys) in Ihren IAM-Richtlinien verwenden. Um einen Datenperimeter rund um die Netzwerkgrenzgruppen Ihrer Local Zone einzurichten, können Sie außerdem den Bedingungsschlüssel `s3express:AllAccessRestrictedToLocalZoneGroup` verwenden, um alle Anforderungen von außerhalb der Gruppen abzulehnen. 

Der folgende Bedingungsschlüssel kann verwendet werden, um die Bedingungen zu verfeinern, unter denen eine IAM-Richtlinienanweisung angewendet wird. Eine vollständige Liste der API-Operationen, Richtlinienaktionen und Bedingungsschlüssel, die von Directory-Buckets unterstützt werden, finden Sie unter [Richtlinienaktionen für Directory-Buckets](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-security-iam.html#s3-express-security-iam-actions).

**Anmerkung**  
Der folgende Bedingungsschlüssel gilt nur für lokale Zonen und wird in Availability Zones und AWS-Regionen nicht unterstützt.


| API-Operationen | Richtlinienaktionen | Description | Bedingungsschlüssel | Description | Typ | 
| --- | --- | --- | --- | --- | --- | 
|  [Zonale Endpunkt-API-Operationen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-APIs.html)  |  s3express:CreateSession  |  Gewährt die Berechtigung zum Erstellen eines Sitzungstokens, mit dem Zugriff auf alle zonalen Endpunkt-API-Operationen gewährt wird, z. B. `CreateSession`, `HeadBucket`, `CopyObject`, `PutObject` und `GetObject`.  |  s3express:AllAccessRestrictedToLocalZoneGroup  | Filtert den gesamten Zugriff auf den Bucket, sofern die Anfrage nicht von den Netzwerkgrenzgruppen der AWS lokalen Zone stammt, die in diesem Bedingungsschlüssel angegeben sind.  **Werte:** Wert für die Netzwerkgrenzgruppe der Local Zone   |  String  | 

## Beispielrichtlinien
<a name="directory-bucket-lz-policies"></a>

Um den Objektzugriff auf Anfragen innerhalb einer von Ihnen definierten Grenze der Datenresidenz zu beschränken (insbesondere auf eine lokale Zonengruppe, die aus einer Reihe lokaler Zonen besteht, die der gleichen AWS-Regionübergeordnet sind), können Sie eine der folgenden Richtlinien festlegen:
+ Die Service-Kontrollrichtlinie (SCP). Weitere Informationen dazu SCPs finden Sie unter [Richtlinien zur Dienststeuerung (SCPs)](https://docs.aws.amazon.com/organizations/latest/userguide/orgs_manage_policies_scps.html) im *AWS Organizations Benutzerhandbuch*.
+ Die identitätsbasierte IAM-Richtlinie für die IAM-Rolle.
+ Die VPC-Endpunktrichtlinie. Weitere Informationen zu VPC-Endpunktrichtlinien finden Sie unter [Steuern des Zugriffs auf VPC-Endpoints mithilfe von Endpunktrichtlinien](https://docs.aws.amazon.com/vpc/latest/privatelink/vpc-endpoints-access.html) im *AWS PrivateLink -Handbuch*.
+ Die S3-Bucket-Richtlinie.

**Anmerkung**  
Der Bedingungsschlüssel `s3express:AllAccessRestrictedToLocalZoneGroup` unterstützt keinen Zugriff von einer On-Premises-Umgebung aus. Um den Zugriff von einer On-Premises-Umgebung aus zu unterstützen, müssen Sie die Quell-IP zu den Richtlinien hinzufügen. Weitere Informationen finden Sie unter [aws: SourceIp](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_condition-keys.html#condition-keys-sourceip) im IAM-Benutzerhandbuch. 

**Example – SCP-Richtlinie**  

```
{
    "Version": "2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Access-to-specific-LocalZones-only",
            "Effect": "Deny",
            "Action": [
                "s3express:*",
            ],
            "Resource": "*",
            "Condition": {
                "StringNotEqualsIfExists": {
                    "s3express:AllAccessRestrictedToLocalZoneGroup": [
                        "local-zone-network-border-group-value"
                    ]
                }
            }
        }
    ]
}
```

**Example – Identitätsbasierte IAM-Richtlinie (an die IAM-Rolle angehängt)**    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": {
        "Effect": "Deny",
        "Action": "s3express:CreateSession",
        "Resource": "*",
        "Condition": {
            "StringNotEqualsIfExists": {
                "s3express:AllAccessRestrictedToLocalZoneGroup": [
                    "local-zone-network-border-group-value"
                ]              
            }
        }
    }
}
```

**Example – VPC-Endpunktrichtlinie**    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {       
            "Sid": "Access-to-specific-LocalZones-only",
            "Principal": "*",
            "Action": "s3express:CreateSession",
            "Effect": "Deny",
            "Resource": "*",
            "Condition": {
                 "StringNotEqualsIfExists": {
                     "s3express:AllAccessRestrictedToLocalZoneGroup": [
                         "local-zone-network-border-group-value"
                     ]
                 }   
            }
        }
    ]
}
```

**Example – Bucket-Richtlinie**    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {       
            "Sid": "Access-to-specific-LocalZones-only",
            "Principal": "*",
            "Action": "s3express:CreateSession",
            "Effect": "Deny",
            "Resource": "*",
            "Condition": {
                 "StringNotEqualsIfExists": {
                     "s3express:AllAccessRestrictedToLocalZoneGroup": [
                         "local-zone-network-border-group-value"
                     ]
                 }   
            }
        }
    ]
}
```