

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Verstehen und Verwalten von Amazon-S3-Speicherklassen
<a name="storage-class-intro"></a>

Jedem Objekt in Amazon S3 ist eine Speicherklasse zugeordnet. Standardmäßig werden Objekte in S3 in der Speicherklasse S3 Standard gespeichert. Amazon S3 bietet für die von Ihnen gespeicherten Objekte jedoch eine ganze Reihe anderer Speicherklassen an. Sie wählen eine Speicherklasse abhängig von Ihrem Anwendungsszenario und den Leistungsanforderungen für den Zugriff aus. Indem Sie eine für Ihren Anwendungsfall entwickelte Speicherklasse wählen, können Sie die Speicherkosten, Leistung und Verfügbarkeit Ihrer Objekte optimieren. Alle diese Speicherklassen bieten höchste Haltbarkeit.

Die folgenden Abschnitte enthalten Details zu den verschiedenen Speicherklassen und zum Festlegen einer Speicherklasse für Ihre Objekte.

**Topics**
+ [Speicherklassen für Objekte mit häufigem Zugriff](#sc-freq-data-access)
+ [Speicherklasse zur automatischen Optimierung von Daten mit sich ändernden oder unbekannten Zugriffsmustern](#sc-dynamic-data-access)
+ [Speicherklassen für Objekte mit seltenem Zugriff](#sc-infreq-data-access)
+ [Speicherklassen für Objekte, auf die selten zugegriffen wird](#sc-glacier)
+ [Speicherklasse für Amazon S3 on Outposts](#s3-outposts)
+ [Vergleich der Amazon-S3-Speicherklassen](#sc-compare)
+ [Einrichten der Speicherklasse eines Objekts](sc-howtoset.md)
+ [Amazon S3 analytics – Speicherklassen-Analyse](analytics-storage-class.md)
+ [Mit Amazon S3 Intelligent-Tiering Speicherkosten verwalten](intelligent-tiering.md)
+ [Grundlagen zu den S3-Glacier-Speicherklassen für die langfristige Datenspeicherung](glacier-storage-classes.md)
+ [Arbeiten mit archivierten Objekten](archived-objects.md)

## Speicherklassen für Objekte mit häufigem Zugriff
<a name="sc-freq-data-access"></a>

Für leistungssensible Anwendungsfälle (die eine Zugriffszeit von Millisekunden erfordern) und Daten mit häufigem Zugriff stellt Amazon S3 die folgenden Speicherklassen bereit:
+ **S3 Standard** (`STANDARD`) – Die Standardspeicherklasse. Wenn Sie beim Upload eines Objekts keine Speicherklasse angeben, weist Amazon S3 die Speicherklasse S3 Standard zu. Verwenden Sie [Amazon S3 analytics – Speicherklassen-Analyse](analytics-storage-class.md), um die Kosten zwischen S3 Standard und S3 Standard-IA zu optimieren.
+ **S3 Express One Zone** (`EXPRESS_ONEZONE`) – Amazon S3 Express One Zone ist eine hochleistungsfähige Amazon-S3-Speicherklasse mit einer einzelnen Zone, die entwickelt wurde, um einen konsistenten Datenzugriff im einstelligen Millisekundenbereich für Ihre Daten und für latenzempfindliche Anwendungen zu gewährleisten. S3 Express One Zone ist die derzeit verfügbare Cloud-Objektspeicherklasse mit der niedrigsten Latenz. Sie bietet eine bis zu zehnmal höhere Datenzugriffsgeschwindigkeit und um 50 % niedrigere Anforderungskosten als S3 Standard. Mit S3 Express One Zone werden Ihre Daten redundant auf mehreren Geräten innerhalb einer einzigen Availability Zone gespeichert. Weitere Informationen finden Sie unter [S3 Express One Zone](directory-bucket-high-performance.md#s3-express-one-zone).
+ **Reduced Redundancy **– (`REDUCED_REDUNDANCY`) Die Speicherklasse Reduced Redundancy Storage (RRS) ist für nicht kritische, reproduzierbare Daten vorgesehen, die mit einer Redundanz gespeichert werden können, die unter dem Wert der Speicherklasse S3 Standard liegt.
**Wichtig**  
Wir empfehlen, diese Speicherklasse nicht zu verwenden. Die Speicherklasse S3 Standard ist kostengünstiger. 

  In Bezug auf die Zuverlässigkeit gilt für RRS-Objekte ein jährlich zu erwartender Objektverlust von 0,01 %. Geht ein RRS-Objekt verloren, gibt Amazon S3 einen 405-Fehler bei Anforderungen für dieses Objekt zurück.

## Speicherklasse zur automatischen Optimierung von Daten mit sich ändernden oder unbekannten Zugriffsmustern
<a name="sc-dynamic-data-access"></a>

**S3 Intelligent-Tiering** (`INTELLIGENT_TIERING`) ist eine Amazon-S3-Speicherklasse zur Optimierung der Speicherkosten durch automatisches Verschieben von Daten auf die kostengünstigste Zugriffsebene ohne Leistungsauswirkung oder Betriebsaufwand. S3 Intelligent-Tiering ist die einzige Cloud-Speicherklasse, die automatische Kosteneinsparungen durch Verschieben von Daten auf granularer Objektebene zwischen den Zugriffsebenen ermöglicht, wenn sich die Zugriffsmuster ändern. S3 Intelligent-Tiering ist die ideale Speicherklasse, wenn Sie die Speicherkosten für Daten mit unbekannten oder sich ändernden Zugriffsmustern optimieren möchten. Bei S3 Intelligent-Tiering werden keine Abrufgebühren erhoben. 

Gegen eine geringe monatliche Gebühr für Objektüberwachung und Automatisierung überwacht S3 Intelligent-Tiering die Zugriffsmuster und verschiebt die Objekte, auf die nicht zugegriffen wurde, automatisch in kostengünstigere Zugriffsebenen. S3 Intelligent-Tiering ermöglicht automatische Speicherkosteneinsparungen in drei Zugriffsebenen mit niedriger Latenz und hohem Durchsatz. Für Daten, auf die asynchron zugegriffen werden kann, können Sie innerhalb der S3 Intelligent-Tiering-Speicherklasse die automatische Archivfunktionen aktivieren. S3 Intelligent-Tiering ist auf 99,9 % Verfügbarkeit und 99,999999999 % Haltbarkeit ausgelegt.

S3 Intelligent-Tiering speichert Objekte automatisch in drei Zugriffsebenen: 
+ **Frequent Access** (Häufige Zugriffe) – In S3 Intelligent-Tiering hochgeladene oder übertragene Objekte werden automatisch in der Ebene Frequent Access gespeichert.
+ **Infrequent Access** (Seltene Zugriffe) – S3 Intelligent-Tiering verschiebt Objekte, auf die 30 aufeinanderfolgende Tage lang nicht zugegriffen wurde, in die Ebene Infrequent Access.
+ **Archive Instant Access** (Archiv für sofortigen Zugriff) – Mit S3 Intelligent-Tiering werden alle vorhandenen Objekte, auf die 90 aufeinanderfolgende Tage lang nicht zugegriffen wurde, automatisch in die Ebene Archive Instant Access verschoben. 

Zusätzlich zu diesen drei Stufen bietet S3 Intelligent-Tiering zwei optionale Archivzugriffsebenen: 
+ **Archive Access** (Archivzugriff) – S3 Intelligent-Tiering bietet Ihnen die Möglichkeit, die Archivzugriffsebene für Daten zu aktivieren, auf die asynchron zugegriffen werden kann. Nach der Aktivierung archiviert die Ebene Archive Access automatisch Objekte, auf die mindestens 90 aufeinanderfolgende Tage lang nicht zugegriffen wurde.
+ **Deep Archive Access** (tiefer Archivzugriff) – S3 Intelligent-Tiering bietet Ihnen die Möglichkeit, die Stufe Deep Archive Access für Daten zu aktivieren, auf die asynchron zugegriffen werden kann. Nach der Aktivierung archiviert die Ebene Deep Archive Access automatisch Objekte, auf die mindestens 180 aufeinanderfolgende Tage lang nicht zugegriffen wurde.

**Anmerkung**  
Aktivieren Sie die Stufe Archive Access nur für 90 Tage, wenn Sie die Stufe Instant Access Archiv umgehen möchten. Die Stufe Archive Access bietet etwas kostengünstigeren Speicher mit minute-to-hour Abrufzeiten. Die Stufe Archive Instant Access bietet Millisekunden-Zugriff und hohe Durchsatzleistung.
Aktivieren Sie die Ebenen Archivzugriff und Deep Archive Access nur, wenn Ihre Anwendung asynchron auf Ihre Objekte zugreifen kann. Wenn das Objekt, das Sie abrufen, in den Stufen Archive Access oder Deep Archive Access gespeichert ist, stellen Sie das Objekt zunächst mithilfe von `RestoreObject` wieder her.

Sie können [neu erstellte Daten in S3 Intelligent-Tiering verschieben](https://docs.aws.amazon.com/AmazonS3/latest/userguide/using-intelligent-tiering.html#moving-data-to-int-tiering) und dies als Standardspeicherklasse festlegen. Sie können auch wählen, ob Sie eine oder beide Archivzugriffsebenen aktivieren möchten, indem Sie den [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketIntelligentTieringConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketIntelligentTieringConfiguration.html)API-Vorgang AWS CLI, die oder die Amazon S3 S3-Konsole verwenden. Weitere Informationen zur Verwendung von S3 Intelligent-Tiering und zur Aktivierung der Archivzugriffsebenen finden Sie unter [Verwenden von S3 Intelligent-Tiering](using-intelligent-tiering.md).

Um auf Objekte in den Stufen „Archive Access“ oder „Deep Archive Access“ zugreifen zu können, müssen Sie sie zunächst wiederherstellen. Weitere Informationen finden Sie unter [Wiederherstellen von Objekten aus den Stufen S3 Intelligent-Tiering Archive Access und Deep Archive Access](intelligent-tiering-managing.md#restore-data-from-int-tier-archive).

**Anmerkung**  
Wenn ein Objekt kleiner als 128 KB ist, wird es nicht überwacht und ist nicht für das Auto-Tiering geeignet. Kleinere Objekte werden immer in der Stufe für häufige Zugriffe gespeichert. Weitere Informationen zu S3 Intelligent-Tiering finden Sie unter [S3-Intelligent-Tiering-Zugriffsebenen](intelligent-tiering-overview.md#intel-tiering-tier-definition).

## Speicherklassen für Objekte mit seltenem Zugriff
<a name="sc-infreq-data-access"></a>

Die Speicherklassen **S3 Standard-IA** und **S3 One Zone-IA** sind für langlebige Daten, auf die selten zugegriffen wird, konzipiert. (IA steht für *Infrequent Access (seltener Zugriff)*.) S3 Standard-IA- und S3 One Zone-IA-Objekte sind für den Zugriff in Millisekunden verfügbar (ähnlich wie die Speicherklasse S3 Standard). Da Amazon S3 eine Abrufgebühr für diese Objekte erhebt, sind sie am besten für Daten mit seltenem Zugriff geeignet. Informationen zu den Preisen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).

Beispielsweise können Sie die Speicherklassen S3 Standard-IA und S3 One Zone-IA für Folgendes auswählen:
+ Zum Speichern von Sicherungen. 
+ Für ältere Daten, auf die selten zugegriffen wird, für die aber dennoch ein Zugriff in Millisekunden erforderlich ist. Beim Upload von Daten können Sie beispielsweise die S3 Standard-Speicherklasse auswählen und dann Amazon S3 mithilfe der Lebenszyklus-Konfiguration anweisen, die Objekte in die Klasse S3 Standard-IA oder S3 One Zone-IA zu überführen.

  Weitere Informationen zur Lebenszyklusverwaltung finden Sie unter [Verwalten des Lebenszyklus von Objekten](object-lifecycle-mgmt.md).

**Anmerkung**  
Die Speicherklassen S3 Standard-IA und S3 One Zone-IA sind für Objekte mit mehr als 128 KB geeignet, die Sie für mindestens 30 Tage aufbewahren wollen. Ist ein Objekt kleiner als 128 KB, fallen Amazon-S3-Gebühren für 128 KB an. Wenn Sie ein Objekt vor dem Ablauf der 30-tägigen Mindestspeicherdauer löschen, werden Ihnen 30 Tage berechnet. Für Objekte, die vor Ablauf der 30-Tage-Frist gelöscht, überschrieben oder in eine andere Speicherklasse verschoben werden, wird die übliche nutzungsabhängige Gebühr sowie eine anteilige Gebühr für die restlichen Tage des 30-Tage-Minimums in Rechnung gestellt. Informationen zu den Preisen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).

Diese Speicherklassen weisen folgende Unterschiede auf:
+ **S3 Standard-IA** (`STANDARD_IA`) – Amazon S3 speichert die Objektdaten redundant in mehreren geografisch getrennten Availability Zones (ähnlich wie die Speicherklasse S3 Standard). S3 Standard-IA-Objekte sind von einem Availability Zone-Ausfall nicht betroffen. Diese Speicherklasse bietet mehr Verfügbarkeit und Stabilität als die Klasse S3 One Zone-IA. Verwenden Sie [Amazon S3 analytics – Speicherklassen-Analyse](analytics-storage-class.md), um die Kosten zwischen S3 Standard und S3 Standard-IA zu optimieren.
+ **S3 One Zone-IA** (`ONEZONE_IA`) – Amazon S3 speichert die Objektdaten nur in einer Availability Zone, daher ist diese Variante kostengünstiger als S3 Standard-IA. Allerdings sind die Daten bei einem physischen Ausfall der Availability Zone (aufgrund von Katastrophen wie z. B. Erdbeben und Überflutungen) nicht sicher. Die Speicherklasse S3 One Zone-IA bietet dieselbe Zuverlässigkeit wie S3 Standard-IA, ist jedoch weniger verfügbar und weniger ausfallsicher. Einen Vergleich der Zuverlässigkeit und Verfügbarkeit von Speicherklassen finden Sie unter [Vergleich der Amazon-S3-Speicherklassen](#sc-compare) am Ende dieses Abschnitts. Informationen zu den Preisen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/). Für Anwendungsfälle von Datenresidenz und Isolation können Sie Verzeichnis-Buckets in AWS Local Zones erstellen und die Speicherklassen S3 Express One Zone (`EXPRESS_ONEZONE`) und S3 One Zone-IA (`ONEZONE_IA`) verwenden. Weitere Information zu Verzeichnis-Buckets in Local Zones finden Sie unter [Workloads mit Datenresidenz](directory-bucket-data-residency.md). 

Wir empfehlen Folgendes:
+ **S3 Standard-IA** (`STANDARD_IA`) – Verwenden Sie diese Klasse für die primäre (oder einzige) Kopie der Daten, die nicht neu erstellt werden können. 
+ **S3 One Zone-IA** (`ONEZONE_IA`) – Verwenden Sie diese Klasse, wenn Sie die Daten im Falle eines Availability-Zone-Ausfalls neu erstellen können, für Objekt-Replicas bei regionsübergreifender Replikation (Cross-Region Replication, CRR) in S3. Für Datenresidenz und Isolierung können Sie außerdem Verzeichnis-Buckets in AWS Local Zones erstellen und die Speicherklasse S3 One Zone-IA verwenden.

## Speicherklassen für Objekte, auf die selten zugegriffen wird
<a name="sc-glacier"></a>

Die Speicherklassen **S3 Glacier Instant Retrieval** (`GLACIER_IR`) und **S3 Glacier Flexible Retrieval** (`GLACIER`) und **S3 Glacier Deep Archive** (`DEEP_ARCHIVE`) dienen zur kostengünstigen, langfristigen Speicherung und Archivierung von Daten. Für diese Speicherklassen gelten eine Mindestspeicherdauer und Abrufgebühren, wodurch sie für Daten, auf die selten zugegriffen wird, am effektivsten sind. Weitere Informationen über die Speicherklassen S3 Glacier finden Sie unter [Grundlagen zu den S3-Glacier-Speicherklassen für die langfristige Datenspeicherung](glacier-storage-classes.md).

Amazon S3 bietet die folgenden S3-Glacier-Speicherklassen:
+ **S3 Glacier Instant Retrieval** (`GLACIER_IR`) – Verwenden Sie diese Klasse für langfristige Daten, auf die nur selten zugegriffen wird und die in Millisekunden abrufbar sein müssen. Daten in dieser Speicherklasse sind für Echtzeitzugriffe verfügbar.
+ **S3 Glacier Flexible Retrieval** (`GLACIER`) – Diese Klasse eignet sich für Archive, bei denen Teile der Daten möglicherweise innerhalb von wenigen Minuten abgerufen werden müssen. Daten in dieser Speicherklasse werden archiviert und sind nicht für Echtzeitzugriffe verfügbar.
+ **S3 Glacier Deep Archive** (`DEEP_ARCHIVE`) – Verwenden Sie diese Speicherklasse zur Archivierung von Daten, auf die nur selten zugegriffen werden muss. Daten in dieser Speicherklasse werden archiviert und sind nicht für Echtzeitzugriffe verfügbar.

### Abrufen archivierter Objekte
<a name="sc-glacier-restore"></a>

Sie können die Speicherklasse eines Objekts auf S3 Glacier Flexible Retrieval (`GLACIER`) oder S3 Glacier Deep Archive (`DEEP_ARCHIVE`) setzen, genau so wie für andere Speicherklassen, wie im Abschnitt [Einrichten der Speicherklasse eines Objekts](sc-howtoset.md)beschrieben. Objekte in S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive sind archiviert und nicht für Echtzeitzugriffe verfügbar. Weitere Informationen finden Sie unter [Grundlagen zur Archivspeicherung in S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive](archival-storage.md).

**Anmerkung**  
Wenn Sie S3-Glacier-Speicherklassen verwenden, bleibt Ihr Objekt in Amazon S3. Sie können nicht direkt über den separaten Amazon-Glacier-Service darauf zugreifen. Weitere Informationen zu Amazon Glacier als Service finden Sie im [Entwicklerhandbuch zu Amazon Glacier](https://docs.aws.amazon.com/amazonglacier/latest/dev/).

## Speicherklasse für Amazon S3 on Outposts
<a name="s3-outposts"></a>

Mit Amazon S3 on Outposts können Sie S3-Buckets auf Ihren AWS Outposts Ressourcen erstellen und Objekte vor Ort für Anwendungen speichern und abrufen, die lokalen Datenzugriff, lokale Datenverarbeitung und Datenresidenz erfordern. Sie können dieselben API-Operationen und -Funktionen AWS Outposts wie auf Amazon S3 verwenden, einschließlich Zugriffsrichtlinien, Verschlüsselung und Tagging. Sie können S3 auf Outposts über die AWS-Managementkonsole, AWS CLI AWS SDKs, oder REST-API verwenden.

S3 on Outposts bietet eine neue Speicherklasse: S3 Outposts (`OUTPOSTS`). Die Speicherklasse S3 Outposts ist nur für Objekte verfügbar, die in Buckets in Outposts gespeichert sind. Wenn Sie versuchen, diese Speicherklasse mit einem S3-Bucket in einem zu verwenden AWS-Region, tritt ein `InvalidStorageClass` Fehler auf. Sie erhalten dieselbe Fehlermeldung, wenn Sie versuchen, andere S3-Speicherklassen mit Objekten zu verwenden, die in S3-on-Outposts-Buckets gespeichert sind. 

Objekte, die in der Speicherklasse S3 Outposts (`OUTPOSTS`) gespeichert sind, werden immer mit serverseitiger Verschlüsselung mit von Amazon S3 verwalteten Verschlüsselungsschlüsseln (SSE-S3) verschlüsselt. Weitere Informationen finden Sie unter [Verwenden serverseitiger Verschlüsselung mit von Amazon S3 verwalteten Schlüsseln (SSE-S3)](UsingServerSideEncryption.md). 

Sie können auch explizit auswählen, dass Objekte, die in der Speicherklasse S3 Outposts gespeichert sind, mit serverseitiger Verschlüsselung mit vom Kunden bereitgestellten Verschlüsselungsschlüsseln (SSE-C) verschlüsselt werden. Weitere Informationen finden Sie unter [Verwenden von serverseitiger Verschlüsselung mit vom Kunden bereitgestellten Schlüsseln (SSE-C)](ServerSideEncryptionCustomerKeys.md). 

**Anmerkung**  
S3 on Outposts unterstützt keine serverseitige Verschlüsselung mit AWS Key Management Service (AWS KMS) -Schlüsseln (SSE-KMS).

Weitere Informationen zu S3 on Outposts finden Sie unter [Was ist S3 on Outposts?](https://docs.aws.amazon.com/AmazonS3/latest/s3-outposts/S3onOutposts.html) im *Benutzerhandbuch für Amazon S3 on Outposts*.

## Vergleich der Amazon-S3-Speicherklassen
<a name="sc-compare"></a>

In der folgenden Tabelle werden die Speicherklassen verglichen, einschließlich ihrer Verfügbarkeit, Haltbarkeit, Mindestspeicherdauer und anderer Faktoren.


****  

| Speicherklasse | Konzipiert für | Zuverlässigkeit (Auslegung) | Verfügbarkeit (Auslegung) | Availability Zones | Min. Dauer der Speicherung | Min. kostenpflichtige Objektgröße | Weitere Überlegungen  | 
| --- | --- | --- | --- | --- | --- | --- | --- | 
|  S3 Standard (`STANDARD`)  |  Häufig zugegriffene Daten (mehr als einmal im Monat) mit Millisekunden-Zugriff  |  99,999999999 %   |  99,99 %  |  >= 3  |  Keine  |  Keine  |  Keine  | 
|  S3 Standard-IA () `STANDARD_IA`  |  Langlebige, selten aufgerufene Daten (einmal im Monat) mit Millisekunden-Zugriff  |  99,999999999 %   |  99,9 %  |  >= 3  |  30 Tage  |  128 KB  |  Es fallen Abrufgebühren pro GB an.   | 
|  S3 Intelligent-Tiering (`INTELLIGENT_TIERING`)  |  Daten mit unbekannten, sich ändernden oder unvorhersehbaren Zugriffsmustern  |  99,999999999 %  |  99,9 %  |  >= 3  |  Keine  |  Keine  |  Es fallen Überwachungs- und Automatisierungsgebühren pro Objekt an. Keine Abrufgebühren. Objekte, die kleiner als 128 KB sind, werden nicht überwacht und immer in der Stufe für häufige Zugriffe gespeichert. Weitere Informationen finden Sie unter [So funktioniert S3 Intelligent-Tiering](intelligent-tiering-overview.md).  | 
|  S3 Eine Zone-IA () `ONEZONE_IA`  |  Wiederherstellbare, selten aufgerufene Daten (einmal im Monat) mit Millisekunden-Zugriff  |  99,999999999 %   |  99,5 %  |  1  |  30 Tage  |  128 KB  |  Es fallen Abrufgebühren pro GB an. Keine Ausfallsicherheit bei einem Availability Zone-Ausfall.  | 
|  S3 Express One Zone (`EXPRESS_ONEZONE`)  |  Datenzugriff im einstelligen Millisekundenbereich für latenzempfindliche Anwendungen innerhalb einer einzigen Availability Zone AWS   |  99,999999999 %   |  99,95%  |  1  |  Keine  |  Keine  |  S3 Express One Zone (`EXPRESS_ONEZONE`) -Objekte werden in einer einzigen AWS Availability Zone gespeichert, die Sie auswählen.   | 
|  S3 Glacier Instant Retrieval (`GLACIER_IR`)  | Langlebige Archivdaten, auf die einmal im Quartal mit Millisekunden-Zugriff zugegriffen wird | 99,999999999 %  |  99,9 %  |  >= 3  |  90 Tage  |  128 KB  | Es fallen Abrufgebühren pro GB an. | 
|  S3 Glacier Flexible Retrieval (`GLACIER`)  | Langlebige Archivdaten, auf die einmal im Jahr zugegriffen wird, mit Abrufzeiten von Minuten bis Stunden | 99,999999999 %  |  99,99% (nach der Wiederherstellung von Objekten)  |  >= 3  |  90 Tage  |  N/A\$1  | Es fallen Abrufgebühren pro GB an. Sie müssen archivierte Objekte zuerst wiederherstellen, bevor Sie darauf zugreifen können. Weitere Informationen finden Sie unter [Wiederherstellen eines archivierten Objekts](restoring-objects.md). | 
|  S3 Glacier Deep Archive (`DEEP_ARCHIVE`)  | Langlebige Archivdaten, auf die weniger als einmal pro Jahr zugegriffen wird, mit Abrufzeiten von Stunden | 99,999999999 %  |  99,99% (nach der Wiederherstellung von Objekten)  |  >= 3  |  180 Tage  |  N/A\$1\$1  | Es fallen Abrufgebühren pro GB an. Sie müssen archivierte Objekte zuerst wiederherstellen, bevor Sie darauf zugreifen können. Weitere Informationen finden Sie unter [Wiederherstellen eines archivierten Objekts](restoring-objects.md). | 
|  Speicher mit reduzierter Redundanz (`REDUCED_REDUNDANCY`) Nicht empfohlen  |  Nicht kritische, häufig aufgerufene Daten mit Millisekunden-Zugriff  |  99,99 %   |  99,99 %  |  >= 3  |  Keine  |  Keine  |  Keine  | 

\$1 S3 Glacier Flexible Retrieval erfordert 40 KB zusätzliche Metadaten für jedes archivierte Objekt. Dazu gehören 32 KB Metadaten, die mit dem Tarif von S3 Glacier Flexible Retrieval abgerechnet werden (erforderlich, um Ihre Daten zu identifizieren und abzurufen), und weitere 8 KB Daten, die zum S3-Standardtarif berechnet werden. Der S3-Standardtarif ist erforderlich, um den benutzerdefinierten Namen und die Metadaten für Objekte zu verwalten, die in S3 Glacier Flexible Retrieval archiviert wurden. Weitere Informationen zu Speicherklassen finden Sie unter [Amazon-S3-Speicherklassen](https://aws.amazon.com/s3/storage-classes/).

\$1\$1 S3 Glacier Deep Archive erfordert 40 KB zusätzliche Metadaten für jedes archivierte Objekt. Dazu gehören 32 KB Metadaten, die mit dem Tarif von S3 Glacier Deep Archive abgerechnet werden (erforderlich, um Ihre Daten zu identifizieren und abzurufen), und weitere 8 KB Daten, die zum S3-Standardtarif berechnet werden. Der S3-Standardtarif ist erforderlich, um den benutzerdefinierten Namen und die Metadaten für Objekte zu verwalten, die in Amazon S3 Glacier Deep Archive archiviert wurden. Weitere Informationen zu Speicherklassen finden Sie unter [Amazon-S3-Speicherklassen](https://aws.amazon.com/s3/storage-classes/).

Beachten Sie, dass alle Speicherklassen außer S3 One Zone-IA (`ONEZONE_IA`) und S3 Express One Zone (`EXPRESS_ONEZONE`) gegenüber dem physischen Verlust einer Availability Zone aufgrund von Katastrophen ausfallsicher sind. Berücksichtigen Sie neben den Leistungsanforderungen Ihres Anwendungsszenarios auch die Kosten. Preisinformationen für Speicherklassen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).

# Einrichten der Speicherklasse eines Objekts
<a name="sc-howtoset"></a>

Beim Hochladen eines Objekts können Sie eine Speicherklasse dafür festlegen. Legen Sie keine fest, verwendet Amazon S3 die Speicherklasse Amazon S3 Standard für Objekte in Allzweck-Buckets. Sie können auch die Speicherklasse eines Objekts, das bereits in einem Amazon S3 S3-Allzweck-Bucket gespeichert ist, mithilfe der Amazon S3 S3-Konsole oder der AWS Command Line Interface (AWS CLI) in eine andere Speicherklasse ändern. AWS SDKs Alle diese Ansätze verwenden API-Operationen von Amazon S3, um Anforderungen an Amazon S3 zu senden.

**Anmerkung**  
Sie können die Speicherklasse von Objekten, die in Verzeichnis-Buckets gespeichert sind, nicht ändern.

Sie können Amazon S3 anweisen, die Speicherklasse von Objekten automatisch zu ändern, indem Sie einem Bucket eine S3-Lebenszykluskonfiguration hinzufügen. Weitere Informationen finden Sie unter [Verwalten des Lebenszyklus von Objekten](object-lifecycle-mgmt.md).

Bei der Einrichtung der S3-Replikationskonfiguration können Sie eine beliebige andere Speicherklasse für die replizierten Objekte einrichten. Sie können jedoch nicht in den Speicherklassen S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive gespeicherte Objekte replizieren. Weitere Informationen finden Sie unter [Elemente der Replikationskonfigurationsdatei](replication-add-config.md).

Wenn Sie die Speicherklasse programmgesteuert festlegen, geben Sie den Wert der Speicherklasse an. Im Folgenden finden Sie eine Liste der Konsolennamen für Speicherklassen mit ihren entsprechenden API-Werten:
+ **Reduced Redundancy Storage** – `REDUCED_REDUNDANCY`
+ **S3 Express One Zone** – `EXPRESS_ONEZONE`
+ **S3 Glacier Deep Archive** – `DEEP_ARCHIVE`
+ **S3 Glacier Flexible Retrieval** – `GLACIER`
+ **S3 Glacier Instant Retrieval** – `GLACIER_IR`
+ **S3 Intelligent-Tiering** – `INTELLIGENT_TIERING`
+ **S3 One Zone-IA** – `ONEZONE_IA`
+ **S3 Standard** – `STANDARD`
+ **S3 Standard-IA** – `STANDARD_IA`

## Einrichten der Speicherklasse für ein neues Objekt
<a name="setting-storage-class"></a>

Verwenden Sie die folgenden Methoden, um die Speicherklasse beim Hochladen eines Objekts festzulegen.

### Verwenden der S3-Konsole
<a name="setting-storage-class-console"></a>

So legen Sie beim Hochladen eines neuen Objekts die Speicherklasse in der Konsole fest:

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter: [ https://console.aws.amazon.com/s3/](https://console.aws.amazon.com//s3).

1. Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus.

1. Wählen Sie in der Liste Buckets den Namen des Buckets aus, in den Ihre Ordner oder Dateien hochgeladen werden sollen.

1. Klicken Sie auf **Upload**.

1. Wählen Sie im Fenster **Hochladen** die Option **Eigenschaften** aus.

1. Wählen Sie im Abschnitt „Storage class“ (Speicherklasse) die Speicherklasse für die Dateien aus, die Sie hochladen.

1. (Optional) Konfigurieren Sie zusätzliche Eigenschaften für die Dateien, die Sie hochladen. Weitere Informationen finden Sie unter [Objekte hochladen](upload-objects.md).

1. Führen Sie im Fenster Upload einen der folgenden Schritte aus:
   + Ziehen Sie Dateien und Ordner in das Fenster „Upload“ (Hochladen). 
   + Wählen Sie **Datei hinzufügen** oder **Ordner hinzufügen** aus, wählen Sie die hochzuladenden Dateien oder Ordner und anschließend **Öffnen** aus.

1. Wählen Sie unten auf der Seite **Upload** (Hochladen) aus.

### Verwenden der REST-API
<a name="setting-storage-class-rest"></a>

Sie können die Speicherklasse für ein Objekt angeben, wenn Sie es mit den API-Operationen `PutObject`, `POST Object` und `CreateMultipartUpload` erstellen. Fügen Sie dabei den Anforderungsheader `x-amz-storage-class` hinzu. Wenn Sie diesen Header weglassen, verwendet Amazon S3 die Standardspeicherklasse S3 Standard (`STANDARD`).

Diese Beispielanforderung verwendet den Befehl `[PutObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html)`, um die Speicherklasse für ein neues Objekt auf S3 Intelligent-Tiering festzulegen:

```
PUT /my-image.jpg HTTP/1.1
Host: amzn-s3-demo-bucket1.s3.Region.amazonaws.com 
Date: Wed, 12 Oct 2009 17:50:00 GMT 
Authorization: authorization string 
Content-Type: image/jpeg 
Content-Length: 11434 
Expect: 100-continue 
x-amz-storage-class: INTELLIGENT_TIERING
```

### Mit dem AWS CLI
<a name="setting-storage-class-rest"></a>

In diesem Beispiel wird der `put-object` Befehl verwendet, *my\$1images.tar.bz2* um den Wert **amzn-s3-demo-bucket1** in die `GLACIER ` Speicherklasse hochzuladen:

```
aws s3api put-object --bucket amzn-s3-demo-bucket1 --key dir-1/my_images.tar.bz2 --storage-class GLACIER --body my_images.tar.bz2
```

Wenn die Objektgröße mehr als 5 GB beträgt, verwenden Sie den folgenden Befehl, um die Speicherklasse festzulegen:

```
aws s3 cp large_test_file s3://amzn-s3-demo-bucket1 --storage-class GLACIER
```

## Ändern der Speicherklasse für ein vorhandenes Objekt
<a name="changing-storage-class"></a>

Verwenden Sie die folgenden Methoden, um die Speicherklasse beim Hochladen eines Objekts festzulegen.

### Verwenden der S3-Konsole
<a name="changing-storage-class-console"></a>

Sie können die Speicherklasse eines Objekts mithilfe der Amazon-S3-Konsole ändern, wenn die Objektgröße weniger als 5 GB beträgt. Bei größeren Objekten empfehlen wir, eine S3-Lebenszykluskonfiguration hinzuzufügen, um die Speicherklasse des Objekts zu ändern.

So ändern Sie die Speicherklasse eines Objekts in der Konsole:

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus.

1.  Wählen Sie in der Liste der Buckets den Namen des Buckets aus, der die Objekte enthält, die Sie ändern möchten.

1. Markieren Sie das Kontrollkästchen links neben den Namen der Objekte, die Sie ändern möchten.

1. Wählen Sie im Menü **Aktionen** aus der angezeigten Liste der Optionen **Speicherklasse bearbeiten** aus.

1. Wählen Sie eine der für Ihr Objekt verfügbaren Speicherklassen aus.

1. Wählen Sie unter **Zusätzliche Kopiereinstellungen** aus, ob Sie **Quelleinstellungen kopieren**, **Keine Einstellungen angeben** oder **Einstellungen angeben** möchten. **Quelleinstellungen kopieren** ist die Standardoption. Wenn Sie das Objekt nur ohne die Quelleinstellungsattribute kopieren möchten, wählen Sie **Keine Einstellungen angeben** aus. Wählen **Sie Einstellungen angeben**, um Einstellungen für Speicherklasse, Objekt-Tags ACLs, Metadaten, serverseitige Verschlüsselung und zusätzliche Prüfsummen anzugeben.

1. Wählen Sie unten rechts **Änderungen speichern** aus. Amazon S3 speichert Ihre Änderungen.

### Verwenden der REST-API
<a name="changing-storage-class-rest"></a>

Verwenden Sie die folgenden Methoden, um die Speicherklasse eines vorhandenen Objekts zu ändern.

Diese Beispielanforderung verwendet den Befehl `[PutObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html)`, um die Speicherklasse für ein existierendes Objekt auf S3 Intelligent-Tiering festzulegen:

```
PUT /my-image.jpg HTTP/1.1
Host: amzn-s3-demo-bucket1.s3.Region.amazonaws.com 
Date: Wed, 12 Oct 2009 17:50:00 GMT 
Authorization: authorization string 
Content-Type: image/jpeg 
Content-Length: 11434 
Expect: 100-continue 
x-amz-storage-class: INTELLIGENT_TIERING
```

### Verwenden Sie den AWS CLI
<a name="setting-storage-class-rest"></a>

In diesem Beispiel wird der `cp`-Befehl verwendet, um die Speicherklasse eines vorhandenen Objekts von der aktuellen Speicherklasse in die Speicherklasse zu `DEEP_ARCHIVE ` ändern:

```
aws s3 cp object_S3_URI object_S3_URI --storage-class DEEP_ARCHIVE
```

## Einschränken von Zugriffsrichtlinienberechtigungen auf eine bestimmte Speicherklasse
<a name="restricting-storage-class"></a>

Wenn Sie Zugriffsrichtlinienberechtigungen für Amazon-S3-Vorgänge erteilen, können Sie mit dem Bedingungsschlüssel `s3:x-amz-storage-class` einschränken, welche Speicherklasse beim Speichern hochgeladener Objekte verwendet werden soll. Wenn Sie beispielsweise die Berechtigung `s3:PutObject` erteilen, können Sie das Hochladen von Objekten auf eine bestimmte Speicherklasse einschränken. Eine Beispielrichtlinie finden Sie unter [Beispiel: Beschränken von Objekt-Uploads auf Objekte mit einer bestimmten Speicherklasse](security_iam_service-with-iam.md#example-storage-class-condition-key). 

Weitere Informationen zur Verwendung von Bedingungen in Richtlinien und die vollständige Liste der Bedingungsschlüssel in Amazon S3 finden Sie in den folgenden Themen:
+ [ Aktionen, Ressourcen und Bedingungsschlüssel für Amazon S3](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazons3.html) in der *Referenz zur Serviceautorisierung*.

  Weitere Informationen zu den Berechtigungen für S3-API-Operationen nach S3-Ressourcentypen finden Sie unter [Erforderliche Berechtigungen für Amazon-S3-API-Operationen](using-with-s3-policy-actions.md).
+ [Beispiele für Bucket-Richtlinien mit Bedingungsschlüsseln](amazon-s3-policy-keys.md)

# Amazon S3 analytics – Speicherklassen-Analyse
<a name="analytics-storage-class"></a>

Mit der *Speicherklassen-Analyse* von Amazon S3 Analytics können Sie Speicherzugriffsmuster analysieren, anhand derer Sie entscheiden können, ob Sie die richtigen Daten in die richtige Speicherklasse einordnen. Diese neue analytische Funktion von Amazon S3 beobachtet Datenzugriffsmuster, anhand derer Sie entscheiden können, wann Sie STANDARD-Speicher mit weniger häufigem Zugriff in die Speicherklasse STANDARD\$1IA (IA für „infrequent access“ (seltener Zugriff)) überführen sollen. Weitere Informationen über Speicherklassen finden Sie unter [Verstehen und Verwalten von Amazon-S3-Speicherklassen](storage-class-intro.md). 

Wenn die Speicherklassen-Analyse die seltenen Zugriffsmuster für eine gefilterte Datenmenge im Laufe der Zeit beobachtet, können Sie Ihre Lebenszykluskonfigurationen unter Verwendung der Analyseergebnisse verbessern. Sie können die Speicherklassen-Analyse so konfigurieren, dass alle Objekte in einem Bucket analysiert werden. Sie können aber auch Filter konfigurieren, um Objekte nach einem gemeinsamen Präfix zu gruppieren (d. h. für Objekte, deren Namen mit einer gemeinsamen Zeichenkette beginnen), nach Objekt-Markierungen oder sowohl nach Präfix und Markierungen. Wahrscheinlich werden Sie feststellen, dass die Filterung nach Objektgruppen die beste Methode darstellt, von der Speicherklassen-Analyse zu profitieren. 

**Wichtig**  
Die Speicherklassenanalyse stellt nur Empfehlungen für die Klassen Standard bis Standard-IA bereit.

Sie können mehrere Speicherklassen-Analysefilter pro Bucket einrichten, bis zu 1000, und erhalten für jeden Filter eine separate Analyse. Durch Verwendung mehrerer Filterkonfigurationen können Sie spezifische Objektgruppen analysieren, um Ihre Lebenszykluskonfigurationen zu verbessern, die Objekte in STANDARD\$1IA überführen. 

Die Speicherklassen-Analyse bietet Schaubilder zur Speichernutzung in der Amazon-S3-Konsole, die täglich aktualisiert werden. Sie können diese täglichen Nutzungsdaten auch in einen S3-Bucket exportieren und sie in einer Tabellenkalkulationsanwendung oder mit Business Intelligence-Tools wie Quick anzeigen.

Mit der Speicherklassen-Analyse sind Kosten verbunden. Preisinformationen finden Sie unter *Verwaltung und Insights* [Amazon-S3-Preise](https://aws.amazon.com/s3/pricing/).

**Topics**
+ [Wie richte ich die Speicherklassen-Analyse ein?](#analytics-storage-class-how-to-set-up)
+ [Wie verwende ich die Speicherklassen-Analyse?](#analytics-storage-class-contents)
+ [Wie kann ich die Daten der Speicherklassen-Analyse exportieren?](#analytics-storage-class-export-to-file)
+ [Konfigurieren der Speicherklassen-Analyse](configure-analytics-storage-class.md)

## Wie richte ich die Speicherklassen-Analyse ein?
<a name="analytics-storage-class-how-to-set-up"></a>

Sie können die Speicherklassen-Analyse Einrichten, indem Sie konfigurieren, welche Objektdaten analysiert werden sollen. Sie können die Speicherklassenanalyse für die folgenden Aufgaben konfigurieren:
+ **Analyse des gesamten Inhalts eines Buckets.**

  Sie erhalten eine Analyse für alle Objekte im Bucket.
+ **Analyse von nach Präfix und Tags gruppierten Objekten.**

  Sie können Filter konfigurieren, um Objekte nach einem gemeinsamen Präfix oder nach Objekt-Markierungen zu gruppieren, oder nach einer Kombination aus Präfix und Markierungen. Sie erhalten für jeden konfigurierten Filter eine separate Analyse. Sie können maximal 1000 Filterkonfigurationen pro Bucket verwenden. 
+ **Export von Analysedaten.** 

  Wenn Sie die Speicherklassen-Analyse für einen Bucket oder Filter konfigurieren, können Sie die Analysedaten täglich in eine Datei exportieren lassen. Die Analyse für den Tag wird der Datei hinzugefügt, um ein Verlaufsanalyseprotokoll für den konfigurierten Filter zu erstellen. Die Datei wird täglich an dem Ziel Ihrer Wahl aktualisiert. Wenn Sie Dateien zum Export auswählen, geben Sie einen Ziel-Bucket und ein optionales Ziel-Präfix an, wohin die Datei geschrieben werden soll.

Sie können die Amazon S3 S3-Konsole, die REST-API oder oder verwenden, AWS SDKs um die AWS CLI Speicherklassenanalyse zu konfigurieren.
+ Informationen zum Konfigurieren der Analyse von Speicherklassen in der Amazon-S3-Konsole finden Sie unter [Konfigurieren der Speicherklassen-Analyse](configure-analytics-storage-class.md).
+ Um die Amazon S3 S3-API zu verwenden, verwenden Sie die [PutBucketAnalyticsConfiguration](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTAnalyticsConfig.html)REST-API oder eine gleichwertige API aus AWS CLI oder AWS SDKs. 

## Wie verwende ich die Speicherklassen-Analyse?
<a name="analytics-storage-class-contents"></a>

Sie verwenden die Speicherklassen-Analyse, um Datenzugriffsmuster im Laufe der Zeit zu analysieren, um Informationen zu erhalten, die Ihnen beim Lebenszyklusmanagement Ihres STANDARD\$1IA-Speichers helfen. Nachdem Sie einen Filter konfiguriert haben, sehen Sie die Datenanalyse basierend auf dem Filter in der Amazon-S3-Konsole über 24 bis 48 Stunden. Die Speicherklassen-Analyse beobachtet jedoch die Zugriffsmuster einer gefilterten Datenmenge für 30 Tage oder Länger, um Informationen für eine Analyse zu sammeln, bevor ein Ergebnis zurückgegeben wird. Die Analyse wird nach dem ersten Ergebnis fortgesetzt und aktualisiert das Ergebnis, wenn sich die Zugriffsmuster ändern.

Wenn Sie einen Filter zum ersten Mal konfigurieren, dauert es möglicherweise einen Moment, um die Daten der Amazon-S3-Konsole zu analysieren.

Die Speicherklassen-Analyse beobachtet die Zugriffsmuster einer gefilterten Objekt-Datenmenge für 30 Tage oder Länger, um ausreichend viele Informationen für eine Analyse zu sammeln. Nachdem die Speicherklassen-Analyse genügend Informationen gesammelt hat, wird in der Amazon-S3-Konsole eine Meldung angezeigt, dass die Analyse abgeschlossen ist.

Bei der Durchführung der Analyse für Objekte mit seltenem Zugriff betrachtet die Speicherklassen-Analyse die gefilterte gruppierte Objektmenge basierend auf der Dauer für die sie in Amazon S3 hochgeladen waren. Die Speicherklassen-Analyse stellt fest, ob für die Altersgruppe selten ein Zugriff stattfindet, indem sie die folgenden Faktoren für die gefilterte Datenmenge betrachtet.
+ Objekte in der Speicherklasse STANDARD, die größer als 128 KB sind.
+ Wie viel durchschnittlichen Gesamtspeicher Sie pro Altersgruppe haben.
+ Die durchschnittliche Anzahl an Bytes, die pro Altersgruppe nach außen übertragen werden (nicht die Frequenz).
+ Analyseexportdaten enthalten nur Anfragen mit Daten, die für die Speicherklassen-Analyse relevant sind. Dies kann Differenzen in der Anzahl der Anfragen sowie im Hinblick auf die gesamten Bytes für Upload und Anfrage im Vergleich zu den Angaben in der Speichermetrik oder in den Ergebnissen Ihrer eigenen internen Systeme verursachen.
+ Fehlgeschlagene GET- und PUT-Anfragen werden bei der Analyse nicht berücksichtigt. In den Speichermetriken sehen Sie jedoch fehlgeschlagene Anfragen. 

**Wie viel von meinem Speicher habe ich abgerufen?**

Die Amazon-S3-Konsole zeigt in einer Grafik an, wie viel von dem Speicher in der gefilterten Datenmenge für den Beobachtungszeitraum abgerufen wurde.

**Welchen Prozentsatz meines Speichers habe ich abgerufen?**

Die Amazon-S3-Konsole zeigt in einer Grafik an, welcher Prozentsatz des Speichers in der gefilterten Datenmenge für den Beobachtungszeitraum abgerufen wurde.

Wie in diesem Thema bereits dargelegt, betrachtet die Speicherklassen-Analyse bei der Analyse für Objekte mit seltenem Zugriff die gefilterte Objektemenge, gruppiert nach dem Zeitpunkt, zu dem die Objekte in Amazon S3 hochgeladen wurden. Die Speicherklassen-Analyse verwendet die folgenden vordefinierten Objektaltersgruppen: 
+ Amazon-S3-Objekte, die weniger als 15 Tage alt sind
+ Amazon S3 Objekte 15-29 Tage alt
+ Amazon S3 Objekte 30-44 Tage alt
+ Amazon S3 Objekte 45-59 Tage alt
+ Amazon S3 Objekte 60-74 Tage alt
+ Amazon S3 Objekte 75-89 Tage alt
+ Amazon S3 Objekte 90-119 Tage alt
+ Amazon S3 Objekte 120-149 Tage alt
+ Amazon S3 Objekte 150-179 Tage alt
+ Amazon S3 Objekte 180-364 Tage alt
+ Amazon S3 Objekte 365-729 Tage alt
+ Amazon-S3-Objekte, 730 Tage alt und älter

In der Regel benötigt sie über 30 Tage beobachtete Zugriffsmuster, um ausreichend viele Informationen für ein Analyseergebnis zu sammeln. Abhängig von dem spezifischen Zugriffsmuster Ihrer Daten könnte dies länger als 30 Tage dauern. Nachdem Sie jedoch einen Filter konfiguriert haben, sehen Sie die Datenanalyse basierend auf dem Filter in der Amazon-S3-Konsole über 24 bis 48 Stunden. Sie sehen die Analyse zum Objektzugriff auf täglicher Basis, unterteilt nach Objektaltersgruppe in der Amazon-S3-Konsole. 

**Wie viel von meinem Speicher wird selten abgerufen?**

Die Amazon-S3-Konsole zeigt die Zugriffsmuster, die nach den vordefinierten Altersgruppen des Objekts gruppiert sind. Der angezeigte Text **Frequently accessed (Häufig aufgerufen)** oder **Infrequently accessed (Selten aufgerufen)** ist als visuelle Hilfe bei der Erstellung des Lebenszyklus gedacht.

## Wie kann ich die Daten der Speicherklassen-Analyse exportieren?
<a name="analytics-storage-class-export-to-file"></a>

Sie können festlegen, dass die Speicherklassen-Analyse Analyseberichte in einer flachen .csv-Datei (durch Kommas getrennte Werte) exportiert. Berichte werden täglich aktualisiert und basieren auf den von Ihnen konfigurierten Objektaltersgruppenfiltern. Bei Verwendung der Amazon-S3-Konsole können Sie die Exportberichtsoption wählen, wenn Sie einen Filter erstellen. Wenn Sie Dateien zum Export auswählen, geben Sie einen Ziel-Bucket und ein optionales Ziel-Präfix an, wohin die Datei geschrieben werden soll. Sie können die Daten in einen Ziel-Bucket in einem anderen Konto exportieren. Der Ziel-Bucket muss sich in derselben Region befinden wie der Bucket, dessen Analyse Sie konfiguriert haben.

Sie müssen eine Bucket-Richtlinie für den Ziel-Bucket erstellen, um Amazon S3 Berechtigungen zu erteilen, um zu überprüfen, AWS-Konto wem der Bucket gehört, und um Objekte in den Bucket am definierten Speicherort zu schreiben. Eine Beispielrichtlinie finden Sie unter [Gewähren von Berechtigungen für S3 Inventory und S3 Analytics](example-bucket-policies.md#example-bucket-policies-s3-inventory-1).

Nachdem Sie Speicherklassen-Analyseberichte konfiguriert haben, erhalten Sie den exportierten Bericht nach 24 Stunden täglich. Anschließend setzt Amazon S3 die Überwachung fort und stellt tägliche Berichte bereit. 

Sie können die CSV-Datei in einer Tabellenkalkulationsanwendung öffnen oder die Datei in andere Anwendungen wie [Amazon Quick](https://docs.aws.amazon.com/quicksight/latest/user/welcome.html) importieren. Informationen zur Verwendung von Amazon S3 S3-Objekten mit Amazon Quick finden Sie im [Amazon Quick User Guide](https://docs.aws.amazon.com/quicksight/latest/user/create-a-data-set-s3.html).

Daten in den exportierten Dateien werden nach dem Datum innerhalb der Objektaltersgruppe sortiert, wie in den folgenden Beispielen gezeigt. Wenn die Speicherklasse STANDARD ist, enthält die Zeile Daten für die Spalten `ObjectAgeForSIATransition` und `RecommendedObjectAgeForSIATransition`.

![\[Screenshot der exportierten Speicherklassen-Analysedaten, sortiert nach Datum innerhalb der Objektaltersgruppe.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/storage-class-analysis-export-file1.png)


Am Ende des Berichts wird die Objektaltersgruppe als ALL angegeben. Die ALL-Zeilen enthalten kumulative Summen, einschließlich Objekte, die kleiner als 128 KB sind, für alle Altersgruppen für diesen Tag.

![\[Screenshot der exportierten Speicherklassen-Analysedaten mit ALLEN Zeilen, die kumulative Gesamtsummen enthalten.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/storage-class-analysis-export-file3.png)


Der nächste Abschnitt beschreibt die im Bericht verwendeten Spalten.

### Layout der exportierten Datei
<a name="analytics-storage-class-export-file-layout"></a>

In der folgenden Tabelle wird das Layout der Exportdatei für die Analyse von Amazon-S3-Speicherklassen beschrieben.

Mit den Bildlaufleisten können Sie den Rest der Tabelle sehen.


| Name der Spalte | Dimension/Metrik | DataType | Description | 
| --- | --- | --- | --- | 
| Datum  | Dimension | Zeichenfolge  | Datum, wann der Datensatz verarbeitet wurde. Format ist MM-DD-YYYY. | 
| ConfigId  | Dimension | Zeichenfolge  | Der Wert, der beim Hinzufügen der Filterkonfiguration als Filtername eingegeben wurde.  | 
| Filter | Dimension | Zeichenfolge  | Das Feld `Filter` ist absichtlich leer. | 
| StorageClass | Dimension | Zeichenfolge  | Speicherklasse der Daten. | 
| ObjectAge | Dimension | Zeichenfolge  | Altersgruppe für die Objekte im Filter. Zusätzlich zu den 12 verschiedenen Altersgruppen (0–14 Tage, 15–29 Tage, 30–44 Tage, 45–59 Tage, 60–74 Tage, 75–89 Tage, 90–119 Tage, 120–149 Tage, 150–179 Tage, 180–364 Tage, 365–729 Tage, über 730 Tage) für Objekte mit über 128 KB gibt es einen zusätzlichen Wert=‚ALL‘, der alle Altersgruppen repräsentiert. | 
| ObjectCount  | Metrik  |  Ganzzahl  | Die Gesamtanzahl an Objekten, die pro Speicherklasse für den Tag gezählt wurden. Dieser Wert wird nur für `AgeGroup='ALL'` ausgefüllt und zeigt die Gesamtobjektanzahl für alle Altersgruppen für den Tag an. | 
| DataUploaded\$1MB  | Metrik | Anzahl | Gesamtdaten in MB, die pro Speicherklasse für den Tag hochgeladen wurden. Dieser Wert wird nur für das `AgeGroup='ALL'` ausgefüllt und zeigt die Gesamtzahl der Uploads in MB für alle Altersgruppen für den Tag an. (Beachten Sie, dass Sie in Ihren Exportdaten keine Aktivitäten für mehrteilige Objekt-Uploads sehen, weil Anforderungen mehrteiliger Uploads derzeit keine Speicherklasseninformationen besitzen.) | 
| Storage\$1MB  | Metrik | Anzahl  | Der Gesamtspeicher in MB, die pro Speicherklasse für den Tag in der Altersgruppe. Für die `AgeGroup='ALL'` ist der Wert des Gesamtspeicherzählers in MB für alle Altersgruppen für den Tag. | 
| DataRetrieved\$1MB | Metrik | Anzahl | Eingesetzte Daten MBs pro Speicherklasse mit GET-Anfragen für den Tag in der Altersgruppe. Für die `AgeGroup='ALL'` gibt der Wert die mit GET-Anfragen nach außen übertragenen Gesamtdaten in MB für alle Altersgruppen für den Tag. | 
| GetRequestCount | Metrik | Ganzzahl | Anzahl der an dem Tag getätigten GET- und PUT-Anforderungen pro Speicherklasse in der Altersgruppe. Für AgeGroup ='ALL' steht der Wert für die Gesamtzahl der GET- und PUT-Anfragen für alle Altersgruppen an diesem Tag.  Die GetRequestCount Spalte ist falsch beschriftet und enthält auch die Anzahl der PUT-Anfragen pro Speicherklasse.   | 
| CumulativeAccessRatio | Metrik | Anzahl | Cumulative access ratio. Dieses Verhältnis wird verwendet, um die Nutzung/Byteanzahl für jede Altersgruppe darzustellen, um entscheiden zu können, ob eine Altersgruppe für den Übergang in STANDARD\$1IA in Frage kommt.  | 
| ObjectAgeForSIATransition | Metrik | Ganze Zahl für Tage  | Dieser Wert existiert nur, wenn `AgeGroup=’ALL’` und die Speicherklasse = STANDARD sind. Er stellt das beobachtete Alter für den Übergang in STANDARD\$1IA dar. | 
| RecommendedObjectAgeForSIATransition  | Metrik | Ganze Zahl für Tage  | Dieser Wert existiert nur, wenn `AgeGroup=’ALL’` und die Speicherklasse = STANDARD sind. Er stellt das Objektalter in Tagen dar, das für den Übergang in STANDARD\$1IA zu berücksichtigen ist, nachdem sich `ObjectAgeForSIATransition` stabilisiert hat. | 

# Konfigurieren der Speicherklassen-Analyse
<a name="configure-analytics-storage-class"></a>

Unter Verwendung des Tools für die Speicherklassen-Analyse von Amazon S3 können Sie Speicherzugriffsmuster analysieren, anhand derer Sie entscheiden können, ob Sie die richtigen Daten in die richtige Speicherklasse einordnen. Die Speicherklassen-Analyse beobachtet Datenzugriffsmuster analysieren, anhand derer Sie entscheiden können, wann Sie STANDARD-Speicher mit weniger häufigem Zugriff in die Speicherklasse STANDARD\$1IA (IA für "infrequent access" (seltener Zugriff)) überführen sollen. Weitere Informationen zu STANDARD\$1IA finden Sie in den [Amazon-S3-FAQ](https://aws.amazon.com/s3/faqs/#sia) und [Verstehen und Verwalten von Amazon-S3-Speicherklassen](storage-class-intro.md).

Sie können die Speicherklassen-Analyse Einrichten, indem Sie konfigurieren, welche Objektdaten analysiert werden sollen. Sie können die Speicherklassenanalyse für die folgenden Aufgaben konfigurieren:
+ **Analyse des gesamten Inhalts eines Buckets.**

  Sie erhalten eine Analyse für alle Objekte im Bucket.
+ **Analyse von nach Präfix und Tags gruppierten Objekten.**

  Sie können Filter konfigurieren, um Objekte nach einem gemeinsamen Präfix oder nach Objekt-Markierungen zu gruppieren, oder nach einer Kombination aus Präfix und Markierungen. Sie erhalten für jeden konfigurierten Filter eine separate Analyse. Sie können maximal 1000 Filterkonfigurationen pro Bucket verwenden. 
+ **Export von Analysedaten.** 

  Wenn Sie die Speicherklassen-Analyse für einen Bucket oder Filter konfigurieren, können Sie die Analysedaten täglich in eine Datei exportieren lassen. Die Analyse für den Tag wird der Datei hinzugefügt, um ein Verlaufsanalyseprotokoll für den konfigurierten Filter zu erstellen. Die Datei wird täglich an dem Ziel Ihrer Wahl aktualisiert. Wenn Sie Dateien zum Export auswählen, geben Sie einen Ziel-Bucket und ein optionales Ziel-Präfix an, wohin die Datei geschrieben werden soll.

Sie können die Amazon S3 S3-Konsole, die REST-API oder oder verwenden, AWS SDKs um die AWS CLI Speicherklassenanalyse zu konfigurieren.

**Wichtig**  
Die Speicherklassen-Analyse gibt keine Empfehlungen für Übergänge in die Speicherklassen ONEZONE\$1IA oder S3 Glacier Flexible Retrieval.  
Wenn Sie die Speicherklassenanalyse so konfigurieren möchten, dass Ihre Ergebnisse als .csv-Datei exportiert werden und der Ziel-Bucket die Standard-Bucket-Verschlüsselung mit a verwendet AWS KMS key, müssen Sie die AWS KMS Schlüsselrichtlinie aktualisieren, um Amazon S3 die Berechtigung zum Verschlüsseln der .csv-Datei zu erteilen. Detaillierte Anweisungen finden Sie unter [Erteilen der Berechtigung an Amazon S3 zur Verwendung Ihres vom Kunden verwalteten Schlüssels für die Verschlüsselung](configure-inventory.md#configure-inventory-kms-key-policy).

Weitere Informationen zu Analytics finden Sie unter [Amazon S3 analytics – Speicherklassen-Analyse](analytics-storage-class.md).

## Verwenden der S3-Konsole
<a name="storage-class-analysis-console"></a>

**Konfigurieren der Speicherklassen-Analyse**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** oder **Verzeichnis-Buckets** aus.

1. Wählen Sie in der Liste Buckets den Namen des Buckets aus, für den Sie die Speicherklassen-Analytik konfigurieren wollen.

1. Wählen Sie die Registerkarte **Metriken** aus.

1. Wählen Sie unter **Storage Class Analysis (Speicherklassen-Analyse)** die Option **Create analytics configuration (Analysenkonfiguration erstellen)**.

1. Geben Sie einen Namen für den Filter ein. Wenn der komplette Bucket analysiert werden soll, tragen Sie nichts in das Feld **Prefix (Präfix)** ein.

1. Geben Sie im Feld **Prefix (Präfix)** Text für das Präfix für die Objekte ein, die Sie analysieren möchten.

1. Um einen Tag hinzuzufügen, wählen Sie **Add tag (Tag hinzufügen)**. Geben Sie einen Schlüssel und Wert für den Tag ein. Sie können ein Präfix und mehrere Markierungen eingeben.

1. Optional können Sie **Enable (Aktivieren)** unter **Export CSV (CSV exportieren)** auswählen, um Analyseberichte in einer flachen .csv-Datei (durch Kommas getrennte Werte) zu exportieren. Wählen Sie einen Ziel-Bucket aus, in dem die Datei gespeichert werden kann. Sie können ein Präfix für den Ziel-Bucket eingeben. Der Ziel-Bucket muss sich in demselben Bucket befinden AWS-Region wie der Bucket, für den Sie die Analyse einrichten. Der Ziel-Bucket kann sich in einem anderem AWS-Konto befinden. 

   Wenn der Ziel-Bucket für die .csv-Datei die Standard-Bucket-Verschlüsselung mit einem KMS-Schlüssel verwendet, müssen Sie die AWS KMS Schlüsselrichtlinie aktualisieren, um Amazon S3 die Erlaubnis zu erteilen, die .csv-Datei zu verschlüsseln. Detaillierte Anweisungen finden Sie unter [Erteilen der Berechtigung an Amazon S3 zur Verwendung Ihres vom Kunden verwalteten Schlüssels für die Verschlüsselung](configure-inventory.md#configure-inventory-kms-key-policy).

1. Wählen Sie **Create configuration (Konfiguration erstellen)**.

 Amazon S3 erstellt eine Bucket-Richtlinie für den Ziel-Bucket, mit der Amazon S3 Schreibberechtigung gewährt wird. Auf diese Weise kann es die Exportdaten in den Bucket schreiben. 

 Wenn beim Erstellen der Bucket-Richtlinie ein Fehler auftritt, erhalten Sie Anweisungen zur Fehlerbehebung. Wenn Sie beispielsweise einen Ziel-Bucket in einem anderen AWS-Konto ausgewählt haben und nicht über die Berechtigungen verfügen, die Bucket-Richtlinie zu lesen und zu verändern, wird die folgende Meldung angezeigt. Sie müssen den Eigentümer des Ziel-Buckets auffordern, dem Ziel-Bucket die angezeigte Bucket-Richtlinie hinzuzufügen. Wird die Richtlinie dem Ziel-Bucket nicht hinzugefügt, erhalten Sie keine Exportdaten, weil Amazon S3 nicht die Berechtigung besitzt, in den Ziel-Bucket zu schreiben. Wenn der Quell-Bucket nicht dem Konto des aktuellen Benutzers gehört, muss die richtige Konto-ID des Quell-Buckets in der Richtlinie ersetzt werden.

Informationen über die exportierten Daten und die Funktionsweise des Filters finden Sie unter [Amazon S3 analytics – Speicherklassen-Analyse](analytics-storage-class.md).

## Verwenden der REST-API
<a name="storage-class-apis"></a>

Um Storage Class Analysis mithilfe der REST-API zu konfigurieren, verwenden Sie die. [PutBucketAnalyticsConfiguration](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTAnalyticsConfig.html) Sie können auch die entsprechende Operation mit AWS CLI oder verwenden AWS SDKs. 

Sie können den folgenden REST verwenden APIs , um mit Storage Class Analysis zu arbeiten:
+  [ DELETE Bucket Analytics configuration](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketDELETEAnalyticsConfiguration.html) 
+  [ GET Bucket Analytics configuration](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETAnalyticsConfig.html) 
+  [ List Bucket Analytics Configuration](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketListAnalyticsConfigs.html) 

# Mit Amazon S3 Intelligent-Tiering Speicherkosten verwalten
<a name="intelligent-tiering"></a>

Die Speicherklasse S3 Intelligent-Tiering wurde entwickelt, um die Speicherkosten zu optimieren, indem Daten automatisch auf die kostengünstigste Zugriffsebene verschoben werden, wenn sich die Zugriffsmuster ändern, ohne dass Betriebsaufwand oder Leistungseinbußen auftreten. Gegen eine geringe monatliche Gebühr für Objektüberwachung und Automatisierung überwacht S3 Intelligent-Tiering die Zugriffsmuster und verschiebt die Objekte, auf die nicht zugegriffen wurde, automatisch in kostengünstigere Zugriffsebenen.

S3 Intelligent-Tiering ermöglicht automatische Speicherkosteneinsparungen in drei Zugriffsebenen mit niedriger Latenz und hohem Durchsatz. Für Daten, auf die asynchron zugegriffen werden kann, können Sie innerhalb der S3 Intelligent-Tiering-Speicherklasse die automatische Archivfunktionen aktivieren. Bei S3 Intelligent-Tiering werden keine Abrufgebühren erhoben. Wenn später auf ein Objekt in der Stufe Infrequent Access oder Archive Instant Access zugegriffen wird, wird es automatisch zurück in die Stufe Frequent Access verschoben. Es werden keine Zusatzgebühren erhoben, wenn Objekte innerhalb der S3-Intelligent-Tiering-Speicherklasse zwischen Zugriffsstufen verschoben werden.

S3 Intelligent-Tiering ist die empfohlene Speicherklasse für Daten mit unbekannten, sich ändernden oder unvorhersehbaren Zugriffsmustern, unabhängig von der Objektgröße oder dem Aufbewahrungszeitraum, wie Data Lakes, Datenanalytik und neue Anwendungen.

 Die Speicherklasse S3 Intelligent-Tiering unterstützt alle Amazon-S3-Funktionen, einschließlich der folgenden:
+ S3 Inventory zur Überprüfung der Zugriffsebene von Objekten
+ S3-Replikation, zum Replizieren von Daten in beliebiger AWS-Region
+ S3 Storage Lens zum Anzeigen von Speichernutzungs- und Aktivitätsmetriken
+ Serverseitige Verschlüsselung, für den Schutz von Objektdaten
+ S3-Objektsperre, um versehentliches Löschen von Daten zu verhindern
+ AWS PrivateLink, um über einen privaten Endpunkt in einer Virtual Private Cloud (VPC) auf Amazon S3 zuzugreifen

Weitere Informationen zur Verwendung von S3 Intelligent-Tiering finden Sie in den folgenden Abschnitten:

**Topics**
+ [So funktioniert S3 Intelligent-Tiering](intelligent-tiering-overview.md)
+ [Verwenden von S3 Intelligent-Tiering](using-intelligent-tiering.md)
+ [Verwenden von S3 Intelligent-Tiering](intelligent-tiering-managing.md)

# So funktioniert S3 Intelligent-Tiering
<a name="intelligent-tiering-overview"></a>

Die Speicherklasse Amazon S3 Intelligent-Tiering speichert Objekte automatisch in drei Zugriffsebenen. Eine Stufe ist für häufigen Zugriff optimiert, eine kostengünstigere Stufe ist für seltenen Zugriff optimiert und eine andere sehr kostengünstige Stufe ist für selten zugängliche Daten optimiert. Gegen eine geringe monatliche Gebühr für Objektüberwachung und Automatisierung überwacht S3 Intelligent-Tiering die Zugriffsmuster und verschiebt Objekte automatisch in die Ebene für seltenen Zugriff, wenn auf sie 30 aufeinanderfolgende Tage lang nicht zugegriffen wurde. Nach 90 Tagen ohne Zugriff werden die Objekte ohne Leistungseinbußen oder Betriebsaufwand auf die Ebene des Archivs Instant Access verschoben.

Aktivieren Sie Archivierungsfunktionen, um zwei zusätzliche Zugriffsebenen hinzuzufügen und die niedrigsten Speicherkosten für Daten zu erhalten, auf die in Minuten bis Stunden zugegriffen werden kann. Sie können Objekte schichtweise auf die Archive Access Tier oder Deep Archive Access Tier oder beiden reduzieren. Mit Archive Access verschiebt S3 Intelligent-Tiering Objekte, auf die mindestens 90 aufeinanderfolgende Tage lang nicht zugegriffen wurde, in die Ebene „Archive Access“. Mit Deep Archive Access verschiebt S3 Intelligent-Tiering Objekte, auf die mindestens 180 aufeinanderfolgende Tage lang nicht zugegriffen wurde, in die Ebene „Deep Archive Access“. Für beide Ebenen können Sie die Anzahl der Tage ohne Zugriff je nach Bedarf konfigurieren.

Die folgenden Aktionen stellen einen Zugriff dar, der ein Herabstufen Ihrer Objekte in die Ebene „Archive Access“ oder „Deep Archive Access“ verhindert:
+ Herunterladen oder Kopieren eines Objekts über die Amazon-S3-Konsole.
+ Aufrufen von [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html) oder Replizieren bestehender Objekte mit S3- Batch-Replikation. In diesen Fällen werden die Quellobjekte der Kopier- oder Replikationsvorgänge hochgestuft.
+ Aufrufen von [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/API_RestoreObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_RestoreObject.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html) oder [https://docs.aws.amazon.com/AmazonS3/latest/API/API_SelectObjectContent.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_SelectObjectContent.html).

Wenn beispielsweise vor Ablauf der von Ihnen festgelegte Anzahl von Tagen ohne Zugriff (z. B. 180 Tage) über `SelectObjectContent` ein Zugriff auf Ihre Objekte erfolgt, wird durch diese Aktion der Timer zurückgesetzt. Ihre Objekte werden erst in die Ebene „Archive Access“ oder „Deep Archive Access“ verschoben, wenn die Zeit nach der letzten `SelectObjectContent`-Anforderung die von Ihnen festgelegte Anzahl von Tagen erreicht hat.

Wenn später auf ein Objekt in der Stufe Infrequent Access oder Archive Instant Access zugegriffen wird, wird es automatisch zurück in die Stufe Frequent Access verschoben.

Die folgenden Aktionen stellen einen Zugriff dar, bei dem Objekte automatisch von der Ebene „Infrequent Access“ oder „Archive Instant Access“ zurück in die Ebene „Frequent Access“ verschoben werden:
+ Herunterladen oder Kopieren eines Objekts über die Amazon-S3-Konsole.
+ Aufrufen von [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html) oder Replizieren bestehender Objekte mit Batch-Replikation. In diesen Fällen werden die Quellobjekte der Kopier- oder Replikationsvorgänge hochgestuft.
+ Aufrufen von [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/API_RestoreObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_RestoreObject.html) oder [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html).

Andere Aktionen stellen **keinen** Zugriff dar, bei dem Objekte automatisch von der Ebene „Infrequent Access“ oder „Archive Instant Access“ zurück in die Ebene „Frequent Access“ verschoben werden. Im Folgenden finden Sie ein Beispiel, keine endgültige Liste, solcher Aktionen:
+ Aufrufen von [https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectTagging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectTagging.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjects.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjects.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html), und [https://docs.aws.amazon.com/AmazonS3/latest/API/API_UpdateObjectEncryption.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UpdateObjectEncryption.html).
+ Das Aufrufen von [https://docs.aws.amazon.com/AmazonS3/latest/API/API_SelectObjectContent.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_SelectObjectContent.html) stellt keinen Zugriff dar, bei dem Objekte zur Ebene „Frequent Access“ hochgestuft werden. Darüber hinaus wird dadurch nicht verhindert, dass Objekte von der Stufe „Frequent Access“ auf die Stufe „Infrequent Access“ und von dort aus auf die Stufe „Archive Instant Access“ herabgestuft werden.

Sie können S3 Intelligent-Tiering als Standardspeicherklasse für neu erstellte Daten nutzen, indem Sie beim Aufrufen der `PutObject`-, `CopyObject`- oder `CreateMultipartUpload`-Vorgänge in Ihrem [x-amz-storage-class-Anforderungs-Header](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html#AmazonS3-PutObject-request-header-StorageClass) `INTELLIGENT-TIERING` festlegen. S3 Intelligent-Tiering ist auf 99,9 % Verfügbarkeit und 99,999999999 % Haltbarkeit ausgelegt.

**Anmerkung**  
Wenn die Größe eines Objekts weniger als 128 KB beträgt, wird es nicht überwacht und ist nicht für das automatische Tiering geeignet. Kleinere Objekte werden immer in der Stufe für häufige Zugriffe gespeichert.

## S3-Intelligent-Tiering-Zugriffsebenen
<a name="intel-tiering-tier-definition"></a>

Im folgenden Abschnitt werden die verschiedenen automatischen und optionalen Zugriffsebenen erläutert. Wenn Objekte zwischen Zugriffsebenen verschoben werden, bleibt die Speicherklasse gleich (S3 Intelligent-Tiering).

Stufe für häufige Zugriffe (automatisch)  
Hierbei handelt es sich um die Standardzugriffsebene, in der Objekte, die in S3 Intelligent-Tiering erstellt oder überführt sind, seinen Lebenszyklus beginnt. Ein Objekt verbleibt in dieser Ebene, solange darauf zugegriffen wird. Die Stufe für häufige Zugriffe bietet niedrige Latenz und hohe Durchsatzleistung.

Stufe für seltene Zugriffe (automatisch)  
Wenn 30 aufeinanderfolgende Tage auf ein Objekt nicht zugegriffen wird, wird das Objekt in die Stufe für seltene Zugriffe verschoben. Die Stufe für seltene Zugriffe bietet niedrige Latenz und hohe Durchsatzleistung.

Stife Archive Instant Access (automatisch)  
Wenn 90 aufeinanderfolgende Tage auf ein Objekt nicht zugegriffen wird, wird das Objekt in die Stufe Archive Instant Access verschoben. Die Stufe Archive Instant Access bietet niedrige Latenzzeiten und hohe Durchsatzleistung.

Archivzugriffsebene (optional)  
S3 Intelligent-Tiering bietet Ihnen die Möglichkeit, die Archivzugriffsebene für Daten zu aktivieren, auf die asynchron zugegriffen werden kann. Nach der Aktivierung archiviert die Ebene Archive Access automatisch Objekte, auf die mindestens 90 aufeinanderfolgende Tage lang nicht zugegriffen wurde. Sie können die letzte Zugriffszeit für die Archivierung auf maximal 730 Tage verlängern. Die Archivzugriffsebene hat dieselbe Leistung wie die Speicherklasse [S3 Glacier Flexible Retrieval](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-class-intro.html#sc-glacier).   
Die Standardabrufzeiten für diese Zugriffebene können zwischen 3 und 5 Stunden liegen. Wenn Sie Ihre Wiederherstellungsanfrage mithilfe von S3 Batch Operations starten, beginnt Ihre Wiederherstellung innerhalb von Minuten. Weitere Informationen zu den Abrufoptionen finden -Zeiten finden Sie unter [Wiederherstellen von Objekten aus den Stufen S3 Intelligent-Tiering Archive Access und Deep Archive Access](intelligent-tiering-managing.md#restore-data-from-int-tier-archive).  
Aktivieren Sie die Stufe Archive Access nur für 90 Tage, wenn Sie die Stufe Instant Access Archiv umgehen möchten. Die Stufe Archive Access bietet etwas geringere Speicherkosten bei gleichzeitig kürzeren minute-to-hour Abrufzeiten. Die Stufe Archive Instant Access bietet Millisekunden-Zugriff und hohe Durchsatzleistung.

Zugriffsebene für Deep Archive (optional)  
S3 Intelligent-Tiering bietet Ihnen die Möglichkeit, die Stufe Deep Archive Access für Daten zu aktivieren, auf die asynchron zugegriffen werden kann. Nach der Aktivierung archiviert die Ebene Deep Archive Access automatisch Objekte, auf die mindestens 180 aufeinanderfolgende Tage lang nicht zugegriffen wurde. Sie können die letzte Zugriffszeit für die Archivierung auf maximal 730 Tage verlängern. Die Deep-Archive-Zugriffsebene hat dieselbe Leistung wie die [S3 Glacier Deep Archive](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-class-intro.html#sc-glacier)-Speicherklasse.   
Der Standardabruf von Objekten in dieser Zugriffsebene erfolgt innerhalb von 12 Stunden. Wenn Sie Ihre Wiederherstellungsanfrage mithilfe von S3 Batch Operations starten, beginnt Ihre Wiederherstellung innerhalb von 9 Stunden. Weitere Informationen zu den Abrufoptionen finden -Zeiten finden Sie unter [Wiederherstellen von Objekten aus den Stufen S3 Intelligent-Tiering Archive Access und Deep Archive Access](intelligent-tiering-managing.md#restore-data-from-int-tier-archive).

**Anmerkung**  
Aktivieren Sie die Ebenen Archivzugriff und Deep Archive Access nur, wenn Ihre Anwendung asynchron auf Ihre Objekte zugreifen kann. Wenn das Objekt, das Sie abrufen, in den Ebenen „Archive Access“ oder „Deep Archive Access“ gespeichert ist, müssen Sie das Objekt zunächst mithilfe des `RestoreObject`-Vorgangs wieder herstellen.  
Mit S3 Intelligent-Tiering Archive Access und S3 Intelligent-Tiering Deep Archive Access können Sie archivierte Objekte mit bis zu 1.000 Transaktionen pro Sekunde (TPS) an Objektwiederherstellungsanforderungen pro Konto und AWS Region wiederherstellen.

# Verwenden von S3 Intelligent-Tiering
<a name="using-intelligent-tiering"></a>

Sie können die Speicherklasse S3 Intelligent-Tiering verwenden, um die Speicherkosten automatisch zu optimieren. S3 Intelligent-Tiering ermöglicht automatische Kosteneinsparungen durch Verschieben von Daten auf granularer Objektebene zwischen den Zugriffsebenen, wenn sich die Zugriffsmuster ändern. Für Daten, auf die asynchron zugegriffen werden kann, können Sie wählen, ob Sie die automatische Archivierung innerhalb der Speicherklasse S3 Intelligent-Tiering mithilfe der AWS-Managementkonsole AWS CLI, oder Amazon S3 S3-API aktivieren möchten.

## Verschieben von Daten nach S3 Intelligent-Tiering
<a name="moving-data-to-int-tiering"></a>

Es gibt zwei Möglichkeiten, Daten in S3 Intelligent-Tiering zu übertragen. Sie können Objekte direkt von der Konsole oder programmgesteuert mithilfe eines `PUT`-Vorgangs in S3 Intelligent-Tiering hochladen. Weitere Informationen finden Sie unter [Einrichten der Speicherklasse eines Objekts](sc-howtoset.md). Sie können auch S3-Lebenszykluskonfigurationen konfigurieren, um Objekte aus S3 Standard oder S3 Standard-Infrequent Access an S3 Intelligent-Tiering zu übertragen.

### Hochladen von Daten in S3 Intelligent-Tiering mit Direct PUT
<a name="moving-data-to-int-tiering-directPUT"></a>

Wenn Sie ein Objekt in die Speicherklasse S3 Intelligent-Tiering mit dem API-Vorgang [PUT](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html) hochladen, geben Sie S3 Intelligent-Tiering im [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html#API_PutObject_RequestSyntax](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html#API_PutObject_RequestSyntax)-Anforderungs-Header an.

Die folgende Anforderung speichert das Image, `my-image.jpg`, im `myBucket`-Bucket. Die Anforderung verwendet den `x-amz-storage-class`-Header, um anzufordern, dass das Objekt mit der Speicherklasse S3 Intelligent-Tiering gespeichert ist. 

**Example**  

```
PUT /my-image.jpg HTTP/1.1
Host: myBucket.s3.<Region>.amazonaws.com (http://amazonaws.com/)
Date: Wed, 1 Sep 2021 17:50:00 GMT
Authorization: authorization string
Content-Type: image/jpeg
Content-Length: 11434
Expect: 100-continue
x-amz-storage-class: INTELLIGENT_TIERING
```

### Übergang von Daten zu S3 Intelligent-Tiering von S3 Standard oder S3 Standard-Infrequent Access mit S3-Lebenszyklus
<a name="moving-data-to-int-tiering-lifecycle"></a>

Sie können Regeln zu Ihrer S3-Lebenszykluskonfiguration hinzufügen und damit Amazon S3 anweisen, Objekte von einer Speicherklasse in eine andere zu wechseln. Informationen zu unterstützten Übergängen und zugehörigen Einschränkungen finden Sie unter [ Migrieren von Objekten mit S3-Lebenszyklus](https://docs.aws.amazon.com/AmazonS3/latest/userguide/lifecycle-transition-general-considerations.html). 

Sie können S3-Lebenszykluskonfigurationen auf der Bucket- oder Präfixebene angeben. In dieser S3-Lebenszyklus-Konfigurationsregel spezifiziert der Filter ein Schlüsselpräfix (`documents/`). Aus diesem Grund gilt die Regel für Objekte mit dem Schlüsselnamenpräfix `documents/`, wie beispielsweise `documents/doc1.txt` und `documents/doc2.txt`. Die Regel gibt eine `Transition`-Aktion an, die Amazon S3 anweist, Objekte 0 Tage nach der Erstellung in die Speicherklasse S3 Intelligent-Tiering zu übertragen. In diesem Fall können Objekte nach der Erstellung um Mitternacht UTC auf S3 Intelligent-Tiering umgestellt werden.

**Example**  

```
<LifecycleConfiguration>
  <Rule>
    <ID>ExampleRule</ID>
    <Filter>
       <Prefix>documents/</Prefix>
    </Filter>
    <Status>Enabled</Status>
    <Transition>
      <Days>0</Days>
      <StorageClass>INTELLIGENT_TIERING</StorageClass>
    </Transition>
 </Rule>
</LifecycleConfiguration>
```

Ein versionsfähiger Bucket behält eine aktuelle Objektversion sowie und null oder mehr langfristige Objektversionen bei. Sie können separate Lebenszyklusrichtlinie für aktuelle und nicht aktuelle Objektversionen definieren.

Weitere Informationen finden Sie unter [Elemente der Lebenszykluskonfiguration](intro-lifecycle-rules.md).

## Aktivieren der Stufen S3 Intelligent-Tiering Archive Access und Deep Archive Access
<a name="enable-auto-archiving-int-tiering"></a>

Um die niedrigsten Speicherkosten für Daten zu erzielen, auf die innerhalb von Minuten bis Stunden zugegriffen werden kann, können Sie eine oder beide Archivzugriffsebenen aktivieren, indem Sie mit der, oder Amazon S3 S3-API eine Konfiguration auf Bucket- AWS-Managementkonsole AWS CLI, Präfix- oder Objekt-Tag-Ebene erstellen. 

### Verwenden der S3-Konsole
<a name="enable-auto-archiving-int-tiering-console"></a>

**So aktivieren Sie die automatische S3 Intelligent-Tiering-Archivierung**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie in der Liste **Buckets** den Namen des von Ihnen erstellten Buckets aus.

1. Wählen Sie **Properties (Eigenschaften)**.

1. Navigieren Sie zu den **S3 Intelligent-Tiering-Archive-Konfigurationen** und wählen Sie **Erstellen einer Konfiguration** aus.

1. Geben Sie im Abschnitt **Archiveinstellungen** einen beschreibenden Konfigurationsnamen für die Konfiguration des S3 Intelligent-Tiering-Archivs an.

1. Wählen Sie unter **Auswählen eines Konfigurationsbereichs** einen zu verwendenden Konfigurationsbereich aus. Optional können Sie den Konfigurationsbereich auf bestimmte Objekte innerhalb eines Buckets beschränken, indem Sie ein gemeinsames Präfix, ein Objekt-Tag oder eine Kombination dieser beiden verwenden.

   1. Um den Umfang der Konfiguration einzuschränken, wählen Sie **Begrenzen des Umfangs dieser Konfiguration mithilfe eines oder mehrerer Filter** aus.

   1. Um den Bereich der Konfiguration mit einem einzigen Präfix zu beschränken, geben Sie den Präfix unter **Präfix** ein. 

   1. Um den Umfang der Konfiguration mithilfe von Objekt-Tags einzuschränken, wählen Sie **Hinzufügen eines Tags**, und geben Sie einen Wert für Schlüssel ein.

1. Wählen Sie unter **Status** **Aktivieren** aus.

1. Wählen Sie im Abschnitt **Archiveinstellungen** eine oder beide der Archivzugriffsebenen aus, die aktiviert werden sollen.

1. Wählen Sie **Erstellen** aus.

### Verwenden Sie den AWS CLI
<a name="enable-auto-archiving-int-tiering-cli"></a>

Sie können die folgenden AWS CLI Befehle verwenden, um S3 Intelligent-Tiering-Konfigurationen zu verwalten:
+ [https://docs.aws.amazon.com/cli/latest/reference/s3api/delete-bucket-intelligent-tiering-configuration.html](https://docs.aws.amazon.com/cli/latest/reference/s3api/delete-bucket-intelligent-tiering-configuration.html)
+ [https://docs.aws.amazon.com/cli/latest/reference/s3api/get-bucket-intelligent-tiering-configuration.html](https://docs.aws.amazon.com/cli/latest/reference/s3api/get-bucket-intelligent-tiering-configuration.html)
+ [https://docs.aws.amazon.com/cli/latest/reference/s3api/list-bucket-intelligent-tiering-configurations.html](https://docs.aws.amazon.com/cli/latest/reference/s3api/list-bucket-intelligent-tiering-configurations.html)
+ [https://docs.aws.amazon.com/cli/latest/reference/s3api/put-bucket-intelligent-tiering-configuration.html](https://docs.aws.amazon.com/cli/latest/reference/s3api/put-bucket-intelligent-tiering-configuration.html)

Anweisungen zur Einrichtung von finden Sie unter [Entwickeln mit Amazon S3 mithilfe der AWS CLI](https://docs.aws.amazon.com/AmazonS3/latest/API/setup-aws-cli.html) in der *Amazon S3 S3-API-Referenz*. AWS CLI

Wenn Sie den verwenden AWS CLI, können Sie die Konfiguration nicht als XML-Datei angeben. Sie müssen stattdessen das JSON-Format angeben. Nachfolgend finden Sie Beispiele für XML-S3-Intelligent-Tiering-Konfigurationen und entsprechenden JSON-Code, den Sie in einem AWS CLI -Befehl angeben können.

Im folgenden Beispiel wird eine S3-Intelligent-Tiering-Konfiguration in den angegebenen Bucket übertragen.

**Example [https://docs.aws.amazon.com/cli/latest/reference/s3api/put-bucket-intelligent-tiering-configuration.html](https://docs.aws.amazon.com/cli/latest/reference/s3api/put-bucket-intelligent-tiering-configuration.html)**  

```
{
  "Id": "string",
  "Filter": {
    "Prefix": "string",
    "Tag": {
      "Key": "string",
      "Value": "string"
    },
    "And": {
      "Prefix": "string",
      "Tags": [
        {
          "Key": "string",
          "Value": "string"
        }
        ...
      ]
    }
  },
  "Status": "Enabled"|"Disabled",
  "Tierings": [
    {
      "Days": integer,
      "AccessTier": "ARCHIVE_ACCESS"|"DEEP_ARCHIVE_ACCESS"
    }
    ...
  ]
}
```

```
PUT /?intelligent-tiering&id=Id HTTP/1.1
Host: Bucket.s3.amazonaws.com
<?xml version="1.0" encoding="UTF-8"?>
<IntelligentTieringConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
   <Id>string</Id>
   <Filter>
      <And>
         <Prefix>string</Prefix>
         <Tag>
            <Key>string</Key>
            <Value>string</Value>
         </Tag>
         ...
      </And>
      <Prefix>string</Prefix>
      <Tag>
         <Key>string</Key>
         <Value>string</Value>
      </Tag>
   </Filter>
   <Status>string</Status>
   <Tiering>
      <AccessTier>string</AccessTier>
      <Days>integer</Days>
   </Tiering>
   ...
</IntelligentTieringConfiguration>
```

### Verwenden des PUT-API-Vorgangs
<a name="enable-auto-archiving-int-tiering-api"></a>

Sie können den [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketIntelligentTieringConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketIntelligentTieringConfiguration.html)-Vorgang für einen angegebenen Bucket und bis zu 1000 S3-Intelligent-Tiering-Konfigurationen pro Bucket nutzen. Mit einem gemeinsamen Präfix oder Objekt-Tag können Sie festlegen, welche Objekte innerhalb eines Buckets für die Archivzugriffsstufen berechtigt sind. Durch die Verwendung eines gemeinsamen Präfixes oder Objekt-Tags können Sie auf bestimmte Geschäftsanwendungen, Workflows oder interne Organisationen ausrichten. Außerdem haben Sie die Flexibilität, die Stufe Archivzugriff, die Stufe Deep Archive Access oder beide zu aktivieren.

## Erste Schritte mit S3 Intelligent-Tiering
<a name="intelligent-tiering-tutorial"></a>

Weitere Informationen zur Verwendung von S3 Intelligent-Tiering finden Sie unter [Tutorial: Erste Schritte mit S3 Intelligent-Tiering](https://aws.amazon.com/getting-started/hands-on/getting-started-using-amazon-s3-intelligent-tiering/?ref=docs_gateway/amazons3/using-intelligent-tiering.html).

# Verwenden von S3 Intelligent-Tiering
<a name="intelligent-tiering-managing"></a>

Die Speicherklasse S3 Intelligent-Tiering ermöglicht automatische Speicherkosteneinsparungen in drei Zugriffsebenen mit niedriger Latenz und hohem Durchsatz. Sie bietet außerdem optionale Archivierungsfunktionen, mit denen Sie die niedrigsten Speicherkosten in der Cloud für Daten erzielen, auf die innerhalb von Minuten bis Stunden zugegriffen werden kann. 

## Festlegen welche der S3-Intelligent-Tiering-Zugriffsebene-Objekte gespeichert sind in
<a name="identify-intelligent-tiering-access-tier"></a>

Wenn Sie eine Liste Ihrer Objekte und der zugehörigen Metadaten, einschließlich der Stufe des S3-Intelligent-Tiering-Zugriffs, erhalten möchten, können Sie [Amazon S3 Inventory](storage-inventory.md) nutzen. S3 Inventory bietet CSV, ORC oder Parquet-Ausgabedateien, die Ihre Objekte und die entsprechenden Metadaten auflisten. Sie können diese Bestandsberichte entweder täglich oder wöchentlich für einen Amazon-S3-Bucket oder ein gemeinsames Präfix erhalten. (*Gemeinsames Präfix* bezieht sich auf Objekte, die Namen haben, die mit einer bestimmten Zeichenfolge beginnen.) 

## Anzeigen des Archivstatus eines Objekts in S3 Intelligent-Tiering
<a name="identify-archive-status"></a>

Wenn Sie eine Benachrichtigung erhalten möchten, sobald ein Objekt innerhalb der Speicherklasse S3 Intelligent-Tiering entweder auf die Stufe Archive Access oder die Stufe Deep Archive Access verschoben wurde, können Sie S3-Ereignisbenachrichtigungen einrichten. Weitere Informationen finden Sie unter [Aktivieren von Ereignisbenachrichtigungen](how-to-enable-disable-notification-intro.md).

Amazon S3 kann Ereignisbenachrichtigungen in einem Amazon Simple Notification Service (Amazon SNS)-Thema, einer Amazon Simple Queue Service (Amazon SQS)-Warteschlange oder einer AWS Lambda -Funktion veröffentlichen. Weitere Informationen finden Sie unter [Amazon-S3-Ereignisbenachrichtigungen](EventNotifications.md).

Das Folgende ist ein Beispiel für eine Nachricht, die Amazon S3 sendet, um ein `s3:IntelligentTiering`-Ereignis zu veröffentlichen. Weitere Informationen finden Sie unter [Struktur von Ereignismeldungen](notification-content-structure.md).

```
 1. {  
 2.    "Records":[  
 3.       {  
 4.          "eventVersion":"2.3",
 5.          "eventSource":"aws:s3",
 6.          "awsRegion":"us-west-2",
 7.          "eventTime":"1970-01-01T00:00:00.000Z",
 8.          "eventName":"IntelligentTiering",
 9.          "userIdentity":{  
10.             "principalId":"s3.amazonaws.com"
11.          },
12.          "requestParameters":{  
13.             "sourceIPAddress":"s3.amazonaws.com"
14.          },
15.          "responseElements":{  
16.             "x-amz-request-id":"C3D13FE58DE4C810",
17.             "x-amz-id-2":"FMyUVURIY8/IgAtTv8xRjskZQpcIZ9KG4V5Wp6S7S/JRWeUWerMUE5JgHvANOjpD"
18.          },
19.          "s3":{  
20.             "s3SchemaVersion":"1.0",
21.             "configurationId":"testConfigRule",
22.             "bucket":{  
23.                "name":"amzn-s3-demo-bucket",
24.                "ownerIdentity":{  
25.                   "principalId":"A3NL1KOZZKExample"
26.                },
27.                "arn":"arn:aws:s3:::amzn-s3-demo-bucket"
28.             },
29.             "object":{  
30.                "key":"HappyFace.jpg",
31.                "size":1024,
32.                "eTag":"d41d8cd98f00b204e9800998ecf8427e",              
33.             }
34.          },
35.          "intelligentTieringEventData":{
36.             "destinationAccessTier": "ARCHIVE_ACCESS"
37.             }
38.       }
39.    ]
40. }
```

Sie können auch eine [`HEAD`-Objekt-Anfrage](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html) nutzen, um den Archivstatus eines Objekts anzuzeigen. Wenn ein Objekt in der Speicherklasse S3 Intelligent-Tiering gespeichert wird und sich in einer der Archivebenen befindet, zeigt die `HEAD`-Objektantwort die aktuelle Archivebene an. Um die Archivstufe anzuzeigen, verwendet die Anfrage den [https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html#API_HeadObject_ResponseElements](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html#API_HeadObject_ResponseElements)-Header an. 

Die folgende `HEAD`-Objektanforderung gibt die Metadaten eines Objekts zurück (in diesem Fall `my-image.jpg`).

**Example**  

```
HEAD /my-image.jpg HTTP/1.1
Host: bucket.s3.region.amazonaws.com
Date: Wed, 28 Oct 2009 22:32:00 GMT
Authorization: AWS AKIAIOSFODNN7EXAMPLE:02236Q3V0RonhpaBX5sCYVf1bNRuU=
```

Darüber hinaus können Sie `HEAD`-Objektanforderungen verwenden, um den Status einer `restore-object`-Anforderung zu überwachen. Wenn die Archivwiederherstellung ausgeführt wird, enthält die `HEAD`-Objekt-Antwort den [https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html#API_HeadObject_ResponseElements](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html#API_HeadObject_ResponseElements)-Header. 

Das folgende Beispiel veranschaulicht die `HEAD`-Objektantwort, die ein mit S3 Intelligent-Tiering archiviertes Objekt mit einer Wiederherstellungsanforderung anzeigt.

**Example**  

```
HTTP/1.1 200 OK
x-amz-id-2: FSVaTMjrmBp3Izs1NnwBZeu7M19iI8UbxMbi0A8AirHANJBo+hEftBuiESACOMJp
x-amz-request-id: E5CEFCB143EB505A
Date: Fri, 13 Nov 2020 00:28:38 GMT
Last-Modified: Mon, 15 Oct 2012 21:58:07 GMT
ETag: "1accb31fcf202eba0c0f41fa2f09b4d7"
x-amz-storage-class: 'INTELLIGENT_TIERING'
x-amz-archive-status: 'ARCHIVE_ACCESS'
x-amz-restore: 'ongoing-request="true"'
x-amz-restore-request-date: 'Fri, 13 Nov 2020 00:20:00 GMT'
Accept-Ranges: bytes
Content-Type: binary/octet-stream
Content-Length: 300
Server: AmazonS3
```

## Wiederherstellen von Objekten aus den Stufen S3 Intelligent-Tiering Archive Access und Deep Archive Access
<a name="restore-data-from-int-tier-archive"></a>

Für Zugriff auf Objekte in den S3 Intelligent-Tiering Archive Access und Deep Archive Access müssen Sie eine [Wiederherstellungsanforderung](https://docs.aws.amazon.com/AmazonS3/latest/userguide/restoring-objects.html) initiieren und warten, bis das Objekt in die Stufe für häufigen Zugriff verschoben wird, um darauf zuzugreifen. Weitere Informationen über archivierte Objekte finden Sie unter [Arbeiten mit archivierten Objekten](archived-objects.md).

Wenn Sie ein Objekt aus den Stufen Archive Access oder Deep Archive Access wiederherstellen, wird das Objekt zurück in die Stufe für häufige Zugriffe übergehen. Wenn anschließend nach 30 aufeinanderfolgenden Tagen nicht auf das Objekt zugegriffen wird, wird es automatisch in die Stufe „Infrequent Access“ verschoben. Das Objekt wechselt dann nach mindestens 90 aufeinanderfolgenden Tagen ohne Zugriff automatisch in die Stufe „Archive Access“. Das Objekt wechselt nach mindestens 180 aufeinanderfolgenden Tagen ohne Zugriff automatisch in die Stufe „Deep Archive Access“. Weitere Informationen finden Sie unter [So funktioniert S3 Intelligent-Tiering](intelligent-tiering-overview.md).

Sie können ein archiviertes Objekt mithilfe der Amazon S3 S3-Konsole, S3 Batch Operations, der Amazon S3 S3-REST-API AWS SDKs, der oder der AWS Command Line Interface (AWS CLI) wiederherstellen. Weitere Informationen finden Sie unter [Arbeiten mit archivierten Objekten](archived-objects.md).

# Grundlagen zu den S3-Glacier-Speicherklassen für die langfristige Datenspeicherung
<a name="glacier-storage-classes"></a>

Sie können Speicherklassen von Amazon S3 Glacier verwenden, um kostengünstige Lösungen für die langfristige Speicherung von Daten bereitzustellen, auf die nicht oft zugegriffen wird. Die S3-Glacier-Speicherklassen sind:
+ S3 Glacier Instant Retrieval
+ S3 Glacier Flexible Retrieval
+ S3 Glacier Deep Archive

Sie wählen eine dieser Speicherklassen basierend auf der Frage, wie oft Sie auf Ihre Daten zugreifen und wie schnell Sie sie abrufen müssen. Jede dieser Speicherklassen bietet dieselbe Zuverlässigkeit und Stabilität wie die Speicherklasse S3 Standard, jedoch zu geringeren Speicherkosten. Weitere Informationen zu den S3 Glacier-Speicherklassen finden Sie unter [https://aws.amazon.com/s3/storage-classes/glacier/](https://aws.amazon.com/s3/storage-classes/glacier/).

****Topics****
+ [S3-Glacier-Speicherklassen im Vergleich](#glacier-class-compare)
+ [S3 Glacier Instant Retrieval](#GIR)
+ [S3 Glacier Flexible Retrieval](#GFR)
+ [S3 Glacier Deep Archive](#GDA)
+ [Grundlagen zur Archivspeicherung in S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive](archival-storage.md)
+ [Wie sich diese Speicherklassen vom Amazon-Glacier-Service unterscheiden](#glacier-storage-vs-service)

## S3-Glacier-Speicherklassen im Vergleich
<a name="glacier-class-compare"></a>

Jede S3-Glacier-Speicherklasse hat eine Mindestspeicherdauer für alle Objekte. Falls Sie ein Objekt vor Ablauf der Mindestspeicherdauer gelöscht, überschrieben oder an eine andere Speicherklasse übertragen haben, wird Ihnen auch die verbleibende Zeit in Rechnung gestellt.

Manche S3-Glacier-Speicherklassen sind Archivspeicherklassen, was bedeutet, dass die in diesen Klassen gespeicherten Objekte archiviert werden und nicht für Echtzeitzugriff verfügbar sind. Weitere Informationen finden Sie unter [Grundlagen zur Archivspeicherung in S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive](archival-storage.md).

Speicherklassen, die für weniger häufige Zugriffsmuster mit längeren Abrufzeiten konzipiert sind, bieten niedrigere Speicherkosten. Informationen zu den Preisen finden Sie unter [https://aws.amazon.com/s3/pricing/](https://aws.amazon.com/s3/pricing/).

In der folgenden Tabelle sind die wichtigsten Punkte zusammengefasst, die Sie bei der Auswahl einer S3-Glacier-Speicherklasse berücksichtigen sollten:


| S3-Glacier-Speicherklasse | Mindestspeicherdauer | Empfohlene Zugriffshäufigkeit | Durchschnittliche Abrufzeit | Archivieren? | 
| --- | --- | --- | --- | --- | 
| S3 Glacier Instant Retrieval | 90 Tage | Vierteljährlich | Millisekunden | Nein | 
| S3 Glacier Flexible Retrieval | 90 Tage | Halbjährlich | Minuten bis zu 12 Stunden | Ja | 
| S3 Glacier Deep Archive | 180 Tage | Jährlich | 9 bis 48 Stunden | Ja | 

## S3 Glacier Instant Retrieval
<a name="GIR"></a>

Wir empfehlen S3 Glacier Instant Retrieval für Langzeitdaten, auf die einmal pro Quartal zugegriffen wird und deren Abruf Millisekunden dauert. Diese Speicherklasse ist ideal für leistungskritische Anwendungsfälle wie das Hosten von Bildern, Filesharing-Anwendungen und das Speichern von Krankenakten für den Zugriff bei Terminen.

Die Speicherklasse S3 Glacier Instant Retrieval bietet Echtzeitzugriff auf Ihre Objekte und dieselbe Latenz- und Durchsatzleistung wie S3 Standard IA. Verglichen mit S3 Standard-IA hat S3 Glacier Instant Retrieval niedrigere Speicherkosten, jedoch höhere Datenzugriffskosten.

Für Daten, die in der Speicherklasse S3 Glacier Instant Retrieval gespeichert werden, gilt eine Mindestobjektgröße von 128 KB. Für diese Speicherklasse gilt außerdem eine Mindestspeicherzeit von 90 Tagen. 

## S3 Glacier Flexible Retrieval
<a name="GFR"></a>

Wir empfehlen die Verwendung von S3 Glacier Flexible Retrieval für Archivdaten, auf die Sie ein- bis zweimal pro Jahr zugreifen und die nicht sofort verfügbar sein müssen. S3 Glacier Flexible Retrieval bietet flexible Abrufzeiten, die Ihnen helfen, die Kosten im Gleichgewicht zu halten, Zugriffszeiten von wenigen Minuten bis hin zu Stunden sowie kostenlose Bulk-Abrufe. Diese Speicherklasse ist ideal für die Datensicherung und Notfallwiederherstellung.

Objekte, die in S3 Glacier Flexible Retrieval gespeichert werden, sind jedoch archiviert und nicht für den Echtzeitzugriff verfügbar. Weitere Informationen finden Sie unter [Grundlagen zur Archivspeicherung in S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive](archival-storage.md). Um auf diese Objekte zuzugreifen, initiieren Sie zunächst eine Wiederherstellungsanforderung, die eine temporäre Kopie des Objekts erstellt. Sobald die Anforderung abgeschlossen ist, können Sie dann darauf zugreifen. Weitere Informationen finden Sie unter [Arbeiten mit archivierten Objekten](archived-objects.md). Wenn Sie ein Objekt wiederherstellen, können Sie eine Abrufebene wählen, die Ihrem Anwendungsfall entspricht. Für längere Wiederherstellungszeiten sind die Kosten dabei geringer.

Für S3 Glacier Flexible Retrieval sind folgende Abrufebenen verfügbar:
+ **Beschleunigter Abruf**: Stellt das Objekt in der Regel innerhalb von 1 bis 5 Minuten wieder her. Beschleunigte Abrufe sind abhängig von der Nachfrage. Wenn Sie zuverlässige und vorhersehbare Wiederherstellungszeiten benötigen, sollten Sie daher bereitgestellte Abrufkapazität kaufen. Weitere Informationen finden Sie unter [Bereitgestellte Kapazität](restoring-objects-retrieval-options.md#restoring-objects-expedited-capacity).
+ **Standard-Abruf**: Stellt das Objekt in der Regel innerhalb von 3 bis 5 Stunden oder innerhalb von 1 Minute bis 5 Stunden wieder her, wenn Sie S3-Batchoperationen verwenden. Weitere Informationen finden Sie unter [Objekte mit Batch Operations wiederherstellen](batch-ops-initiate-restore-object.md).
+ **Bulk-Abruf**: Das Objekt wird in der Regel innerhalb von 5 bis 12 Stunden wiederhergestellt. Bulk-Abrufe sind kostenlos.

Bei allen Abruf-Optionen werden Objekte, die größer als 5 TB sind, in der Regel innerhalb von 48 Stunden abgeschlossen und haben einen Abrufdurchsatz von bis zu 300 Megabyte pro Sekunde (). MBps Weitere Informationen finden Sie unter [Verstehen von Archiv-Abrufoptionen](restoring-objects-retrieval-options.md).

Die Mindestspeicherzeit für Objekte in der Speicherklasse S3 Glacier Flexible Retrieval beträgt 90 Tage. 

S3 Glacier Flexible Retrieval erfordert 40 KB zusätzliche Metadaten für jedes Objekt. 32 KB Metadaten werden benötigt, um Ihre Daten zu identifizieren und abzurufen. Die Berechnung dieses Vorgangs erfolgt zum Standardtarif von S3 Glacier Flexible Retrieval. Weitere 8 KB Daten sind erforderlich, um den benutzerdefinierten Namen und die Metadaten für archivierte Objekte zu verwalten. Die Berechnung hierfür erfolgt zum S3-Standardtarif.

## S3 Glacier Deep Archive
<a name="GDA"></a>

Wir empfehlen die Verwendung von S3 Glacier Deep Archive für Archivdaten, auf die weniger als einmal pro Jahr zugegriffen wird. Diese Speicherklasse ist für die Beibehaltung von Datensätzen über mehrere Jahre konzipiert, um Compliance-Anforderungen zu erfüllen. Sie kann auch zu Zwecken der Sicherung oder Notfallwiederherstellung oder für Daten verwendet werden, auf die Sie selten zugreifen und auf deren Abruf Sie bis zu 72 Stunden warten können. S3 Glacier Deep Archive ist die kostengünstigste Speicheroption in AWS.

Objekte, die in S3 Glacier Deep Archive gespeichert werden, sind jedoch archiviert und nicht für den Echtzeitzugriff verfügbar. Weitere Informationen finden Sie unter [Grundlagen zur Archivspeicherung in S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive](archival-storage.md). Um auf diese Objekte zuzugreifen, initiieren Sie zunächst eine Wiederherstellungsanforderung, die eine temporäre Kopie des Objekts erstellt. Sobald die Anforderung abgeschlossen ist, können Sie dann darauf zugreifen. Weitere Informationen finden Sie unter [Arbeiten mit archivierten Objekten](archived-objects.md). Wenn Sie ein Objekt wiederherstellen, können Sie eine Abrufebene wählen, die Ihrem Anwendungsfall entspricht. Für längere Wiederherstellungszeiten sind die Kosten dabei geringer.

Für S3 Glacier Deep Archive sind folgende Abrufebenen verfügbar:
+ **Standard-Abruf**: Stellt das Objekt in der Regel innerhalb von 12 Stunden oder innerhalb von 9 bis 12 Stunden wieder her, wenn Sie S3-Batchoperationen verwenden. Weitere Informationen finden Sie unter [Objekte mit Batch Operations wiederherstellen](batch-ops-initiate-restore-object.md).
+ **Bulk-Abruf**: Stellt das Objekt in der Regel innerhalb von 48 Stunden wieder her, und das zu einem Bruchteil der Kosten der Standard-Abrufebene.

Die Mindestspeicherzeit für Objekte in der Speicherklasse S3 Glacier Deep Archive beträgt 180 Tage. 

S3 Glacier Deep Archive erfordert 40 KB zusätzliche Metadaten für jedes Objekt. 32 KB Metadaten werden benötigt, um Ihre Daten zu identifizieren und abzurufen. Die Berechnung dieses Vorgangs erfolgt zum Standardtarif von S3 Glacier Deep Archive. Weitere 8 KB Daten sind erforderlich, um den benutzerdefinierten Namen und die Metadaten für archivierte Objekte zu verwalten. Die Berechnung hierfür erfolgt zum S3-Standardtarif.

# Grundlagen zur Archivspeicherung in S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive
<a name="archival-storage"></a>

S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive sind Archivspeicherklassen. Das heißt, wenn Sie ein Objekt in diesen Speicherklassen speichern, wird es archiviert und Sie können nicht direkt darauf zugreifen. Um auf ein archiviertes Objekt zuzugreifen, senden Sie eine Wiederherstellungsanforderung für das Objekt und warten dann, bis der Service es wiederherstellt. Die Wiederherstellungsanforderung stellt eine temporäre Kopie des Objekts wieder her. Diese Kopie wird gelöscht, sobald die von Ihnen in der Anforderung angegebene Dauer abgelaufen ist. Weitere Informationen finden Sie unter [Arbeiten mit archivierten Objekten](archived-objects.md).

Die Überführung von Objekten in die Speicherklasse S3 Glacier Deep Archive ist nicht umkehrbar.

Wenn Sie die Speicherklasse eines archivierten Objekts in eine andere Speicherklasse ändern möchten, müssen Sie die Wiederherstellungsoperation verwenden, um zunächst eine temporäre Kopie des Objekts zu erstellen. Verwenden Sie dann den Kopiervorgang, um das Objekt zu überschreiben, indem Sie S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval oder Reduced Redundancy Storage als Speicherklasse angeben.

**Anmerkung**  
Die Copy-Operation für wiederhergestellte Objekte wird in der Amazon-S3-Konsole für Objekte in der Speicherklasse S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive nicht unterstützt. Verwenden Sie für diese Art von Kopiervorgang die AWS Command Line Interface (AWS CLI), die oder die AWS SDKs REST-API.

Sie können archivierte Objekte in diesen Speicherklassen mit bis zu 1.000 Transaktionen pro Sekunde (Transactions per second; TPS) an [Wiederherstellungsanforderungen für Objekte](https://docs.aws.amazon.com/AmazonS3/latest/API/API_RestoreObject.html) pro Konto pro AWS-Region wiederherstellen.

## Kostenüberlegungen
<a name="before-deciding-to-archive-objects"></a>

Wenn Sie vorhaben, Daten mit seltenem Zugriff für einen Zeitraum von Monaten oder Jahren zu archivieren, können die Speicherklassen S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive Ihre Speicherkosten reduzieren. Sie sollten jedoch Folgendes berücksichtigen, um sicherzustellen, dass die Speicherklasse S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive geeignet für Sie ist:
+ **Gebühren für zusätzlichen Speicheraufwand**: Für jedes archivierte Objekt werden 40 KB zusätzliche Metadaten benötigt. 32 KB Metadaten werden benötigt, um Ihre Daten zu identifizieren und abzurufen. Die Berechnung dieses Vorgangs erfolgt zum Standardtarif für diese Speicherklasse. Weitere 8 KB Daten sind erforderlich, um den benutzerdefinierten Namen und die Metadaten für archivierte Objekte zu verwalten. Die Berechnung hierfür erfolgt zum S3-Standardtarif.

  Wenn Sie kleine Objekte archivieren, sollten Sie diese Speichergebühren berücksichtigen. Ziehen Sie auch in Betracht, viele kleine Objekte in wenigen großen Objekten zusammenzufassen, um Kosten für den Verwaltungsaufwand zu reduzieren.
+ **Preise für mehrteilige Uploads** — Objekte in S3-storage-class-glacier; und S3 Glacier Deep Archive werden zu den Tarifen der Speicherklasse S3 Standard abgerechnet, wenn Sie sie mithilfe von mehrteiligen Uploads hochladen. Weitere Informationen finden Sie unter [Mehrteiliger Upload und Preise](mpuoverview.md#mpuploadpricing).
+ **30-Tage-Mindestspeichergebühr**: S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive sind langfristige Archivierungslösungen. Die Mindestspeicherdauer beträgt 90 Tage für die Speicherklasse S3 Glacier Flexible Retrieval und 180 Tage für S3 Glacier Deep Archive. Beim Löschen von Daten, die in diesen Speicherklassen archiviert wurden, fallen keine Gebühren an, wenn die von Ihnen gelöschten Objekte länger als die minimale Speicherdauer archiviert werden. Wenn Sie ein archiviertes Objekt innerhalb der Mindestspeicherdauer löschen oder überschreiben, stellt Amazon S3 eine anteilige Gebühr für die verbleibende Zeit in Rechnung. 
+ **Datenabrufgebühren**: Wenn Sie archivierte Objekte in S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive wiederherstellen, fallen Datenabrufgebühren pro Anforderung an. Diese Gebühren variieren je nach Abrufebene, die Sie beim Initiieren einer Wiederherstellung wählen. Informationen zu den Preisen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/). 
+ **S3 Lifecycle**: Wenn Sie archivierte Objekte in S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive wiederherstellen, fallen Datenabrufgebühren pro Anforderung an. Diese Gebühren variieren je nach Abrufebene, die Sie beim Initiieren einer Wiederherstellung wählen. Informationen zu den Preisen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/). 

## Wiederherstellen archivierter Objekte
<a name="restore-glacier-objects-concepts"></a>

Ein Zugriff auf archivierte Objekte ist nicht in Echtzeit möglich. Sie müssen zuerst eine Anforderung zur Wiederherstellung initiieren und dann warten, bis eine temporäre Kopie des Objekts für die Dauer bereitgestellt wird, die Sie in der Anforderung angegeben haben. Nachdem Sie eine temporäre Kopie des wiederhergestellten Objekts erhalten haben, bleibt die Speicherklasse des Objekts S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive. (Eine [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectHEAD.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectHEAD.html)- oder [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectGET.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectGET.html)-API-Operationsanforderung gibt S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive als Speicherklasse zurück.) 

**Anmerkung**  
Bei einer Wiederherstellung eines Archivs zahlen Sie sowohl für das Archiv (Tarif für S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive) als auch für die temporär wiederhergestellte Kopie (S3-Standard-Speichertarif). Informationen zu Preisen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/). 

Für den Zugriff auf ein kopiertes Objekt müssen Sie eine Anfrage zur Wiederherstellung initiieren. Das kann programmgesteuert oder über die Amazon-S3-Konsole erfolgen. Amazon S3 verarbeitet jeweils nur eine Anfrage pro Objekt. Weitere Informationen finden Sie unter [Wiederherstellen eines archivierten Objekts](restoring-objects.md).

## Wie sich diese Speicherklassen vom Amazon-Glacier-Service unterscheiden
<a name="glacier-storage-vs-service"></a>

Die S3-Glacier-Speicherklassen sind Teil des Amazon-S3-Services und speichern Daten als Objekte in S3-Buckets. Sie können Objekte in diesen Speicherklassen mit der S3-Konsole oder programmgesteuert mit S3 oder verwalten. APIs SDKs Wenn Sie Objekte in S3-Glacier-Speicherklassen speichern, können Sie S3-Funktionen wie etwa die erweiterte Verschlüsselung, das Objekt-Tagging und S3-Lifecycle-Konfigurationen verwenden, um den Datenzugriff und die Kosten zu verwalten. 

**Wichtig**  
Wir empfehlen, die S3-Glacier-Speicherklassen innerhalb des Amazon-S3-Services für alle Ihre langfristigen Daten zu verwenden.

Amazon Glacier ist ein separater Service, der Daten als Archive in Vaults speichert. Dieser Service unterstützt keine Amazon-S3-Funktionen und bietet keine Konsolenunterstützung für das Hoch- und Herunterladen von Daten. Es wird nicht empfohlen, den Amazon-Glacier-Service für Ihre langfristigen Daten zu verwenden. Auf in diesem Service gespeicherte Daten besteht über den Amazon-S3-Service kein Zugriff. Informationen zum Amazon-Glacier-Service finden Sie im [Entwicklerhandbuch für Amazon Glacier](https://docs.aws.amazon.com/amazonglacier/latest/dev/introduction.html). Informationen zum Übertragen von Daten vom Amazon Glacier-Service zu einer Speicherklasse in Amazon S3 finden Sie unter [Datenübertragung von Amazon Glacier Vaults zu Amazon S3](https://aws.amazon.com/solutions/implementations/data-transfer-from-amazon-s3-glacier-vaults-to-amazon-s3/) in der AWS Lösungsbibliothek.

# Arbeiten mit archivierten Objekten
<a name="archived-objects"></a>

Sie können Objekte, auf die selten zugegriffen wird, *archivieren*, um Ihre Speicherkosten dafür zu senken. Wenn Sie ein Objekt archivieren, wird es in einen kostengünstigen Speicher verschoben. Sie können also nicht in Echtzeit darauf zugreifen. 

Auf archivierte Objekte kann zwar nicht in Echtzeit zugegriffen werden, Sie können sie jedoch je nach Speicherklasse innerhalb von Minuten oder Stunden wiederherstellen. Sie können ein archiviertes Objekt mithilfe der Amazon S3 S3-Konsole, S3 Batch Operations, der REST-API AWS SDKs, der und der AWS Command Line Interface (AWS CLI) wiederherstellen. Detaillierte Anweisungen finden Sie unter [Wiederherstellen eines archivierten Objekts](restoring-objects.md).

Amazon-S3-Objekte in den folgenden Speicherklassen oder -stufen werden archiviert. Es kann nicht in Echtzeit darauf zugegriffen werden: 
+ Die Speicherklasse S3 Glacier Flexible Retrieval
+ Die Speicherklasse S3 Glacier Deep Archive
+ Die Zugriffsebene S3 Intelligent-Tiering Archive
+ Die Zugriffsebene S3 Intelligent-Tiering Deep Archive

Um archivierte Objekte wiederherzustellen, müssen Sie die folgenden Schritte ausführen:
+ Für Objekte in den Speicherklassen S3 Glacier Flexible Retrieval und S3-Glacier Deep Archive müssen Sie eine Wiederherstellungsanforderung einleiten und warten, bis eine temporäre Kopie des Objekts verfügbar ist. Wenn eine temporäre Kopie des wiederhergestellten Objekts erstellt wird, bleibt die Speicherklasse des Objekts unverändert. (Eine [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectHEAD.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectHEAD.html)- oder [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectGET.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectGET.html)-API-Operationsanforderung gibt S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive als Speicherklasse zurück.) 
+ Für Objekte in den Zugriffsebenen S3 Intelligent-Tiering Archive und S3 Intelligent-Tiering Deep Archive müssen Sie eine Wiederherstellungsanforderung einleiten und warten, bis das Objekt in die Stufe für häufigen Zugriff verschoben wird. 

Weitere Informationen darüber, wie sich alle Amazon S3-Speicherklassen vergleichen, finden Sie unter [Verstehen und Verwalten von Amazon-S3-Speicherklassen](storage-class-intro.md). Weitere Informationen zu S3 Intelligent-Tiering finden Sie unter [So funktioniert S3 Intelligent-Tiering](intelligent-tiering-overview.md).

Die Zeit, die für den Abschluss eines Wiederherstellungsauftrags benötigt wird, hängt davon ab, welche Archivspeicherklasse oder Speicherebene Sie verwenden und welche Abrufoption Sie angeben: Beschleunigt (nur für S3 Glacier Flexible Retrieval und S3 Intelligent Tiering Archive Access verfügbar), Standard, oder Bulk. Weitere Informationen finden Sie unter [Verstehen von Archiv-Abrufoptionen](restoring-objects-retrieval-options.md).

Sie können über Amazon-S3-Ereignisbenachrichtigungen über den Abschluss der Wiederherstellung benachrichtigt werden. Weitere Informationen finden Sie unter [Amazon-S3-Ereignisbenachrichtigungen](EventNotifications.md).

## Wiederherstellen von Objekten aus Amazon Glacier
<a name="archived-objects-glacier"></a>

Wenn Sie S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive verwenden, stellt Amazon S3 eine temporäre Kopie des Objekts nur für die angegebene Dauer wieder her. Anschließend wird die Kopie des wiederhergestellten Objekts gelöscht. Sie können den Ablaufzeitraum einer wiederhergestellten Kopie durch die erneute Ausgabe einer Wiederherstellungsanforderung ändern. In diesem Fall aktualisiert Amazon S3 den Ablaufzeitraum relativ zum aktuellen Zeitraum. 

**Anmerkung**  
Bei einer Wiederherstellung eines archivierten Objekts von S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive zahlen Sie sowohl für das archivierte Objekt als auch für die temporär wiederhergestellte Kopie. Informationen zu Preisen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).

Amazon S3 berechnet die Ablaufzeit der wiederhergestellten Objektkopie durch Addition der Anzahl der in der Wiederherstellungsanforderung angegebenen Tage zum Zeitpunkt, wenn die angeforderte Wiederherstellung abgeschlossen wird. Anschließend rundet Amazon S3 die so berechnete Zeit auf den nächsten Tag um Mitternacht (UTC) auf. Beispiel: Angenommen, ein Objekt wurde am 15. Oktober 2012 um 10:30 Uhr UTC erstellt und als Wiederherstellungszeitraum wurden drei Tage angegeben. In diesem Fall läuft die wiederhergestellte Kopie am 19. Oktober 2012 um 00:00 Uhr UTC ab, zu welchem Zeitpunkt Amazon S3 die Objektkopie löscht. 

## Wiederherstellen von Objekten aus S3 Intelligent-Tiering
<a name="archived-objects-int"></a>

Wenn Sie ein Objekt aus der S3 Intelligent-Tiering Archive Access Tier oder S3 Intelligent-Tiering Deep Archive Access Tier wiederherstellen, wird das Objekt zurück in die S3 Intelligent-Tiering Frequent Access Tier verschoben. Wenn nach 30 aufeinanderfolgenden Tagen nicht auf das Objekt zugegriffen wird, wird es automatisch in Infrequent Access Tier verschoben. Das Objekt wechselt nach mindestens 90 aufeinanderfolgenden Tagen ohne Zugriff automatisch in die S3 Intelligent-Tiering Archive Access Tier. Wenn mindestens 180 aufeinanderfolgende Tage nicht auf ein Objekt zugegriffen wird, wird das Objekt in Deep Archive Access Tier verschoben.

**Anmerkung**  
Im Gegensatz zu den Speicherklassen S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive akzeptieren Wiederherstellungsanforderungen für S3-Intelligent-Tiering-Objekte den `Days`-Wert nicht. 

## Verwenden von S3-Batch-Operationen mit Wiederherstellungsanforderungen
<a name="using-batch-ops-with-restore-requests"></a>

Zur Wiederherstellung von mehr als einem Amazon S3-Objekt in einer einzigen Anforderung können Sie S3-Batch-Vorgänge nutzen. Sie stellen S3 Batch Operations eine Liste von Objekten zur Verfügung, für die Vorgänge ausgeführt werden sollen. S3-Batchoperationen rufen die entsprechende API-Operation auf, um die angegebene Operation auszuführen. Ein einzelner Batch-Operations-Auftrag kann die angegebene Operation für Milliarden von Objekten ausführen, die Exabytes von Daten enthalten. 

**Topics**
+ [Wiederherstellen von Objekten aus Amazon Glacier](#archived-objects-glacier)
+ [Wiederherstellen von Objekten aus S3 Intelligent-Tiering](#archived-objects-int)
+ [Verwenden von S3-Batch-Operationen mit Wiederherstellungsanforderungen](#using-batch-ops-with-restore-requests)
+ [Verstehen von Archiv-Abrufoptionen](restoring-objects-retrieval-options.md)
+ [Wiederherstellen eines archivierten Objekts](restoring-objects.md)

# Verstehen von Archiv-Abrufoptionen
<a name="restoring-objects-retrieval-options"></a>

Amazon S3 verfügt über drei Archivspeicherklassen: S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive. Objekte, die in der Speicherklasse S3 Glacier Instant Retrieval gespeichert sind, sind zwar sofort verfügbar`GET`, aber um auf Daten zuzugreifen, die in den Speicherklassen S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive gespeichert sind, müssen Sie zunächst Daten mithilfe der [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectPOSTrestore.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectPOSTrestore.html)REST-API abrufen. Die Wiederherstellung von Datensätzen, die aus zig Millionen Objekten oder Hunderten von Terabyte an Daten bestehen, kann länger dauern als die üblichen Wiederherstellungszeiten und erfordert besondere Überlegungen. Weitere Informationen finden Sie unter [Wiederherstellung großer Datenmengen](#restoring-objects-large-datasets).

Sie können zwischen drei Zugriffsoptionen für den Abruf wählen, um Ihre archivierten Objekte je nach gewünschter Abrufgeschwindigkeit wiederherzustellen: Expressversand, Standard und Massenabruf.
+ **Beschleunigter Abruf** — Greifen Sie schnell auf Ihre Daten zu, die in der Speicherklasse S3 Glacier Flexible Retrieval oder der Stufe S3 Intelligent-Tiering Archive Access gespeichert sind. Sie können diese Option für gelegentliche dringende Anfragen für bis zu Hunderte von Objekten verwenden. Objekte mit einer Größe von weniger als 250 Megabyte werden in der Regel innerhalb von 1—5 Minuten verfügbar gemacht, und Objekte mit einer Größe von 250 Megabyte oder mehr werden in der Regel mit einem Abrufdurchsatz von bis zu 300 Megabyte pro Sekunde abgerufen. Darüber hinaus haben Sie die Möglichkeit, bereitgestellte Kapazität für beschleunigte Abrufe zu erwerben. Mit Provisioned Capacity wird sichergestellt, dass die Kapazität für beschleunigte Abrufe verfügbar ist, wenn Sie sie benötigen. Weitere Informationen finden Sie unter [Bereitgestellte Kapazität](#restoring-objects-expedited-capacity).
**Anmerkung**  
Beschleunigte Abrufe sind eine Premium-Funktion, die mit dem Tarif für beschleunigte Anforderungen und Abrufe berechnet wird. Informationen zu Amazon-S3-Preisen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).
+ **Standardabruf — Greifen Sie innerhalb** weniger Stunden auf Ihre Daten zu. Standard ist die Standardoption für Anfragen, bei denen die Abrufoption nicht angegeben ist. Standardabrufe für die Speicherklasse S3 Glacier Flexible Retrieval oder die Stufe S3 Intelligent-Tiering Archive Access werden in der Regel innerhalb von 3—5 Stunden abgeschlossen. Standardabrufe für die Speicherklasse S3 Glacier Deep Archive oder die Stufe S3 Intelligent-Tiering Deep Archive Access werden in der Regel innerhalb von 12 Stunden abgeschlossen. Standardabrufe sind für Objekte, die in der Speicherklasse S3 Intelligent-Tiering gespeichert sind, kostenlos.
**Anmerkung**  
Bei Objekten, die in der Speicherklasse S3 Glacier Flexible Retrieval oder der Stufe S3 Intelligent-Tiering Archive Access gespeichert sind, beginnen Standardabrufe, die mithilfe des Wiederherstellungsvorgangs S3 Batch Operations initiiert werden, in der Regel innerhalb von Minuten und enden innerhalb von 3 bis 5 Stunden bei einem Durchsatz von bis zu 1—2 Petabyte pro Tag.
Bei Objekten der Speicherklasse S3 Glacier Deep Archive oder der Stufe S3 Intelligent-Tiering Deep Archive Access werden Standardabrufe, die mithilfe von Batch Operations initiiert wurden, in der Regel innerhalb von 9 Stunden abgeschlossen, wobei ein Durchsatz von bis zu 1—2 Petabyte pro Tag erreicht wird.
+ **Massenabruf** — Greifen Sie auf Ihre Daten zu, indem Sie die kostengünstigste Abrufoption der S3 Glacier-Speicherklassen verwenden. Mit Massenabrufen können Sie große Datenmengen kostengünstig abrufen. Bei Objekten, die in der Speicherklasse S3 Glacier Flexible Retrieval oder der Stufe S3 Intelligent-Tiering Archive Access gespeichert sind, werden Massenabrufe in der Regel innerhalb von 5—12 Stunden abgeschlossen. Für Objekte, die in der Speicherklasse S3 Glacier Deep Archive oder der Speicherebene S3 Intelligent-Tiering Deep Archive gespeichert sind, enden diese Abrufe in der Regel innerhalb von 48 Stunden. Massenabrufe sind für Objekte, die in den Speicherklassen S3 Glacier Flexible Retrieval oder S3 Intelligent-Tiering gespeichert sind, kostenlos.

Die folgende Tabelle fasst die Archivabrufoptionen zusammen. Informationen zu Preisen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).


| Speicherklasse oder -stufe | Expedited (Beschleunigt) | Standard (mit Batch Operations) | Standard (ohne Batch Operations) | Masse | 
| --- | --- | --- | --- | --- | 
|  S3 Glacier Flexible Retrieval oder S3 Intelligent Tiering Archive Access  |  1-5 Minuten  |  Wenige Minuten bis zu 5 Stunden  |  3-5 Stunden  |  5-12 Stunden  | 
|  S3 Glacier Deep Archive oder S3-Intelligent-Tiering-Deep-Archive-Access  |  Nicht verfügbar  |  9–12 Stunden  |  Innerhalb von 12 Stunden  |  Innerhalb von 48 Stunden  | 

Um einen oder `Bulk` -Abruf `Standard` durchzuführen`Expedited`, setzen Sie das `Tier` Anforderungselement in der [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectPOSTrestore.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectPOSTrestore.html)REST-API-Operationsanforderung auf die gewünschte Option oder die entsprechende Option in () oder. AWS Command Line Interface AWS CLI AWS SDKs Wenn Sie bereitgestellte Durchsatzkapazität gekauft haben, werden alle Expedited-Abrufe automatisch über Ihre bereitgestellte Kapazität erledigt. 

## Wiederherstellung großer Datenmengen
<a name="restoring-objects-large-datasets"></a>

Die Wiederherstellung von Datensätzen, die aus zig Millionen Objekten oder Hunderten von Terabyte an Daten bestehen, kann aufgrund von Abrufbeschränkungen länger dauern als die typischen Wiederherstellungszeiten für jede Abrufebene.

Wenn Sie Wiederherstellungsanforderungen für Objekte initiieren, die in den Speicherklassen S3 Glacier Flexible Retrieval, S3 Glacier Deep Archive oder S3 Intelligent-Tiering gespeichert sind, wird für Sie ein Kontingent für Abrufanforderungen angewendet. AWS-Konto S3 Glacier unterstützt Wiederherstellungsanforderungen mit einer Geschwindigkeit von 1 000 Transaktionen pro Sekunde. Wenn diese Rate überschritten wird, werden andernfalls gültige Anfragen gedrosselt oder zurückgewiesen und Amazon S3 gibt einen `ThrottlingException`-Fehler zurück. Sie können S3 Batch Operations verwenden, um viele Objekte mit einer einzigen Anfrage abzurufen, wodurch die in Ihrem Konto verfügbare Rate an Wiederherstellungsanforderungen voll ausgeschöpft wird. Weitere Informationen finden Sie unter [Ausführen von Objektoperationen in großem Umfang mit Batch Operations](batch-ops.md).

Nachdem Sie Wiederherstellungsanfragen initiiert haben, unterstützt S3 Glacier die Wiederherstellung großer Datensätze mit einem Durchsatz von bis zu 1—2 Petabyte pro Tag und Kundenkonto. Bei allen Abruf-Optionen dauert die Wiederherstellung von Objekten, die größer als 5 Terabyte sind, länger. Der Abrufdurchsatz beträgt bis zu 300 Megabyte pro Sekunde. Beispielsweise kann die Fertigstellung eines S3 Glacier Flexible Retrieval-Objekts mit 50 Terabyte bis zu 48 Stunden dauern. Wenn Sie höhere Wiederherstellungslimits benötigen, können Sie sich an den AWS Support wenden.

## Bereitgestellte Kapazität
<a name="restoring-objects-expedited-capacity"></a>

Die bereitgestellte Kapazität hilft sicherzustellen, dass für Ihre Expedited-Abrufe aus S3 Glacier Flexible Retrieval Abrufkapazität verfügbar ist, wenn Sie sie benötigen. Jede Kapazitätseinheit sorgt dafür, dass mindestens drei beschleunigte Abrufe alle 5 Minuten durchgeführt werden können, und sie bietet einen Abrufdurchsatz von bis zu 300 Megabyte pro Sekunde.

Ohne bereitgestellte Kapazität werden beschleunigte Abrufe in Zeiten hoher Nachfrage möglicherweise nicht akzeptiert. [Für einen vorhersehbaren, schnellen Zugriff auf einen größeren Teil Ihrer Daten sollten Sie die Speicherklasse S3 Glacier Instant Retrieval in Betracht ziehen.](https://aws.amazon.com/s3/storage-classes/glacier/instant-retrieval/)

Bereitgestellte Kapazitätseinheiten werden einem zugewiesen. AWS-Konto Daher sollte der Antragsteller des beschleunigten Datenabrufs die bereitgestellte Kapazitätseinheit erwerben, nicht der Bucket-Eigentümer.

Sie können bereitgestellte Kapazität erwerben, indem Sie die Amazon S3 S3-Konsole, die Amazon Glacier-Konsole, den REST-API-Vorgang [Purchase Provisioned Capacity](https://docs.aws.amazon.com/amazonglacier/latest/dev/api-PurchaseProvisionedCapacity.html) AWS SDKs, den oder den verwenden. AWS CLI Weitere Informationen zu den Preisen für die bereitgestellte Kapazität finden Sie in der [Amazon S3-Preisliste](https://aws.amazon.com/s3/pricing/).

# Wiederherstellen eines archivierten Objekts
<a name="restoring-objects"></a>

Amazon-S3-Objekte in den folgenden Speicherklassen oder -stufen werden archiviert. Es kann nicht in Echtzeit darauf zugegriffen werden: 
+ Die Speicherklasse S3 Glacier Flexible Retrieval
+ Die Speicherklasse S3 Glacier Deep Archive
+ Die Zugriffsebene S3 Intelligent-Tiering Archive
+ Die Zugriffsebene S3 Intelligent-Tiering Deep Archive

Ein Zugriff auf in der Speicherklasse S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive gespeicherte Amazon-S3-Objekte ist nicht unmittelbar möglich. Um auf ein Objekt in diesen Speicherklassen zuzugreifen, müssen Sie eine temporäre Kopie des Objekts für eine angegebene Dauer (Anzahl von Tagen) in seinem S3-Bucket wiederherstellen. Wenn Sie eine permanente Kopie des Objekts benötigen, stellen Sie das Objekt wieder her und legen Sie dann eine Kopie davon in Ihrem Amazon S3-Bucket an. Das Kopieren wiederhergestellter Objekte wird in der Amazon-S3-Konsole nicht unterstützt. Verwenden Sie für diese Art von Kopiervorgang die AWS Command Line Interface (AWS CLI) AWS SDKs, die oder die REST-API. Wenn Sie keine Kopie erstellen und die Speicherklasse ändern, wird das Objekt weiterhin in den Speicherklassen S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive gespeichert. Informationen zur Verwendung dieser Speicherklassen finden Sie unter [Speicherklassen für Objekte, auf die selten zugegriffen wird](storage-class-intro.md#sc-glacier).

Für Zugriff auf Objekte in den S3 Intelligent-Tiering Archive Access und Deep Archive Access müssen Sie eine Wiederherstellungsanforderung initiieren und warten, bis das Objekt in die Stufe für häufigen Zugriff verschoben wird, um darauf zuzugreifen. Wenn Sie ein Objekt aus den Stufen Archive Access oder Deep Archive Access wiederherstellen, wird das Objekt zurück in die Stufe für häufige Zugriffe übergehen. Informationen zur Verwendung dieser Speicherklassen finden Sie unter [Speicherklasse zur automatischen Optimierung von Daten mit sich ändernden oder unbekannten Zugriffsmustern](storage-class-intro.md#sc-dynamic-data-access).

Allgemeine Informationen über archivierte Objekte finden Sie unter [Arbeiten mit archivierten Objekten](archived-objects.md).

**Anmerkung**  
Bei Wiederherstellung eines archivierten Objekts aus den Speicherklassen S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive zahlen Sie sowohl für das archivierte Objekt als auch für die temporär wiederhergestellte Kopie. 
Wenn Sie ein Objekt aus S3 Intelligent-Tiering wiederherstellen, fallen keine Abrufgebühren für Standard- oder Massenabrufe an. 
Nachfolgende Wiederherstellungsanforderungen für archivierte Objekte, die bereits wiederhergestellt wurden, werden als `GET`-Anforderungen abgerechnet. Informationen zu Preisen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/). 

## Wiederherstellen eines archivierten Objekts
<a name="restore-archived-objects"></a>

Sie können ein archiviertes Objekt mithilfe der Amazon S3 S3-Konsole, der Amazon S3 S3-REST-API, der AWS SDKs, AWS Command Line Interface (AWS CLI) oder S3 Batch Operations wiederherstellen. 

### Verwenden der S3-Konsole
<a name="restoring-objects-console"></a>

**Wiederherstellung von Objekten mithilfe der Amazon-S3-Konsole**  
Gehen Sie wie folgt vor, um ein Objekt wiederherzustellen, das in den Speicherklassen „S3 Glacier Flexible Retrieval“ oder „S3 Glacier Deep Archive“ bzw. in den Speicherstufen „S3 Intelligent-Tiering Archive Access“ oder „Deep Archive Access“ archiviert wurde.

**So stellen Sie ein archiviertes Objekt wieder her**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus.

1. Wählen Sie in der Liste Buckets den Namen des Buckets aus, der die Objekte enthält, die Sie wiederherstellen möchten.

1. Wählen Sie in der Liste **Object (Objekt)** das/die Objekt(e) aus, das/die Sie wiederherstellen möchten. Wählen Sie anschließend **Actions (Aktionen)** und dann **Initiate restore (Wiederherstellung initiieren)** aus.

1. Wenn Sie von S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive wiederherstellen, geben Sie im Dialogfeld **Anzahl der Tage, die die wiederhergestellte Kopie verfügbar ist** die Anzahl der Tage ein, die die archivierten Daten verfügbar sein sollen. 

1. Führen Sie bei **Abrufoptionen** einen der folgenden Schritte aus:
   + Wählen Sie **Massenabruf** oder **Standardabruf** und dann **Wiederherstellen starten** aus. 
   + Wählen Sie **Expedited retrieval (Expedited-Abruf)** (nur für S3 Glacier Flexible Retrieval oder S3 Intelligent Tiering Archive Access verfügbar). Wenn Sie ein Objekt in S3 Glacier Flexible Retrieval wiederherstellen, können Sie auswählen, ob Sie bereitgestellte Kapazität für Ihren Expressabruf erwerben möchten. Wenn Sie bereitgestellte Kapazität erwerben möchten, fahren Sie mit dem nächsten Schritt fort. Wenn Sie dies nicht wünschen, wählen Sie **Wiederherstellen starten** aus.
**Anmerkung**  
Objekte aus den Stufen S3 Intelligent-Tiering Archive Access und Deep Archive Access werden automatisch in der Stufe für häufige Zugriffe wiederhergestellt.

1. (Optional) Wenn Sie ein Objekt in S3 Glacier Flexible Retrieval wiederherstellen und **Beschleunigter Abruf** auswählen, können Sie sich entscheiden, ob Sie bereitgestellte Kapazität erwerben möchten. Die bereitgestellte Kapazität steht nur für Objekte in S3 Glacier Flexible Retrieval zur Verfügung. Wenn Sie bereits über bereitgestellte Kapazität verfügen, wählen Sie **Wiederherstellen starten** aus, um einen bereitgestellten Abruf zu starten. 

   Wenn Sie bereitgestellte Durchsatzkapazität gekauft haben, werden alle Ihre Expedited-Abrufe automatisch über Ihre bereitgestellte Kapazität erledigt. Weitere Informationen finden Sie unter [Bereitgestellte Kapazität](restoring-objects-retrieval-options.md#restoring-objects-expedited-capacity). 
   + Wenn Sie nicht über bereitgestellte Kapazität verfügen und auch keine kaufen möchten, wählen Sie **Wiederherstellen starten** aus. 
   + **Wenn Sie keine bereitgestellte Kapazität haben, aber bereitgestellte Kapazitätseinheiten (PCUs) kaufen möchten, wählen Sie Kaufen. PCUs** **Wählen Sie im PCUs Dialogfeld **Kaufen** aus, wie viele PCUs Sie kaufen möchten, bestätigen Sie Ihren Kauf und wählen Sie dann Kaufen aus. PCUs** Wenn Sie die Meldung **Kauf erfolgreich** erhalten, wählen Sie **Wiederherstellen starten** aus, um den bereitgestellten Abruf zu starten.

### Verwenden Sie den AWS CLI
<a name="restoring-objects-cli"></a>

**Objekte aus S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive wiederherstellen**  
Im folgenden Beispiel wird mit dem `restore-object`-Befehl das Objekt *`dir1/example.obj`* 25 Tage lang in Bucket `amzn-s3-demo-bucket` wiederhergestellt.

```
aws s3api restore-object --bucket amzn-s3-demo-bucket --key dir1/example.obj --restore-request '{"Days":25,"GlacierJobParameters":{"Tier":"Standard"}}'
```

Wenn die im Beispiel verwendete JSON-Syntax zu einem Fehler auf einem Windows-Client führt, ersetzen Sie die Wiederherstellungsanforderung durch die folgende Syntax:

```
--restore-request Days=25,GlacierJobParameters={"Tier"="Standard"}
```

**Objekte aus S3 Intelligent-Tiering Archive Access und Deep Archive Access wiederherstellen**  
Im folgenden Beispiel wird mit dem `restore-object`-Befehl das Objekt *`dir1/example.obj`* im -Bucket `amzn-s3-demo-bucket` auf der Stufe Frequent Access wiederhergestellt.

```
aws s3api restore-object --bucket amzn-s3-demo-bucket --key dir1/example.obj --restore-request '{}'
```

**Anmerkung**  
Im Gegensatz zu den Speicherklassen S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive akzeptieren Wiederherstellungsanforderungen für S3-Intelligent-Tiering-Objekte den `Days`-Wert nicht.

**Den Wiederherstellungsstatus überwachen**  
Sie können den folgenden `head-object`-Befehl verwenden, um den Status Ihrer `restore-object`-Anforderung zu überwachen:

```
aws s3api head-object --bucket amzn-s3-demo-bucket --key dir1/example.obj
```

Weitere Informationen finden Sie unter [https://docs.aws.amazon.com//cli/latest/reference/s3api/restore-object.html](https://docs.aws.amazon.com//cli/latest/reference/s3api/restore-object.html) in der Referenz zum *AWS CLI -Befehl*.

### Verwenden der REST-API
<a name="restoring-objects-rest"></a>

Amazon S3 stellt einen API-Vorgang für Sie bereit, um die Wiederherstellung eines Archivs zu starten. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectPOSTrestore.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectPOSTrestore.html) in der *API-Referenz zu Amazon Simple Storage Service*.

### Mit dem AWS SDKs
<a name="restoring-objects-sdks"></a>

Beispiele für die Wiederherstellung archivierter Objekte in S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive mit dem finden Sie in den AWS SDKs [Codebeispielen](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_RestoreObject_section.html) in der *Amazon S3 S3-API-Referenz.*

### Verwendung von S3 Batch Operations
<a name="restoring-int-tier-archive-objects-batch-ops"></a>

Zur Wiederherstellung von mehr als einem archivierten Objekt in einer einzigen Anforderung können Sie S3 Batch Operations nutzen. Sie stellen S3 Batch Operations eine Liste von Objekten zur Verfügung, für die Vorgänge ausgeführt werden sollen. S3-Batchoperationen rufen die entsprechende API-Operation auf, um die angegebene Operation auszuführen. Ein einzelner Batch-Operations-Auftrag kann die angegebene Operation für Milliarden von Objekten ausführen, die Exabytes von Daten enthalten. 

Um einen Batch-Operations-Auftrag zu erstellen, benötigen Sie ein Manifest, das nur die Objekte enthält, die Sie wiederherstellen möchten. Sie können mithilfe von S3 Inventory ein Manifest erstellen oder eine CSV-Datei mit den erforderlichen Informationen bereitstellen. Weitere Informationen finden Sie unter [Angeben eines Manifests](batch-ops-create-job.md#specify-batchjob-manifest).

Bevor Sie S3-Batch-Operations-Aufträge erstellen und ausführen, müssen Sie Amazon S3 die Erlaubnis erteilen, S3-Batch-Operations in Ihrem Namen durchzuführen. Die erforderlichen Berechtigungen finden Sie unter [Gewähren von Berechtigungen für Batchoperationen](batch-ops-iam-role-policies.md).

**Anmerkung**  
Batch-Operations-Aufträge können entweder mit Objekte der Speicherklassen S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive *oder* mit Objekten der Speicherstufen S3 Intelligent-Tiering Archive Access  und Deep Archive Access arbeiten. Batch Operations kann im selben Auftrag nicht für beide Typen von archivierten Objekten ausgeführt werden. Um Objekte beider Typen wiederherzustellen, *müssen* Sie separate Batchoperations-Aufgaben erstellen.  
Weitere Informationen zur Verwendung von Batch Operations zum Wiederherstellen archivierter Objekte finden Sie unter [Objekte mit Batch Operations wiederherstellen](batch-ops-initiate-restore-object.md).

**So erstellen Sie einen S3-Auftrag „Initiate Restore Object Batch Operations“**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Klicken Sie im linken Navigationsbereich auf **Batchvorgänge**.

1. Wählen Sie **Job erstellen** aus.

1. Wählen Sie für **AWS-Region** die Region aus, in der Sie Ihren Auftrag erstellen möchten.

1. Wählen Sie unter **Manifestformat** das zu verwendende Manifest aus.
   + Wenn Sie **S3-Bestandsbericht** auswählen, geben Sie den Pfad zum `manifest.json`-Objekt ein, das Amazon S3 als Teil des Bestandsberichts im CSV-Format generiert hat. Wenn Sie nicht das aktuelle Manifest verwenden möchten, können Sie optional die Versions-ID des `manifest.json`-Objekts angeben.
   + Wenn Sie **CSV** auswählen, geben Sie den Pfad zu einem CSV-formatierten Manifestobjekt ein. Das Manifestobjekt muss das in der Konsole beschriebene Format befolgen. Wenn Sie nicht die aktuelle Version verwenden möchten, können Sie optional die Versions-ID des Manifestobjekts angeben.

1. Wählen Sie **Weiter** aus.

1. Wählen Sie im Abschnitt **Operation** die Option **Wiederherstellen** aus.

1. Wählen Sie im Abschnitt **Wiederherstellen** bei **Quelle wiederherstellen** entweder **Glacier Flexible Retrieval oder Glacier Deep Archive** bzw. die Stufe **Intelligent-Tiering Archive Access oder Deep Archive Access** aus. 

   Wenn Sie **Glacier Flexible Retrieval oder Glacier Deep Archive** auswählen, geben Sie eine Zahl für die **Anzahl der Tage, an denen die wiederhergestellte Kopie verfügbar ist** ein. 

   Wählen Sie bei **Abrufstufe** die zu verwendende Stufe aus.

1. Wählen Sie **Weiter** aus.

1. 

   Füllen Sie auf der Seite **Zusätzliche Optionen konfigurieren** die folgenden Abschnitte aus: 
   + Geben Sie im Abschnitt **Zusätzliche Optionen** eine Beschreibung des Auftrags und eine Prioritätsnummer für den Auftrag an. Höhere Nummern bedeuten eine höhere Priorität. Weitere Informationen finden Sie unter [Zuweisen der Auftragspriorität](batch-ops-job-priority.md).
   + Wählen Sie im Abschnitt **Abschlussbericht** aus, ob Batch Operations einen Abschlussbericht erstellen soll. Weitere Informationen zu den Fertigstellungsberichten finden Sie unter [Abschlussberichte](batch-ops-job-status.md#batch-ops-completion-report).
   + Im Abschnitt **Berechtigungen** müssen Sie Amazon S3 die Erlaubnis erteilen, Batch Operations in Ihrem Namen durchzuführen. Die erforderlichen Berechtigungen finden Sie unter [Gewähren von Berechtigungen für Batchoperationen](batch-ops-iam-role-policies.md).
   + (Optional) fügen Sie im Abschnitt **Auftrags-Tags** Tags in Schlüssel-Wert-Paaren hinzu. Weitere Informationen finden Sie unter [Steuern von Zugriffs- und Labeling-Aufträgen mithilfe von Markierungen](batch-ops-job-tags.md).

   Wählen Sie **Weiter** aus, sobald Sie fertig sind.

1. Überprüfen Sie die Einstellungen auf der Seite **Review**. Wenn Sie Änderungen vornehmen müssen, wählen Sie **Previous**. Wählen Sie andernfalls **Auftrag erstellen**.

Weitere Informationen über Batch Operations finden Sie unter [Objekte mit Batch Operations wiederherstellen](batch-ops-initiate-restore-object.md) und [Erstellen eines S3-Batch-Vorgangsauftrags](batch-ops-create-job.md).

## Überprüfen des Wiederherstellungsstatus und des Ablaufdatums
<a name="restore-archived-objects-status"></a>

Sie können den Status einer Wiederherstellungsanfrage oder das Ablaufdatum überprüfen, indem Sie die Amazon S3 S3-Konsole, Amazon S3 S3-Ereignisbenachrichtigungen AWS CLI, die oder die Amazon S3 S3-REST-API verwenden.

**Anmerkung**  
Objekte, die aus den Speicherklassen S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive wiederhergestellt wurden, werden nur für die von Ihnen angegebene Anzahl von Tagen gespeichert. Mit den folgenden Verfahren wird das Ablaufdatum für diese Kopien zurückgegeben.   
Objekte, die aus den Speicherebenen S3 Intelligent-Tiering Archive Access und Deep Archive Access wiederhergestellt wurden, haben kein Ablaufdatum und werden stattdessen wieder in die Stufe Frequent Access verschoben.

### Verwenden der S3-Konsole
<a name="restore-archived-objects-status-console"></a>

**So überprüfen Sie den Wiederherstellungsstatus und das Ablaufdatum eines Objekts in der Amazon-S3-Konsole**

1. Öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus.

1. Wählen Sie in der Liste Buckets den Namen des Buckets aus, der die Objekte enthält, die Sie wiederherstellen.

1. Wählen Sie in der Liste **Objekte** das Objekt aus, das Sie wiederherstellen. Die Seite mit den Objektdetails wird angezeigt. 
   + Wenn die Wiederherstellung noch nicht abgeschlossen ist, wird oben auf der Seite der Abschnitt **Wiederherstellung in Bearbeitung** angezeigt.
   + Wenn die Wiederherstellung abgeschlossen ist, wird oben auf der Seite der Abschnitt **Wiederherstellung abgeschlossen** angezeigt. Wenn Sie aus S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive wiederherstellen, werden in diesem Abschnitt auch das **Ablaufdatum der Wiederherstellung** angezeigt. Amazon S3 entfernt die wiederhergestellte Kopie aus dem archivierten Objekt an diesem Datum.

### Verwenden von Amazon-S3-Ereignisbenachrichtigungen
<a name="restore-archived-objects-status-event-notifications"></a>

Sie können sich über den Abschluss der Objektwiederherstellung benachrichtigen lassen, indem Sie die Aktion `s3:ObjectRestore:Completed` mit dem Feature Amazon-S3-Ereignisbenachrichtigungen verwenden. Weitere Informationen zum Aktivieren von Ereignisbenachrichtigungen finden Sie unter [Aktivieren von Benachrichtigungen mithilfe von Amazon SQS, Amazon SNS und](how-to-enable-disable-notification-intro.md). AWS Lambda Weitere Informationen zu den unterschiedlichen `ObjectRestore`-Ereignistypen finden Sie in [Unterstützte Ereignistypen für SQS, SNS und Lambda](notification-how-to-event-types-and-destinations.md#supported-notification-event-types).

### Verwenden von AWS CLI
<a name="restore-archived-objects-status-cli"></a>

**Überprüfen Sie den Wiederherstellungsstatus und das Ablaufdatum eines Objekts mit dem AWS CLI**  
Im folgenden Beispiel wird der `head-object`-Befehl verwendet, um Metadaten für das Objekt *`dir1/example.obj`* im Bucket `amzn-s3-demo-bucket` anzuzeigen. Wenn Sie diesen Befehl für ein wiederhergestelltes Objekt ausführen, gibt Amazon S3 zurück, ob die Wiederherstellung noch läuft und (falls zutreffend) das Ablaufdatum.

```
aws s3api head-object --bucket amzn-s3-demo-bucket --key dir1/example.obj
```

Erwartete Ausgabe (Wiederherstellung läuft):

```
{
    "Restore": "ongoing-request=\"true\"",
    "LastModified": "2020-06-16T21:55:22+00:00",
    "ContentLength": 405,
    "ETag": "\"b662d79adeb7c8d787ea7eafb9ef6207\"",
    "VersionId": "wbYaE2vtOV0iIBXrOqGAJt3fP1cHB8Wi",
    "ContentType": "binary/octet-stream",
    "ServerSideEncryption": "AES256",
    "Metadata": {},
    "StorageClass": "GLACIER"
}
```

Erwartete Ausgabe (Wiederherstellung abgeschlossen):

```
{
    "Restore": "ongoing-request=\"false\", expiry-date=\"Wed, 12 Aug 2020 00:00:00 GMT\"",
    "LastModified": "2020-06-16T21:55:22+00:00",
    "ContentLength": 405,
    "ETag": "\"b662d79adeb7c8d787ea7eafb9ef6207\"",
    "VersionId": "wbYaE2vtOV0iIBXrOqGAJt3fP1cHB8Wi",
    "ContentType": "binary/octet-stream",
    "ServerSideEncryption": "AES256",
    "Metadata": {},
    "StorageClass": "GLACIER"
}
```

Weitere Informationen zu `head-object` finden Sie unter [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/head-object.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/head-object.html) in der *AWS CLI -Befehlsreferenz*.

### Verwenden der REST-API
<a name="restore-archived-objects-status-api"></a>

Amazon S3 bietet eine API-Operation, mit der Sie Objektmetadaten abrufen können. Informationen zum Überprüfen des Wiederherstellungsstatus und des Ablaufdatums eines archivierten Objekts mithilfe der REST-API finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html) in der *Referenz zur API für Amazon Simple Storage Service*.

## Upgraden der Geschwindigkeit einer Wiederherstellung in Bearbeitung
<a name="restore-archived-objects-upgrade"></a>

Sie können die Geschwindigkeit einer Wiederherstellung in Bearbeitung upgraden.

**So upgraden Sie eine Wiederherstellung in Bearbeitung auf eine schnellere Stufe:**

1. Öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Buckets** aus.

1. Wählen Sie in der Liste **Buckets** den Namen des Buckets aus, der die Objekte enthält, die Sie wiederherstellen möchten.

1. Wählen Sie in der Liste **Objekte** das Objekt aus, das Sie wiederherstellen. Die Seite mit den Objektdetails wird angezeigt. Wählen Sie auf der Detailseite des Objekts **Upgrade-Abrufstufe**. Informationen zum Überprüfen des Wiederherstellungsstatus eines Objekts finden Sie unter [Überprüfen des Wiederherstellungsstatus und des Ablaufdatums](#restore-archived-objects-status). 

1. Wählen Sie die Stufe aus, auf die Sie upgraden möchten, und dann **Wiederherstellen starten** aus. 