

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Verwalten des Lebenszyklus von Objekten
<a name="object-lifecycle-mgmt"></a>

S3 Lebenszyklus hilft Ihnen dabei, Objekte während ihres gesamten Lebenszyklus kostengünstig zu speichern, indem es sie in kostengünstigere Speicherklassen überträgt oder abgelaufene Objekte für Sie löscht. Um den Lebenszyklus Ihrer Objekte zu verwalten, erstellen Sie eine *S3-Lebenszykluskonfiguration* für Ihren Bucket. Eine S3-Lebenszykluskonfiguration besteht aus einer Reihe von Regeln, mit denen Aktionen definiert werden, die Amazon S3 auf eine Gruppe von Objekten anwendet. Es gibt zwei Aktionstypen:
+ **Übergangsaktionen** – Diese Aktionen definieren, wann Objekte in eine andere Speicherklasse übergehen. Beispielsweise können Sie festlegen, dass Objekte 30 Tage nach ihrer Erstellung in die Speicherklasse S3 Standard-IA (IA steht für „Infrequent Access“, seltener Zugriff) übergehen und ein Jahr nach ihrer Erstellung in der Speicherklasse S3 Glacier Flexible Retrieval archiviert werden sollen. Weitere Informationen finden Sie unter [Verstehen und Verwalten von Amazon-S3-Speicherklassen](storage-class-intro.md). 

  Mit Lebenszyklus-Überführungsanforderungen sind Kosten verbunden. Informationen zu den Preisen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).
+ **Ablaufaktionen** – Diese Aktionen definieren, wann Objekte ablaufen. Amazon S3 löscht abgelaufene Objekte in Ihrem Namen. Sie könnten sich beispielsweise dafür entscheiden, Objekte ablaufen zu lassen, nachdem sie für einen bestimmten Zeitraum gespeichert wurden. Weitere Informationen finden Sie unter [Ablauf von Objekten](lifecycle-expire-general-considerations.md).

  Es sind nur dann potenzielle Kosten mit dem Ablauf des Lebenszyklus verbunden, wenn Sie Objekte in einer Speicherklasse mit einer Mindestspeicherdauer ablaufen lassen. Weitere Informationen finden Sie unter [Gebühren für Mindestspeicherdauer](lifecycle-expire-general-considerations.md#lifecycle-expire-minimum-storage).

**Wichtig**  
**Allzweck-Buckets** – Sie können eine Bucket-Richtlinie nicht verwenden, um Löschungen oder Übergänge durch eine S3-Lifecycle-Regel zu verhindern. Selbst wenn Ihre Bucket-Richtlinie beispielsweise alle Aktionen für alle Prinzipale ablehnt, funktioniert Ihre S3-Lifecycle-Konfiguration weiterhin wie gewohnt.

**Bestehende und neue Objekte**  
Wenn Sie einem Bucket eine Lebenszykluskonfiguration hinzufügen, gelten die Konfigurationsregeln für vorhandene Objekte und für Objekte, die Sie später hinzufügen. z. B.: Wenn Sie heute eine Lebenszykluskonfiguration mit einer Ablaufaktion hinzufügen, die dazu führt, dass Objekte 30 Tage nach ihrer Erstellung ablaufen, setzt Amazon S3 alle bestehenden Objekte, die mehr als 30 tage alt sind, in die Löschwarteschlange.

**Änderungen bei der Abrechnung**  
Wenn es zwischen dem Zeitpunkt, an dem ein Objekt für eine Lebenszyklusaktion berechtigt wird, und dem Zeitpunkt, zu dem Amazon S3 Ihr Objekt überträgt oder abläuft, zu Verzögerungen kommt, werden die Abrechnungsänderungen angewendet, sobald das Objekt für die Lebenszyklusaktion berechtigt ist. Wenn beispielsweise der Ablauf eines Objekts geplant ist und Amazon S3 das Objekt nicht sofort ablaufen lässt, wird Ihnen nach Ablauf der Ablaufzeit keine Speichergebühr berechnet. 

Die einzige Ausnahme von diesem Verhalten ist, wenn Sie eine Lebenszyklusregel für den Übergang zur S3-Intelligent-Tiering-Speicherklasse haben. In diesem Fall treten Abrechnungsänderungen erst auf, wenn das Objekt in S3 Intelligent-Tiering übergeben worden ist. Weitere Informationen zu S3-Lebenszyklusregeln finden Sie unter [Elemente der Lebenszykluskonfiguration](intro-lifecycle-rules.md). 

**Anmerkung**  
Bei Lebenszyklusübertragungen fallen keine Gebühren für den Datenabruf an. Wenn Sie jedoch `PUT`-, `COPY`- oder Lebenszyklusregeln verwenden, um Daten in eine beliebige S3-Speicherklasse zu verschieben, fallen Gebühren pro Anforderung an. Berücksichtigen Sie die Kosten für die Aufnahme oder Übertragung, bevor Sie Objekte in eine beliebige Speicherklasse verschieben. Weitere Information zu Kostenaspekten finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).

**Überwachung der Auswirkungen von Lebenszyklusregeln**  
Informationen zur Überwachung der Auswirkungen von Aktualisierungen, die durch aktive Lebenszyklusregeln vorgenommen wurden, finden Sie unter [Wie überwache ich die Maßnahmen, die im Rahmen meiner Lebenszyklusregeln ergriffen wurden?](troubleshoot-lifecycle.md#troubleshoot-lifecycle-2).

## Verwaltung des vollständigen Lebenszyklus von Objekten
<a name="lifecycle-config-overview-what"></a>

Mithilfe der S3-Konfigurationsregeln für den Lebenszyklus können Sie Amazon S3 anweisen, Objekte auf kostengünstigere Speicherklassen zu übertragen, sie zu archivieren oder sie zu löschen. z. B.: 
+ Wenn Sie regelmäßig Protokolle in einen Bucket hochladen, werden diese möglicherweise nur für eine Woche oder einen Monat von Ihrer Anwendung benötigt. Anschließend sollen diese gelöscht werden.
+ Auf einige Dokumente erfolgt für einen begrenzten Zeitraum ein häufiger Zugriff. Danach wird nur selten auf diese zugegriffen. Irgendwann benötigen Sie keinen Echtzeitzugriff mehr auf die Dokumente, aber seitens Ihrer Organisation oder der Gesetzgebung müssen Sie diese noch für einen gewissen Zeitraum archivieren. Nach Ablauf dieser Zeitspanne können Sie sie löschen. 
+ Sie können auch einige Datentypen primär für Archivierungszwecke in Amazon S3 hochladen. Beispielsweise können Sie digitale Medienarchive, Datensätze des Finanz- und Gesundheitswesens, rohe Genomsequenzdaten, langfristige Datenbanksicherungen oder Daten, die zur Einhaltung gesetzlicher Vorschriften aufbewahrt werden müssen, archivieren.

Sie können diese S3-Lebenszyklusaktionen kombinieren, um den vollständigen Lebenszyklus eines Objekts zu verwalten. Angenommen, die von Ihnen erstellten Objekte haben einen definierten Lebenszyklus. Anfänglich erfolgt ein häufiger Zugriff auf die Objekte für einen Zeitraum von 30 Tagen. Danach erfolgt nur noch ein seltener Zugriff für bis zu 90 Tage. Anschließend werden die Objekte nicht mehr benötigt, daher können Sie entscheiden, sie zu archivieren oder zu löschen. 

In diesem Szenario erstellen Sie eine S3-Lebenszyklusregel, in der Sie eine erste Überführungsaktion zu S3 Intelligent-Tiering, S3 Standard-IA oder S3 One Zone-IA, eine weitere Überführungsaktion zu S3 Glacier Flexible Retrieval zu Archivierungszwecken und schließlich eine Ablaufaktion angeben. Durch das Übertragen der Objekte von einer Speicherklasse auf eine andere können Sie Kosten für Speicher sparen. Weitere Information zu Kostenaspekten finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).

**Topics**
+ [Verwaltung des vollständigen Lebenszyklus von Objekten](#lifecycle-config-overview-what)
+ [Übertragen von Objekten mit Amazon-S3-Lebenszyklus](lifecycle-transition-general-considerations.md)
+ [Ablauf von Objekten](lifecycle-expire-general-considerations.md)
+ [Einrichten einer S3-Lebenszykluskonfiguration für einen Bucket](how-to-set-lifecycle-configuration-intro.md)
+ [Wie S3-Lebenszyklus mit anderen Bucket-Konfigurationen interagiert.](lifecycle-and-other-bucket-config.md)
+ [Konfigurieren von S3-Lebenszyklus-Ereignisbenachrichtigungen](lifecycle-configure-notification.md)
+ [Elemente der Lebenszykluskonfiguration](intro-lifecycle-rules.md)
+ [Wie S3 mit Konflikten in Lebenszykluskonfigurationen umgeht](lifecycle-conflicts.md)
+ [Beispiele für S3-Lebenszykluskonfigurationen](lifecycle-configuration-examples.md)
+ [Fehlerbehebung bei Problemen mit dem Amazon-S3-Lebenszyklus](troubleshoot-lifecycle.md)

# Übertragen von Objekten mit Amazon-S3-Lebenszyklus
<a name="lifecycle-transition-general-considerations"></a>

Sie können Übertragungsaktionen zu Ihrer S3-Lebenszykluskonfiguration hinzufügen und Amazon S3 damit anweisen, Objekte in eine andere Amazon-S3-Speicherklasse zu verschieben. Weitere Informationen über Speicherklassen finden Sie unter [Verstehen und Verwalten von Amazon-S3-Speicherklassen](storage-class-intro.md). Einige Beispiele dafür, wann Sie S3-Lebenszykluskonfigurationen auf diese Weise verwenden könnten, sind die folgenden:
+ Wenn Sie wissen, dass nur selten auf bestimmte Objekte zugegriffen wird, können Sie diese in die Speicherklasse S3 Standard-IA übergeben.
+ Möglicherweise wollen Sie Objekte, für die kein Echtzeitzugriff mehr benötigt wird, in der Speicherklasse S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive archivieren.

**Anmerkung**  
Verschlüsselte Objekte bleiben während des gesamten Übergangsprozesses der Speicherklasse verschlüsselt.

## Unterstützte Übertragungen
<a name="lifecycle-general-considerations-transition-sc"></a>

Sie können in einer S3-Lebenszykluskonfiguration Regeln definieren, um Objekte aus einer Speicherklasse zu einer anderen Speicherklasse zu überführen, um Speicherkosten zu sparen. Wenn Sie die Zugriffsmuster Ihrer Objekte nicht kennen oder sich Ihre Zugriffsmuster über die Zeit verändern, können Sie die Objekte zur Speicherklasse S3 Intelligent-Tiering überführen, um automatische Kosteneinsparungen zu erzielen. Weitere Informationen über Speicherklassen finden Sie unter [Verstehen und Verwalten von Amazon-S3-Speicherklassen](storage-class-intro.md). 

Amazon S3 unterstützt das Wasserfallmodell für die Überführung zwischen Speicherklassen wie im folgenden Diagramm gezeigt. 

![\[Amazon-S3-Wasserfallmodell für Speicherklassen – Grafik.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/lifecycle-transitions-v4.png)


### Unterstützte Lebenszyklusübergänge
<a name="supported-lifecycle-transitions"></a>

Amazon S3 unterstützt die folgenden Lebenszyklusübergänge zwischen Speicherklassen mittels einer S3-Lebenszykluskonfiguration. 
+ Von der S3-Standard-Speicherklasse zu den Speicherklassen S3-Standard-IA, S3 Intelligent-Tiering, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive.
+ Von der Speicherklasse S3-Standard-IA zu den Speicherklassen S3 Intelligent-Tiering, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive.
+ Von der Speicherklasse S3 Intelligent-Tiering zur Speicherklasse S3 Intelligent-Tiering. Die folgenden Übergänge sind für jede Zugriffsebene möglich.
  + Von der Frequent-Access- oder Infrequent-Access-Stufe zu den Speicherklassen S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive.
  + Von der Speicherklasse S3 Glacier Instant Retrieval zu den Speicherklassen S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive.
  + S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive sind Archivspeicherklassen.
  + Deep Archive Access-Tier zur Speicherklasse S3 Glacier Deep Archive.
+ Von der Speicherklasse S3 One Zone-IA zu den Speicherklassen S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive.
+ Von der Speicherklasse S3 Glacier Instant Retrieval zu den Speicherklassen S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive.
+ Die Speicherklasse S3 Glacier Flexible Retrieval zur Speicherklasse S3 Glacier Deep Archive.

**Anmerkung**  
Bei Buckets mit aktivierter Versionierung oder angehaltener Versionierung können Sie Objekte mit einem `Pending` Replikationsstatus oder nicht übertragen. `Failed`

## Einschränkungen und Überlegungen hinsichtlich Übertragungen
<a name="lifecycle-configuration-constraints"></a>

Für die Übertragung auf andere Lebenszyklusspeicherklassen gelten folgende Einschränkungen:

**Objekte, die kleiner als 128 KB sind, werden standardmäßig nicht auf eine Speicherklasse übertragen**  
Amazon S3 wendet ein Standardverhalten auf S3-Lebenszykluskonfigurationen an, das verhindert, dass Objekte, die kleiner als 128 KB sind, in eine beliebige Speicherklasse übertragen werden. Es empfiehlt sich nicht, Objekte mit weniger als 128 KB zu übertragen, da Ihnen für jedes Objekt eine Übertragungsanforderung in Rechnung gestellt wird. Das bedeutet, dass bei kleineren Objekten die Übertragungskosten die Speichereinsparungen zunichte machen können. Weitere Informationen zu den Kosten für Übertragungsanfragen finden Sie auf der Registerkarte **Speicher und Anfragen** der Seite [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/) unter **Anfragen und Datenabrufe**.

 Um zuzulassen, dass kleinere Objekte übertragen werden, können Sie den Übertragungsregeln für Ihren Lebenszyklus einen [Objektgrößenfilter](intro-lifecycle-rules.md#intro-lifecycle-rules-filter) hinzufügen, der eine benutzerdefinierte Mindestgröße (`ObjectSizeGreaterThan`) oder maximale Größe (`ObjectSizeLessThan`) festlegt. Weitere Informationen finden Sie unter [Beispiel: Zulassen der Übertragung von Objekten, die kleiner als 128 KB sind](lifecycle-configuration-examples.md#lc-small-objects). 

**Anmerkung**  
Im September 2024 hat Amazon S3 das standardmäßige Übertragungsverhalten für kleine Objekte wie folgt geändert:  
**Neues Standard-Übertragungsverhalten** – Seit September 2024 verhindert das Standardverhalten, dass Objekte, die kleiner als 128 KB sind, in eine beliebige Speicherklasse übertragen werden.
**Bisheriges Standard-Übergangsverhalten** – Vor September 2024 ließ das Standardverhalten für Objekte, die kleiner als 128 KB waren, nur eine Übertragung in die Speicherklassen S3 Glacier und S3 Glacier Deep Archive zu.
Konfigurationen, die vor September 2024 erstellt wurden, behalten das vorherige Übertragungsverhalten bei, sofern Sie sie nicht ändern. Das heißt, wenn Sie Regeln erstellen, bearbeiten oder löschen, ändert sich das standardmäßige Übertragungsverhalten für Ihre Konfiguration in das neue Verhalten. Falls es Ihr Anwendungsfall erfordert, können Sie das standardmäßige Übertragungsverhalten so ändern, dass Objekte, die kleiner als 128 KB sind, auf S3 Glacier und S3 Glacier Deep Archive übertragen werden. Verwenden Sie dazu den optionalen `x-amz-transition-default-minimum-object-size` Header in einer [PutBucketLifecycleConfiguration](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLifecycleConfiguration.html)-Anfrage.

**Objekte müssen mindestens 30 Tage gespeichert werden, bevor sie auf S3 Standard-IA oder S3 One Zone-IA übertragen werden**  
Bevor Sie Objekte in S3 Standard-IA oder S3 One Zone-IA übertragen, müssen diese mindestens 30 Tage in Amazon S3 gespeichert worden sein. Beispielsweise können Sie keine Lebenszyklusregel erstellen, mit der Objekte einen Tag nach dem Erstellungsdatum in die Speicherklasse S3 Standard-IA übergehen. Amazon S3 unterstützt diesen Übergang erst nach 30 Tagen, da auf neuere Objekte meist häufiger zugegriffen wird oder sie schneller gelöscht werden, als das für S3 Standard-IA- oder S3 One Zone-IA-Speicher sinnvoll wäre.

Beim Übergang von nicht aktuellen Objekten (in versionsfähigen Buckets) können dementsprechend nur Objekte, die seit mindestens 30 Tagen nicht mehr aktuell sind, in S3 Standard-IA- oder S3 One Zone-IA-Speicher übergehen. Eine Liste der Mindestspeicherdauer für alle Speicherklassen finden Sie unter [Vergleich der Amazon-S3-Speicherklassen](storage-class-intro.md#sc-compare).

**Die Übertragung von Objekten vor Ablauf ihrer Mindestspeicherdauer verursacht Gebühren**  
Für bestimmte Speicherklassen gilt bezüglich der Speicherung von Objekten eine Mindestdauer. Wenn Sie Objekte vor Ablauf der Mindestdauer aus diesen Speicherklassen herausnehmen, wird Ihnen die verbleibende Dauer in Rechnung gestellt. Weitere Informationen darüber, für welche Speicherklassen eine Mindestspeicherdauer gilt, finden Sie unter [Vergleich der Amazon-S3-Speicherklassen](storage-class-intro.md#sc-compare).

Sie können keine einzelne Lebenszyklusregel erstellen, die Objekte vor Ablauf der Mindestspeicherdauer von einer Speicherklasse auf eine andere überträgt.

 Beispielsweise gilt für S3 Glacier Instant Retrieval eine Mindestspeicherdauer von 90 Tagen. Sie können keine Lebenszyklusregel festlegen, die Objekte nach 4 Tagen auf S3 Glacier Instant Retrieval und nach 20 Tagen auf S3 Glacier Deep Archive überträgt. In diesem Fall muss die Übertragung auf S3 Glacier Deep Archive nach mindestens 94 Tagen erfolgen.

Sie können dafür zwei Regeln festlegen, jedoch werden Ihnen die Gebühren für die Mindestspeicherdauer in Rechnung gestellt. Weitere Information zu Kostenaspekten finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).

Weitere Informationen zum Erstellen eines S3-Lebenszyklus finden Sie unter [Einrichten einer S3-Lebenszykluskonfiguration für einen Bucket](how-to-set-lifecycle-configuration-intro.md).

## Übertragung auf die Speicherklassen S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive (Objektarchivierung)
<a name="before-deciding-to-archive-objects"></a>

Mithilfe der S3-Lebenszykluskonfiguration können Sie Objekte zur Archivierung auf die Speicherklassen S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive übertragen.

Bevor Sie Ihre Objekte archivieren, lesen Sie die folgenden Abschnitte, wo Sie weitere relevante Aspekte finden.

### Allgemeine Überlegungen
<a name="transition-glacier-general-considerations"></a>

Bevor Sie Objekte archivieren, sollten Sie die folgenden allgemeinen Überlegungen in Betracht ziehen:
+ Verschlüsselte Objekte bleiben während des gesamten Übergangsprozesses der Speicherklasse verschlüsselt.
+ Objekte, die in den Speicherklassen S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive gespeichert sind, sind nicht in Echtzeit verfügbar.

  Archivierte Objekte sind Amazon-S3-Objekte, aber um auf ein archiviertes Objekt zugreifen zu können, müssen Sie zuerst eine temporäre Kopie davon wiederherstellen. Die wiederhergestellte Objektkopie steht nur für die Dauer zur Verfügung, die Sie in der Wiederherstellungsanforderung angegeben haben. Danach löscht Amazon S3 die temporäre Kopie und das Objekt bleibt in S3 Glacier Flexible Retrieval archiviert. 

  Sie können ein Objekt mithilfe der Amazon S3 S3-Konsole oder programmgesteuert mithilfe der AWS SDK-Wrapper-Bibliotheken oder der Amazon S3 S3-REST-API in Ihrem Code wiederherstellen. Weitere Informationen finden Sie unter [Wiederherstellen eines archivierten Objekts](restoring-objects.md).
+ Objekte, die in der Speicherklasse S3 Glacier Flexible Retrieval gespeichert sind, können nur in die Speicherklasse S3 Glacier Deep Archive überführt werden.

  Sie können mit einer S3-Lebenszyklusregel die Speicherklasse eines Objekts von S3 Glacier Flexible Retrieval nur zur Speicherklasse S3 Glacier Deep Archive ändern. Wenn Sie die Speicherklasse eines in S3 Glacier Flexible Retrieval gespeicherten Objekts zu einer anderen Speicherklasse als S3 Glacier Deep Archive ändern möchten, müssen Sie die Wiederherstellungsoperation verwenden, um zunächst eine temporäre Kopie des Objekts zu erstellen. Anschließend verwenden Sie die Kopieroperation, um das Objekt zu überschreiben und dabei S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA, S3 One Zone-IA oder Reduced Redundancy als Speicherklasse anzugeben.
+ Die Überführung von Objekten in die Speicherklasse S3 Glacier Deep Archive ist nicht umkehrbar.

  Sie können nicht mit einer S3-Lebenszyklusregel die Speicherklasse eines Objekts von S3 Glacier Deep Archive zu einer anderen Speicherklasse ändern. Wenn Sie die Speicherklasse eines archivierten Objekts in eine andere Speicherklasse ändern möchten, müssen Sie die Wiederherstellungsoperation verwenden, um zunächst eine temporäre Kopie des Objekts zu erstellen. Verwenden Sie dann den Kopiervorgang, um das Objekt zu überschreiben, indem Sie S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval oder Reduced Redundancy Storage als Speicherklasse angeben.
**Anmerkung**  
Die Copy-Operation für wiederhergestellte Objekte wird in der Amazon-S3-Konsole für Objekte in der Speicherklasse S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive nicht unterstützt. Verwenden Sie für diese Art von Kopiervorgang die AWS Command Line Interface (AWS CLI) AWS SDKs, die oder die REST-API.

  Die Objekte, die in den Speicherklassen S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive gespeichert sind, sind nur über Amazon S3 sichtbar und verfügbar. Sie sind nicht über den separaten Amazon-Glacier-Service verfügbar.

  Es handelt sich jedoch um Amazon-S3-Objekte, und Sie können nur über die Amazon-S3-Konsole oder die Amazon-S3-API darauf zugreifen. Sie können auf die archivierten Objekte nicht über die separate Amazon-Konsole oder die Amazon-Glacier-API zugreifen.

### Kostenüberlegungen
<a name="glacier-pricing-considerations"></a>

Wenn Sie vorhaben, Daten mit seltenem Zugriff für einen Zeitraum von Monaten oder Jahren zu archivieren, können die Speicherklassen S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive Ihre Speicherkosten reduzieren. Sie sollten jedoch Folgendes berücksichtigen, um sicherzustellen, dass die Speicherklasse S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive geeignet für Sie ist:
+ **Gebühren für zusätzlichen Speicheraufwand** – Wenn Sie Objekte zur Speicherklasse S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive überführen, wird jedem Objekt eine feste Speichermenge hinzugefügt, um die Metadaten für die Verwaltung des Objekts zu berücksichtigen.
  + Für jedes in S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive archivierte Objekt verwendet Amazon S3 8 KB Speicher für den Namen des Objekts und andere Metadaten. Amazon S3 speichert diese Metadaten, sodass Sie in Echtzeit eine Auflistung Ihrer archivierten Objekte mit der Amazon S3 API erhalten können. Weitere Informationen finden Sie unter [Get Bucket (List Objects)](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGET.html). Für diesen zusätzlichen Speicherplatz werden Ihnen -S3-Standardgebühren in Rechnung gestellt.
  +  Für jedes Objekt, das in S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive archiviert wird, fügt Amazon S3 32 KB Speicher für Index und zugehörige Metadaten hinzu. Diese zusätzlichen Daten sind erforderlich, um Ihr Objekt zu identifizieren und wiederherzustellen. Für diesen zusätzlichen Speicherplatz werden Ihnen die Gebühren für S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive in Rechnung gestellt.

  Wenn Sie kleine Objekte archivieren, sollten Sie diese Speichergebühren berücksichtigen. Ziehen Sie auch in Betracht, viele kleine Objekte in wenigen großen Objekten zusammenzufassen, um Kosten für den Verwaltungsaufwand zu reduzieren.
+ **Anzahl der Tage, für die die Objekte archiviert werden sollen** – S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive sind langfristige Archivierungslösungen. Die Mindestspeicherdauer beträgt 90 Tage für die Speicherklasse S3 Glacier Flexible Retrieval und 180 Tage für S3 Glacier Deep Archive. Beim Löschen von Daten, die in Amazon Glacier archiviert wurden, fallen keine Gebühren an, wenn die von Ihnen gelöschten Objekte länger als die minimale Speicherdauer archiviert werden. Wenn Sie ein archiviertes Objekt innerhalb der minimalen Speicherdauer löschen oder überschreiben, stellt Amazon S3 eine anteilige Gebühr für das vorzeitige Löschen in Rechnung. Weitere Informationen zu den Kosten für die vorzeitige Löschungen finden Sie unter der Frage „Wie wird das Löschen von Objekten aus Amazon Glacier berechnet, die weniger als 90 Tage alt sind?“ unter [häufig gestellte Fragen zu Amazon S3](https://aws.amazon.com/s3/faqs/#Amazon_S3_Glacier). 
+ **Gebühren für Übergangsanfragen von S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive** – Jedes Objekt, das Sie auf die Speicherklasse S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive umstellen, stellt eine Übergangsanfrage dar. Für jede dieser Anforderungen entstehen Kosten. Wenn Sie vorhaben, sehr viele Objekte zu überführen, sollten Sie die Anforderungskosten in Betracht ziehen. Wenn Sie unterschiedliche Objekte archivieren, unter denen sich auch kleine Objekte – insbesondere solche unter 128 KB – befinden, empfehlen wir, den Lebenszyklus-Objektgrößenfilter zu verwenden, um solche Objekte aus Ihrer Übertragung herauszufiltern und die Kosten für die Anforderung zu senken.
+ **Datenwiederherstellungsgebühren für S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive** – S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive wurden für die Langzeitarchivierung von Daten entwickelt, auf die Sie selten zugreifen. Informationen zu Gebühren für die Datenwiederherstellung finden Sie unter der Frage „Wie viel kostet das Abrufen von Daten aus Amazon Glacier?“ unter [häufig gestellte Fragen zu Amazon S3](https://aws.amazon.com/s3/faqs/#Amazon_S3_Glacier). Informationen zum Wiederherstellen von Daten aus Amazon Glacier finden Sie unter [Wiederherstellen eines archivierten Objekts](restoring-objects.md). 

**Anmerkung**  
S3 Lebenszyklus überträgt Objekte asynchron auf S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive. Es kann eine Verzögerung zwischen dem Übergangsdatum in der S3-Lebenszyklus-Konfigurationsregel und dem Datum des physischen Übergangs geben. In diesem Fall wird Ihnen der Standardtarif der Speicherklasse, aus der die übertragenen Objekte stammen, basierend auf dem in der Regel angegebenen Übertragungsdatum in Rechnung gestellt.

Die Amazon-S3-Produktdetailseite enthält Preisinformationen und Beispielberechnungen für die Archivierung von Amazon-S3-Objekten. Weitere Informationen finden Sie unter den folgenden Themen:
+  Wie werden die Speicherkosten für in Amazon Glacier archivierte Amazon-S3-Objekte berechnet? unter [häufig gestellte Fragen zu Amazon S3](https://aws.amazon.com/s3/faqs/#Amazon_S3_Glacier). 
+  „Wie wird mir das Löschen von Objekten aus Amazon Glacier in Rechnung gestellt, die weniger als 90 Tage alt sind?“ unter [häufig gestellte Fragen zu Amazon S3](https://aws.amazon.com/s3/faqs/#Amazon_S3_Glacier). 
+  „Was kostet das Abrufen von Daten aus Amazon Glacier?“ unter [häufig gestellte Fragen zu Amazon S3](https://aws.amazon.com/s3/faqs/#Amazon_S3_Glacier). 
+  [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/) für die Speicherkosten der unterschiedlichen Speicherklassen. 

### Wiederherstellen archivierter Objekte
<a name="restore-glacier-objects-concepts"></a>

Ein Zugriff auf archivierte Objekte ist nicht in Echtzeit möglich. Sie müssen zuerst eine Anforderung zur Wiederherstellung initiieren und dann warten, bis eine temporäre Kopie des Objekts für die Dauer bereitgestellt wird, die Sie in der Anforderung angegeben haben. Nachdem Sie eine temporäre Kopie des wiederhergestellten Objekts erhalten haben, bleibt die Speicherklasse des Objekts S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive. (Eine [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectHEAD.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectHEAD.html)- oder [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectGET.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectGET.html)-API-Operationsanforderung gibt S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive als Speicherklasse zurück.) 

**Anmerkung**  
Bei einer Wiederherstellung eines Archivs zahlen Sie sowohl für das Archiv (Tarif für S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive) als auch für die temporär wiederhergestellte Kopie (S3-Standard-Speichertarif). Informationen zu Preisen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/). 

Für den Zugriff auf ein kopiertes Objekt müssen Sie eine Anfrage zur Wiederherstellung initiieren. Das kann programmgesteuert oder über die Amazon-S3-Konsole erfolgen. Amazon S3 verarbeitet jeweils nur eine Anfrage pro Objekt. Weitere Informationen finden Sie unter [Wiederherstellen eines archivierten Objekts](restoring-objects.md).

# Ablauf von Objekten
<a name="lifecycle-expire-general-considerations"></a>

Sie können zu Ihrer S3-Lebenszykluskonfiguration Übertragungsaktionen hinzufügen und Amazon S3 damit anweisen, Objekte am Ende ihrer Lebensdauer zu löschen. Wenn ein Objekt aufgrund seiner Lebenszykluskonfiguration das Ende seiner Lebensdauer erreicht hat, ergreift Amazon S3 eine `Expiration`-Aktion basierend auf dem [S3-Versioning](Versioning.md)-Status, in dem sich der Bucket befindet.
+ **Nicht versionierter Bucket** – Amazon S3 stellt das Objekt zum Entfernen in eine Warteschlange und entfernt es asynchron und dauerhaft. 
+ **Bucket mit aktiviertem Versioning** – Wenn die aktuelle Objektversion keine Löschmarkierung ist, fügt Amazon S3 die Löschmarkierung mit einer eindeutigen Versions-ID hinzu. Damit ist die aktuelle Version nicht mehr aktuell und die Löschmarkierung wird zur aktuellen Version. 
+ **Bucket mit ausgesetztem Versioning** – Amazon S3 erstellt eine Löschmarkierung mit der Versions-ID null. Diese Löschmarkierung ersetzt jede Objektversion mi einer Versions-ID von null in der Versionshierarchie, womit das Objekt effektiv gelöscht wird. 

Für einen versionsfähigen Bucket (d. h., das Versioning ist aktiviert oder ausgesetzt) gibt es mehrere Aspekte, die bestimmen, wie Amazon S3 die `Expiration`-Aktion verarbeitet. Für Buckets mit aktivierter oder ausgesetzter Versionsverwaltung gilt Folgendes:
+ Die Objektablaufaktion wird nur auf die aktuelle Version eines Objekts angewendet (sie wirkt sich nicht auf nicht aktuelle Objektversionen aus).
+ Amazon S3 führt keine Aktion aus, wenn es eine oder mehrere Objektversionen gibt und die Löschmarkierung die aktuelle Version ist.
+ Wenn die aktuelle Objektversion die einzige Objektversion und auch eine Löschmarkierung ist (auch als *Löschmarkierung eines abgelaufenen Objekts* bezeichnet, wobei alle Objektversionen gelöscht werden und nur noch eine Löschmarkierung beibehalten wird), entfernt Amazon S3 die Löschmarkierung des abgelaufenen Objekts. Sie können die Ablaufaktion (`Expiration`) auch verwenden, um Amazon S3 anzuweisen, alle abgelaufenen Löschmarkierungen zu entfernen. Ein Beispiel finden Sie unter [Entfernen von Löschmarkierungen für abgelaufene Objekte in einem Bucket mit aktivierter Versionsverwaltung](lifecycle-configuration-examples.md#lifecycle-config-conceptual-ex7).
+ Sie können das Aktionselement `NoncurrentVersionExpiration` verwenden, um Amazon S3 anzuweisen, nicht aktuelle Versionen von Objekten dauerhaft zu löschen. Diese gelöschten Objekte können nicht wiederhergestellt werden. Sie können diesen Ablauf auf die Anzahl von Tagen basieren, seit der die Objekte nicht mehr aktuell sind. Neben der Anzahl der Tage können Sie auch eine maximale Anzahl von nicht aktuellen Versionen angeben, die beibehalten werden müssen (zwischen 1 und 100). Dieser Wert gibt die Anzahl der neueren nicht aktuellen Versionen an, die vorhanden sein müssen, damit Amazon S3 die zugehörige Aktion für eine bestimmte Version ausführen kann. Sie müssen auch ein `Filter`-Element angeben, um die maximale Anzahl nicht aktueller Versionen festzulegen. Wenn Sie kein `Filter`-Element angeben, generiert Amazon S3 einen `InvalidRequest`-Fehler, sobald Sie eine maximale Anzahl nicht aktueller Versionen angeben. Weitere Informationen zur Verwendung des Aktionselements `NoncurrentVersionExpiration` finden Sie unter [Elemente, die Lebenszyklusaktionen beschreiben](intro-lifecycle-rules.md#intro-lifecycle-rules-actions).
+ Amazon S3 ergreift keine Maßnahmen für nicht aktuelle Versionen von Objekten, auf die die S3-Object-Lock-Konfiguration angewendet wurde.
+ Für Objekte mit einem `Failed` Replikationsstatus `Pending` oder ergreift Amazon S3 keine Maßnahmen für aktuelle oder nicht aktuelle Versionen von Objekten.

Weitere Informationen finden Sie unter [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md).

**Wichtig**  
Wenn in einer S3-Lebenszykluskonfiguration mehrere Regeln vorhanden sind, kann es sein, dass für ein Objekt am gleichen Tag mehrere S3-Lebenszyklusaktionen auszuführen sind. In solchen Fällen folgt Amazon S3 diesen allgemeinen Regeln:  
Das permanente Löschen hat Vorrang vor einem Übergang.
Die Übertragung hat Vorrang vor der Erstellung von [Löschmarkierungen](DeleteMarker.md).
Wenn ein Objekt sowohl für die Übertragung auf einen S3 Glacier Flexible Retrieval als auch auf einen S3 Standard-IA (oder S3 One Zone-IA) in Frage kommt, entscheidet sich Amazon S3 für die Übertragung auf S3 Glacier Flexible Retrieval.
 Beispiele finden Sie unter [Beispiele für überlappende Filter und widersprüchliche Lebenszyklusaktionen](lifecycle-conflicts.md#lifecycle-config-conceptual-ex5). 

**Bestehende und neue Objekte**  
Wenn Sie einem Bucket eine Lebenszykluskonfiguration hinzufügen, gelten die Konfigurationsregeln für vorhandene Objekte und für Objekte, die Sie später hinzufügen. Zum Beispiel: Wenn Sie heute eine Lebenszyklus-Konfigurationsregel mit einer Ablaufaktion hinzufügen, die dazu führt, dass Objekte mit einem bestimmten Präfix 30 Tage nach ihrer Erstellung ablaufen, verschiebt Amazon S3 alle bestehenden Objekte, die mehr als 30 Tage alt sind, in die Löschwarteschlange.

**Wichtig**  
Sie können eine Bucket-Richtlinie nicht verwenden, um Löschungen oder Übergänge durch eine S3-Lifecycle-Regel zu verhindern. Selbst wenn Ihre Bucket-Richtlinie beispielsweise alle Aktionen für alle Prinzipale ablehnt, funktioniert Ihre S3-Lifecycle-Konfiguration weiterhin wie gewohnt.

## So finden Sie heraus, wann Objekte ablaufen
<a name="lifecycle-expire-when"></a>

Verwenden Sie die API-Operation [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectHEAD.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectHEAD.html) oder [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectGET.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectGET.html), um herauszufinden, wann die aktuelle Version eines Objekts abläuft. Diese API-Operationen geben Antwort-Header zurück, die das Datum und die Uhrzeit angeben, ab wann die aktuelle Version des Objekts nicht mehr zwischengespeichert werden kann. 

**Anmerkung**  
Es kann eine Verzögerung zwischen dem Ablaufdatum und dem Datum geben, an dem Amazon S3 ein Objekt entfernt. Der Ablauf oder die mit einem abgelaufenen Objekt verbundene Speicherdauer wird Ihnen nicht in Rechnung gestellt. 
Verwenden Sie vor dem Aktualisieren, Deaktivieren oder Löschen von Lebenszyklusregeln die `LIST`-API-Operationen (wie [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectVersions.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectVersions.html) und [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListMultipartUploads.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListMultipartUploads.html)) oder [Katalogisieren und Analysieren Ihrer Daten mit S3 Inventory](storage-inventory.md), um zu überprüfen, ob Amazon S3 auf Grundlage Ihrer Anwendungsfälle in Frage kommende Objekte übertragen und ablaufen lassen hat.

## Gebühren für Mindestspeicherdauer
<a name="lifecycle-expire-minimum-storage"></a>

Wenn Sie eine S3-Lebenszyklusablaufregel erstellen, mit der Objekte ablaufen, die sich seit weniger als 30 Tagen in den Speicherklassen S3 Standard-IA oder S3 One Zone-IA befinden, werden Ihnen Gebühren für 30 Tage in Rechnung gestellt. Wenn Sie eine Lebenszyklusablaufregel erstellen, mit der Objekte ablaufen, die weniger als 90 Tage im Speicher S3 Glacier Flexible Retrieval gewesen sind, werden Ihnen Gebühren für 90 Tage in Rechnung gestellt. Wenn Sie eine Lebenszyklusablaufregel erstellen, mit der Objekte ablaufen, die weniger als 180 Tage im S3 Glacier Deep Archive-Speicher gewesen sind, werden Ihnen Gebühren für 180 Tage in Rechnung gestellt.

Weitere Informationen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).

# Einrichten einer S3-Lebenszykluskonfiguration für einen Bucket
<a name="how-to-set-lifecycle-configuration-intro"></a>

Sie können eine Amazon S3 Lifecycle-Konfiguration für einen Bucket einrichten, indem Sie die Amazon S3 S3-Konsole, die AWS Command Line Interface (AWS CLI) AWS SDKs, die oder die Amazon S3 S3-REST-API verwenden. Weitere Informationen zur S3-Lebenszykluskonfiguration finden Sie unter [Verwalten des Lebenszyklus von Objekten](object-lifecycle-mgmt.md).

**Anmerkung**  
Verwenden Sie die, oder die Amazon S3 S3-REST-API, um die AWS CLI Lebenszykluskonfiguration für einen Directory-Bucket anzuzeigen oder zu bearbeiten. AWS SDKs Weitere Informationen finden Sie unter [Arbeiten mit S3 Lifecycle für Verzeichnis-Buckets](directory-buckets-objects-lifecycle.md).

In Ihrer S3-Lebenszykluskonfiguration verwenden Sie *Lebenszyklusregeln*, um Aktionen zu definieren, die Amazon S3 während des Lebenszyklus eines Objekts ausführen soll. Sie können beispielsweise Regeln definieren, die Objekte nach einem bestimmten Zeitraum an eine andere Speicherklasse überträgt, archiviert oder ablaufen lässt (löscht).

## Überlegungen hinsichtlich des S3-Lebenszyklus
<a name="lifecycle-considerations"></a>

Bevor Sie eine Lebenszykluskonfiguration festlegen, beachten Sie Folgendes:

**Verzögerung bei der Propagierung der Lebenszykluskonfiguration**  
Wenn Sie eine S3-Lebenszykluskonfiguration zu einem Bucket hinzufügen, tritt eine gewisse Verzögerung ein, bis eine neue oder aktualisierte Lebenszykluskonfiguration vollständig auf alle Amazon-S3-Systeme verteilt ist. Rechnen Sie mit einer Verzögerung von einigen Minuten, bis die Konfiguration vollständig wirksam ist. Diese Verzögerung kann auch auftreten, wenn Sie eine S3-Lebenszykluskonfiguration löschen.

**Verzögerung bei Übertragung oder Ablauf**  
Zwischen dem Zeitpunkt, zu dem eine Lebenszyklusregel erfüllt wird, und dem Abschließen der Aktion für die Regel gibt es eine Verzögerung. Nehmen wir beispielsweise an, dass eine Gruppe von Objekten aufgrund einer Lebenszyklusregel am 1. Januar abgelaufen ist. Obwohl die Ablaufregel am 1. Januar erfüllt wurde, löscht Amazon S3 diese Objekte möglicherweise erst Tage oder sogar Wochen später. Diese Verzögerung tritt auf, weil S3 Lifecycle Objekte, die übertragen werden oder ablaufen sollen, asynchron in die Warteschlange stellt. Wenn Sie eine Lebenszyklusregel hinzufügen oder ändern, beginnt S3 Lifecycle möglicherweise sofort oder mit einer gewissen Verzögerung mit der Verarbeitung geeigneter Objekte. Wenn S3 Lifecycle eine Löschmarkierung erstellt oder ein Objekt wechselt, wird der Zeitstempel auf Mitternacht UTC an dem Tag gesetzt, an dem die Aktion ausgeführt wurde, unabhängig von der tatsächlichen Uhrzeit der Aktion. Normalerweise zeigen sich jedoch Änderungen bei der Abrechnung sofort nach Erfüllung der Lebenszyklusregel, auch wenn die Aktion noch nicht abgeschlossen ist. Weitere Informationen finden Sie unter [Änderungen bei der Abrechnung](#lifecycle-billing). Informationen zur Überwachung der Auswirkungen von Aktualisierungen, die durch aktive Lebenszyklusregeln vorgenommen wurden, finden Sie unter [Wie überwache ich die Maßnahmen, die im Rahmen meiner Lebenszyklusregeln ergriffen wurden?](troubleshoot-lifecycle.md#troubleshoot-lifecycle-2).

**Anmerkung**  
Wenn eine Lebenszyklusregel erstellt oder geändert wird, können Objekte, die die Zulassungskriterien bereits erfüllen, sofort verarbeitet werden.

**Aktualisieren, Deaktivieren oder Löschen von Lebenszyklusregeln**  
Wenn Sie eine Lebenszyklusregel deaktivieren oder löschen, stellt Amazon S3 nach einer kurzen Verzögerung die Planung neuer Objekte zur Löschung oder Übertragung ein. Die Planung aller bereits geplanten Objekte wird aufgehoben und sie werden nicht gelöscht oder überführt.

**Anmerkung**  
Verwenden Sie vor dem Aktualisieren, Deaktivieren oder Löschen von Lebenszyklusregeln die `LIST`-API-Operationen (wie [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectVersions.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectVersions.html) und [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListMultipartUploads.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListMultipartUploads.html)) oder [Katalogisieren und Analysieren Ihrer Daten mit S3 Inventory](storage-inventory.md), um zu überprüfen, ob Amazon S3 auf Grundlage Ihrer Anwendungsfälle in Frage kommende Objekte übertragen und ablaufen lassen hat. Falls Sie Probleme beim Aktualisieren, Deaktivieren oder Löschen von Lebenszyklusregeln haben, lesen Sie die Informationen unter [Fehlerbehebung bei Problemen mit dem Amazon-S3-Lebenszyklus](troubleshoot-lifecycle.md).

**Bestehende und neue Objekte**  
Wenn Sie einem Bucket eine Lebenszykluskonfiguration hinzufügen, gelten die Konfigurationsregeln für vorhandene Objekte und für Objekte, die Sie später hinzufügen. Zum Beispiel: Wenn Sie heute eine Lebenszyklus-Konfigurationsregel mit einer Ablaufaktion hinzufügen, die dazu führt, dass Objekte mit einem bestimmten Präfix 30 Tage nach ihrer Erstellung ablaufen, verschiebt Amazon S3 alle bestehenden Objekte, die mehr als 30 Tage alt sind, in die Löschwarteschlange.

**Überwachung der Auswirkungen von Lebenszyklusregeln**  
Informationen zur Überwachung der Auswirkungen von Aktualisierungen, die durch aktive Lebenszyklusregeln vorgenommen wurden, finden Sie unter [Wie überwache ich die Maßnahmen, die im Rahmen meiner Lebenszyklusregeln ergriffen wurden?](troubleshoot-lifecycle.md#troubleshoot-lifecycle-2).

**Änderungen bei der Abrechnung**  
Zwischen dem Zeitpunkt der Erfüllung der Lebenszykluskonfigurationsregeln und der dadurch ausgelösten Aktion könnte eine Verzögerung eintreten. Änderungen bei der Abrechnung zeigen sich jedoch sofort nach Erfüllung der Lebenszykluskonfigurationsregel, auch wenn die Aktion noch nicht durchgeführt wurde.

Beispielsweise wird Ihnen nach dem Ablaufzeitpunkt des Objekts keine Speichergebühr in Rechnung gestellt, auch wenn das Objekt nicht sofort gelöscht wird. Ein weiteres Beispiel: Sobald die Objektübertragungszeit abgelaufen ist, werden Ihnen Speichergebühren von S3 Glacier Flexible Retrieval in Rechnung gestellt, auch wenn das Objekt nicht sofort in die Speicherklasse S3 Glacier Flexible Retrieval übertragen wird. 

Jedoch bilden Lebenszyklusübertragungen auf die Speicherklasse S3 Intelligent-Tiering eine Ausnahme. Änderungen bei der Abrechnung zeigen sich erst, wenn das Objekt in die Speicherklasse S3 Intelligent-Tiering übertragen wurde. 

**Mehrere oder widersprüchliche Regeln**  
Wenn in einer S3-Lebenszykluskonfiguration mehrere Regeln vorhanden sind, kann es sein, dass für ein Objekt am gleichen Tag mehrere S3-Lebenszyklusaktionen auszuführen sind. In solchen Fällen folgt Amazon S3 diesen allgemeinen Regeln:
+ Das permanente Löschen hat Vorrang vor einem Übergang.
+ Die Übertragung hat Vorrang vor der Erstellung von [Löschmarkierungen](DeleteMarker.md).
+ Wenn ein Objekt sowohl für die Übertragung auf einen S3 Glacier Flexible Retrieval als auch auf einen S3 Standard-IA (oder S3 One Zone-IA) in Frage kommt, entscheidet sich Amazon S3 für die Übertragung auf S3 Glacier Flexible Retrieval.

 Beispiele finden Sie unter [Beispiele für überlappende Filter und widersprüchliche Lebenszyklusaktionen](lifecycle-conflicts.md#lifecycle-config-conceptual-ex5). 

## So richten Sie eine S3-Lebenszykluskonfiguration ein
<a name="how-to-set-lifecycle-configuration"></a>

Sie können eine Amazon S3 Lifecycle-Konfiguration für einen Allzweck-Bucket einrichten, indem Sie die Amazon S3 S3-Konsole, die AWS Command Line Interface (AWS CLI) AWS SDKs, die oder die Amazon S3 S3-REST-API verwenden. 

Informationen zu AWS CloudFormation Vorlagen und Beispielen finden Sie unter [Arbeiten mit AWS CloudFormation Vorlagen](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/template-guide.html) und [https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-s3-bucket.html#aws-resource-s3-bucket--examples](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-s3-bucket.html#aws-resource-s3-bucket--examples)im *CloudFormation Benutzerhandbuch*.

### Verwenden der S3-Konsole
<a name="create-lifecycle"></a>

Sie können für alle Objekte oder eine Teilmenge der Objekte in einem Bucket Lebenszyklusregeln definieren, indem Sie ein gemeinsames Präfix (Objektnamen, die mit einer gemeinsamen Zeichenfolge beginnen) oder einen Tag verwenden. In Ihrer Lebenszyklusregel können Sie spezifische Aktionen für aktuelle und nicht aktuelle Objektversionen definieren. Weitere Informationen finden Sie hier:
+ [Verwalten des Lebenszyklus von Objekten](object-lifecycle-mgmt.md)
+ [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md)

**So erstellen Sie eine Lebenszyklusregel:**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus.

1. Wählen Sie in der Liste Buckets den Namen des Buckets aus, für den Sie eine Lebenszyklusregel erstellen möchten.

1. Wählen Sie den Tab **Management (Verwaltung)** und dann die Option **Create lifecycle rule (Lebenszyklusregel erstellen)**.

1. Geben Sie unter **Lifecycle rule name (Name der Lebenszyklusregel)** einen Namen für Ihre Regel ein. 

   Der Name muss innerhalb des Buckets eindeutig sein. 

1. Wählen Sie den Umfang der Lebenszyklusregel: 
   + Um diese Lebenszyklusregel auf *alle Objekte mit einem bestimmten Präfix oder Tag* anzuwenden, wählen Sie **Umfang auf bestimmte Präfixe oder Markierungen beschränken** aus. 
     + Um den Bereich nach Präfix zu beschränken, geben Sie unter **Prefix (Präfix)** das Präfix ein. 
     + Um den Bereich nach Tag einzuschränken, wählen Sie **Add tag (Tag hinzufügen)**, und geben Sie den Tag-Schlüssel und den Wert ein.

     Weitere Hinweise zu Präfixen für Objektnamen finden Sie unter [Markieren von Amazon-S3-Objekten](object-keys.md). Weitere Informationen über Objekt-Markierungen finden Sie unter [Kategorisierung Ihrer Objekte mit Hilfe von Tags](object-tagging.md). 
   + Um diese Lebenszyklusregel auf *alle Objekte im Bucket* anzuwenden, wählen Sie **This rule applies to *all* objects in the bucket (Diese Regel gilt für alle Objekte in dem Bucket)** und wählen Sie dann **I acknowledge that this rule applies to all objects in the bucket (Ich bestätige, dass diese Regel für alle Objekte in dem Bucket gilt)**.

1. Um eine Regel nach Objektgröße zu filtern, können Sie **Mindestobjektgröße festlegen**, **Maximale Objektgröße festlegen** oder beide Optionen aktivieren.
   + Wenn Sie einen Wert für **Minimale Objektgröße** oder **Maximale Objektgröße** angeben, muss der Wert größer als 0 Byte und bis zu 50 TB sein. Sie können diesen Wert in Byte, KB, MB oder GB angeben.
   + Wenn Sie beide Werte angeben, muss die maximale Objektgröße größer als die Mindestobjektgröße sein.
**Anmerkung**  
Die Filter **Mindestobjektgröße** und **Maximale Objektgröße** schließen die angegebenen Werte aus. Wenn Sie beispielsweise einen Filter so einrichten, dass Objekte mit einer **Mindestobjektgröße** von 128 KB ablaufen, laufen Objekte, die genau 128 KB groß sind, nicht ab. Stattdessen gilt die Regel nur für Objekte, die größer als 128 KB sind.

1. Wählen Sie unter **Lifecycle rule actions (Lebenszyklusregelaktionen)** die Aktionen aus, die Ihre Lebenszyklusregel ausführen soll:
   + Umsetzung *aktueller* Versionen von Objekten zwischen Speicherklassen
   + Umsetzung *früherer* Versionen von Objekten zwischen Speicherklassen
   + Ablauf *aktueller* Versionen von Objekten
**Anmerkung**  
Bei Buckets ohne aktivierter [S3-Versionierung](Versioning.md) führt das Ablaufen aktueller Versionen dazu, dass Amazon S3 die Objekte dauerhaft löscht. Weitere Informationen finden Sie unter [Lebenszyklusaktionen und der Versioning-Status eines Buckets](intro-lifecycle-rules.md#lifecycle-actions-bucket-versioning-state).
   + Dauerhaftes Löschen *früherer* Versionen von Objekten
   + Löschen abgelaufener Löschmarkierungen oder unvollständiger mehrteiliger Uploads 

   Abhängig von den von Ihnen ausgewählten Aktionen werden verschiedene Optionen angezeigt.

1. Gehen Sie unter **Transition current versions of objects between storage classes (Aktuelle Versionen von Objekten auf andere Speicherklassen übertragen)** wie folgt vor, um *aktuelle* Versionen von Objekten auf andere Speicherklassen zu übertragen:

   1. Wählen Sie unter **Storage class transitions (Speicherklassenübertragungen)** die Speicherklasse aus, auf die Sie Objekte übertragen möchten: Eine Liste möglicher Übertragungen finden Sie unter [Unterstützte Lebenszyklusübergänge](lifecycle-transition-general-considerations.md#supported-lifecycle-transitions). Sie können aus den folgenden Speicherklassen auswählen:
      + S3 Standard-IA
      + S3 Intelligent-Tiering
      + S3 One Zone-IA
      + S3 Glacier Instant Retrieval
      + S3 Glacier Flexible Retrieval
      + S3 Glacier Deep Archive

   1. Geben Sie im Feld **Days after object creation (Tage nach der Objekterstellung)** die Anzahl der Tage nach der Erstellung für die Umsetzung des Objekts ein.

   Weitere Informationen über Speicherklassen finden Sie unter [Verstehen und Verwalten von Amazon-S3-Speicherklassen](storage-class-intro.md). Sie können Übergänge für aktuelle oder vorhergehende Objektversionen definieren oder sowohl für aktuelle als auch vorhergehende Versionen. Versioning ermöglicht Ihnen, mehrere Versionen eines Objekts in einem Bucket aufzubewahren. Weitere Informationen über das Versioning finden Sie unter [Verwenden der S3-Konsole](manage-versioning-examples.md#enable-versioning).
**Wichtig**  
Wenn Sie die Speicherklasse S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval oder Glacier Deep Archive wählen, bleibt Ihr Objekt in Amazon S3. Sie können nicht direkt über den separaten Amazon-Glacier-Service auf sie zugreifen. Weitere Informationen finden Sie unter [Übertragen von Objekten mit Amazon-S3-Lebenszyklus](lifecycle-transition-general-considerations.md). 

1. Gehen Sie unter **Transition noncurrent versions of objects between storage classes (Aktuelle Versionen von Objekten auf andere Speicherklassen übertragen)** wie folgt vor, um *nicht aktuelle* Versionen von Objekten auf andere Speicherklassen zu übertragen:

   1. Wählen Sie unter **Storage class transitions (Speicherklassenübertragungen)** die Speicherklasse aus, auf die Sie Objekte übertragen möchten: Eine Liste möglicher Übertragungen finden Sie unter [Unterstützte Lebenszyklusübergänge](lifecycle-transition-general-considerations.md#supported-lifecycle-transitions). Sie können aus den folgenden Speicherklassen auswählen:
      + S3 Standard-IA
      + S3 Intelligent-Tiering
      + S3 One Zone-IA
      + S3 Glacier Instant Retrieval
      + S3 Glacier Flexible Retrieval
      + S3 Glacier Deep Archive

   1. Geben Sie im Feld **Days after object becomes noncurrent (Tage, nachdem das Objekt nicht mehr aktuell ist)** die Anzahl der Tage nach der Erstellung für die Übertragung des Objekts ein.

1. Um den Ablauf *aktueller* Versionen von Objekten auszulösen, geben Sie unter **Expire current versions of objects (Ablauf aktueller Objektversionen)** in **Number of days after object creation (Anzahl der Tage nach der Objekterstellung)** die Anzahl der Tage ein.
**Wichtig**  
In einem Bucket ohne Versionierung führt die Ablaufaktion dazu, dass Amazon S3 das Objekt dauerhaft entfernt. Weitere Informationen über die Lebenszyklus-Aktionen finden Sie unter [Elemente, die Lebenszyklusaktionen beschreiben](intro-lifecycle-rules.md#intro-lifecycle-rules-actions).

1. Um frühere Versionen von Objekten dauerhaft zu löschen, geben Sie unter **Permanently delete previous versions of objects** (Dauerhaftes Löschen nicht aktueller Versionen von Objekten) in **Days after objects become noncurrent** (Tage nach dem Erlöschen von Objekten) die Anzahl der Tage ein. Sie können die Anzahl der beizubehaltenden neueren Versionen optional angeben, indem Sie einen Wert unter **Number of newer versions to retain** (Anzahl der beizubehaltenden neueren Versionen) eingeben.

1. Wählen Sie unter **Delete expired delete markers or incomplete multipart uploads (Abgelaufene Löschmarkierungen oder unvollständige mehrteilige Uploads löschen)** **Delete expired object delete markers (Abgelaufene Objektlöschmarken löschen)** und **Delete incomplete multipart uploads (Unvollständige mehrteilige Uploads löschen)** aus. Geben Sie dann die Anzahl der Tage nach der mehrteiligen Upload-Initiierung ein, die Sie beenden und für die Sie unvollständige mehrteilige Uploads löschen möchten.

   Weitere Informationen über mehrteilige Uploads finden Sie unter [Hochladen und Kopieren von Objekten mit mehrteiligen Uploads in Amazon S3](mpuoverview.md).

1. Wählen Sie **Create rule** aus.

   Wenn die Regel keine Fehler enthält, aktiviert Amazon S3 sie, und Sie können sie im Tab **Management (Verwaltung)** unter **Lifecycle rules (Lebenszyklusregeln)** sehen.

### Unter Verwendung des AWS CLI
<a name="set-lifecycle-cli"></a>

Sie können die folgenden AWS CLI Befehle verwenden, um S3 Lifecycle-Konfigurationen zu verwalten:
+ `put-bucket-lifecycle-configuration`
+ `get-bucket-lifecycle-configuration`
+ `delete-bucket-lifecycle`

Anweisungen zur Einrichtung von finden Sie unter [Entwickeln mit Amazon S3 mithilfe der AWS CLI](https://docs.aws.amazon.com/AmazonS3/latest/API/setup-aws-cli.html) in der *Amazon S3 S3-API-Referenz*. AWS CLI

Beachten Sie, dass die Amazon-S3-Lebenszykluskonfiguration eine XML-Datei ist. Aber wenn Sie das verwenden AWS CLI, können Sie das XML-Format nicht angeben. Sie müssen stattdessen das JSON-Format angeben. Im Folgenden finden Sie Beispiele für XML-Lebenszykluskonfigurationen und die entsprechenden JSON-Konfigurationen, die Sie in einem AWS CLI Befehl angeben können.

Betrachten Sie das folgende Beispiel einer S3-Lebenszykluskonfiguration:

**Example Beispiel 1**  

**Example**  

```
<LifecycleConfiguration>
    <Rule>
        <ID>ExampleRule</ID>
        <Filter>
           <Prefix>documents/</Prefix>
        </Filter>
        <Status>Enabled</Status>
        <Transition>        
           <Days>365</Days>        
           <StorageClass>GLACIER</StorageClass>
        </Transition>    
        <Expiration>
             <Days>3650</Days>
        </Expiration>
    </Rule>
</LifecycleConfiguration>
```

```
{
    "Rules": [
        {
            "Filter": {
                "Prefix": "documents/"
            },
            "Status": "Enabled",
            "Transitions": [
                {
                    "Days": 365,
                    "StorageClass": "GLACIER"
                }
            ],
            "Expiration": {
                "Days": 3650
            },
            "ID": "ExampleRule"
        }
    ]
}
```

**Example Beispiel 2**  

**Example**  

```
<LifecycleConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
    <Rule>
        <ID>id-1</ID>
        <Expiration>
            <Days>1</Days>
        </Expiration>
        <Filter>
            <And>
                <Prefix>myprefix</Prefix>
                <Tag>
                    <Key>mytagkey1</Key>
                    <Value>mytagvalue1</Value>
                </Tag>
                <Tag>
                    <Key>mytagkey2</Key>
                    <Value>mytagvalue2</Value>
                </Tag>
            </And>
        </Filter>
        <Status>Enabled</Status>    
    </Rule>
</LifecycleConfiguration>
```

```
{
    "Rules": [
        {
            "ID": "id-1",
            "Filter": {
                "And": {
                    "Prefix": "myprefix", 
                    "Tags": [
                        {
                            "Value": "mytagvalue1", 
                            "Key": "mytagkey1"
                        }, 
                        {
                            "Value": "mytagvalue2", 
                            "Key": "mytagkey2"
                        }
                    ]
                }
            }, 
            "Status": "Enabled", 
            "Expiration": {
                "Days": 1
            }
        }
    ]
}
```

Sie können den Befehl `put-bucket-lifecycle-configuration` wie folgt testen.

**So testen Sie die Konfiguration**

1. Speichern Sie die JSON-Lebenszykluskonfiguration in einer Datei (z. B.: *`lifecycle.json`*). 

1. Führen Sie den folgenden AWS CLI Befehl aus, um die Lifecycle-Konfiguration für Ihren Bucket festzulegen. Ersetzen Sie `user input placeholders` durch Ihre Informationen.

   ```
   $ aws s3api put-bucket-lifecycle-configuration  \
   --bucket amzn-s3-demo-bucket  \
   --lifecycle-configuration file://lifecycle.json
   ```

1. Rufen Sie zur Überprüfung die S3-Lifecycle-Konfiguration mit dem folgenden `get-bucket-lifecycle-configuration` AWS CLI Befehl ab:

   ```
   $ aws s3api get-bucket-lifecycle-configuration  \
   --bucket amzn-s3-demo-bucket
   ```

1. Verwenden Sie den `delete-bucket-lifecycle` AWS CLI Befehl wie folgt, um die S3 Lifecycle-Konfiguration zu löschen:

   ```
   aws s3api delete-bucket-lifecycle \
   --bucket amzn-s3-demo-bucket
   ```

### Mit dem AWS SDKs
<a name="manage-lifecycle-using-sdk"></a>

------
#### [ Java ]

Sie können das AWS SDK for Java verwenden, um die S3-Lifecycle-Konfiguration eines Buckets zu verwalten. Weitere Informationen zur Verwaltung einer S3-Lebenszykluskonfiguration finden Sie unter [Verwalten des Lebenszyklus von Objekten](object-lifecycle-mgmt.md).

**Anmerkung**  
Wenn Sie einem Bucket eine S3-Lebenszykluskonfiguration hinzufügen, ersetzt Amazon S3 die aktuelle Lebenszykluskonfiguration des Buckets, sofern vorhanden. Um eine Lebenszykluskonfiguration zu aktualisieren, rufen Sie sie ab, nehmen die gewünschten Änderungen vor und fügen die geänderte Konfiguration dann dem Bucket hinzu.

Um die Lebenszykluskonfiguration mit dem AWS SDK for Java zu verwalten, können Sie:
+ Einem Bucket eine Lebenszyklus-Konfiguration hinzufügen.
+ Ruft die Lebenszykluskonfiguration und Updates durch Hinzufügen einer weiteren Regel ab.
+ Fügt die abgeänderte Lebenszykluskonfiguration dem Bucket hinzu. Amazon S3 ersetzt die vorhandene Konfiguration.
+ Ruft die Konfiguration erneut ab und überprüft, ob sie die richtige Anzahl von Regeln enthält, indem die Anzahl der Regeln ausgegeben wird.
+ Löscht die Lebenszykluskonfiguration und überprüft, ob sie gelöscht wurde, indem versucht wird, sie erneut abzurufen.

Beispiele dafür, wie Sie die Lebenszykluskonfiguration für einen Bucket mit dem AWS SDK for Java [einrichten, finden Sie unter Lebenszykluskonfiguration für einen Bucket](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_PutBucketLifecycleConfiguration_section.html) festlegen in der *Amazon S3 S3-API-Referenz*.

------
#### [ .NET ]

Sie können den verwenden AWS SDK für .NET , um die S3-Lifecycle-Konfiguration in einem Bucket zu verwalten. Weitere Informationen zur Verwaltung einer Lebenszykluskonfiguration finden Sie unter [Verwalten des Lebenszyklus von Objekten](object-lifecycle-mgmt.md). 

**Anmerkung**  
Wenn Sie eine Lebenszykluskonfiguration hinzufügen, ersetzt Amazon S3 die vorhandene Konfiguration für den angegebenen Bucket. Um eine Konfiguration zu aktualisieren, müssen Sie zuerst die Lebenszykluskonfiguration abrufen, die Änderungen vornehmen und dann die geänderte Lebenszykluskonfiguration dem Bucket hinzufügen.

Das folgende Beispiel zeigt, wie Sie die AWS SDK für .NET Lifecycle-Konfiguration eines Buckets hinzufügen, aktualisieren und löschen können. Das Codebeispiel führt die folgenden Aufgaben durch:
+ Fügt eine Lebenszykluskonfiguration zu einem Bucket hinzu. 
+ Ruft die Lebenszykluskonfiguration und Updates durch Hinzufügen einer weiteren Regel ab. 
+ Fügt die abgeänderte Lebenszykluskonfiguration dem Bucket hinzu. Amazon S3 ersetzt die vorhandene Lebenszykluskonfiguration.
+ Ruft die Konfiguration erneut ab und überprüft sie durch Ausgabe der Anzahl von Regeln in der Konfiguration.
+ Löscht die Lebenszykluskonfiguration und überprüft den Löschvorgang.

Informationen zum Einrichten und Ausführen der Codebeispiele finden Sie unter [Getting Started with the AWS SDK für .NET](https://docs.aws.amazon.com/sdk-for-net/v3/developer-guide/net-dg-config.html) (Erste Schritte mit dem NET) im *AWS SDK für .NET -Entwicklerhandbuch*. 

```
using Amazon;
using Amazon.S3;
using Amazon.S3.Model;
using System;
using System.Collections.Generic;
using System.Threading.Tasks;

namespace Amazon.DocSamples.S3
{
    class LifecycleTest
    {
        private const string bucketName = "*** bucket name ***";
        // Specify your bucket region (an example region is shown).
        private static readonly RegionEndpoint bucketRegion = RegionEndpoint.USWest2;
        private static IAmazonS3 client;
        public static void Main()
        {
            client = new AmazonS3Client(bucketRegion);
            AddUpdateDeleteLifecycleConfigAsync().Wait();
        }

        private static async Task AddUpdateDeleteLifecycleConfigAsync()
        {
            try
            {
                var lifeCycleConfiguration = new LifecycleConfiguration()
                {
                    Rules = new List<LifecycleRule>
                        {
                            new LifecycleRule
                            {
                                 Id = "Archive immediately rule",
                                 Filter = new LifecycleFilter()
                                 {
                                     LifecycleFilterPredicate = new LifecyclePrefixPredicate()
                                     {
                                         Prefix = "glacierobjects/"
                                     }
                                 },
                                 Status = LifecycleRuleStatus.Enabled,
                                 Transitions = new List<LifecycleTransition>
                                 {
                                      new LifecycleTransition
                                      {
                                           Days = 0,
                                           StorageClass = S3StorageClass.Glacier
                                      }
                                  },
                            },
                            new LifecycleRule
                            {
                                 Id = "Archive and then delete rule",
                                  Filter = new LifecycleFilter()
                                 {
                                     LifecycleFilterPredicate = new LifecyclePrefixPredicate()
                                     {
                                         Prefix = "projectdocs/"
                                     }
                                 },
                                 Status = LifecycleRuleStatus.Enabled,
                                 Transitions = new List<LifecycleTransition>
                                 {
                                      new LifecycleTransition
                                      {
                                           Days = 30,
                                           StorageClass = S3StorageClass.StandardInfrequentAccess
                                      },
                                      new LifecycleTransition
                                      {
                                        Days = 365,
                                        StorageClass = S3StorageClass.Glacier
                                      }
                                 },
                                 Expiration = new LifecycleRuleExpiration()
                                 {
                                       Days = 3650
                                 }
                            }
                        }
                };

                // Add the configuration to the bucket. 
                await AddExampleLifecycleConfigAsync(client, lifeCycleConfiguration);

                // Retrieve an existing configuration. 
                lifeCycleConfiguration = await RetrieveLifecycleConfigAsync(client);

                // Add a new rule.
                lifeCycleConfiguration.Rules.Add(new LifecycleRule
                {
                    Id = "NewRule",
                    Filter = new LifecycleFilter()
                    {
                        LifecycleFilterPredicate = new LifecyclePrefixPredicate()
                        {
                            Prefix = "YearlyDocuments/"
                        }
                    },
                    Expiration = new LifecycleRuleExpiration()
                    {
                        Days = 3650
                    }
                });

                // Add the configuration to the bucket. 
                await AddExampleLifecycleConfigAsync(client, lifeCycleConfiguration);

                // Verify that there are now three rules.
                lifeCycleConfiguration = await RetrieveLifecycleConfigAsync(client);
                Console.WriteLine("Expected # of rulest=3; found:{0}", lifeCycleConfiguration.Rules.Count);

                // Delete the configuration.
                await RemoveLifecycleConfigAsync(client);

                // Retrieve a nonexistent configuration.
                lifeCycleConfiguration = await RetrieveLifecycleConfigAsync(client);

            }
            catch (AmazonS3Exception e)
            {
                Console.WriteLine("Error encountered ***. Message:'{0}' when writing an object", e.Message);
            }
            catch (Exception e)
            {
                Console.WriteLine("Unknown encountered on server. Message:'{0}' when writing an object", e.Message);
            }
        }

        static async Task AddExampleLifecycleConfigAsync(IAmazonS3 client, LifecycleConfiguration configuration)
        {

            PutLifecycleConfigurationRequest request = new PutLifecycleConfigurationRequest
            {
                BucketName = bucketName,
                Configuration = configuration
            };
            var response = await client.PutLifecycleConfigurationAsync(request);
        }

        static async Task<LifecycleConfiguration> RetrieveLifecycleConfigAsync(IAmazonS3 client)
        {
            GetLifecycleConfigurationRequest request = new GetLifecycleConfigurationRequest
            {
                BucketName = bucketName
            };
            var response = await client.GetLifecycleConfigurationAsync(request);
            var configuration = response.Configuration;
            return configuration;
        }

        static async Task RemoveLifecycleConfigAsync(IAmazonS3 client)
        {
            DeleteLifecycleConfigurationRequest request = new DeleteLifecycleConfigurationRequest
            {
                BucketName = bucketName
            };
            await client.DeleteLifecycleConfigurationAsync(request);
        }
    }
}
```

------
#### [ Ruby ]

Sie können die verwenden AWS SDK für Ruby , um eine S3-Lifecycle-Konfiguration in einem Bucket mithilfe der Klasse zu verwalten [https://docs.aws.amazon.com/sdk-for-ruby/v3/api/Aws/S3/BucketLifecycle.html](https://docs.aws.amazon.com/sdk-for-ruby/v3/api/Aws/S3/BucketLifecycle.html). Weitere Informationen zur Verwaltung einer S3-Lebenszykluskonfiguration finden Sie unter [Verwalten des Lebenszyklus von Objekten](object-lifecycle-mgmt.md). 

------

### Verwenden der REST-API
<a name="manage-lifecycle-using-rest"></a>

In den folgenden Abschnitten der *Amazon Simple Storage Service API-Referenz* werden die REST-API-Vorgänge im Zusammenhang mit der S3-Lebenszykluskonfiguration beschrieben. 
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLifecycleConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLifecycleConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketLifecycleConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketLifecycleConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketLifecycle.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketLifecycle.html)

## Fehlerbehebung bei S3 Lifecycle
<a name="lifecycle-troubleshoot"></a>

Informationen zu häufigen Problemen, die bei der Arbeit mit S3 Lifecycle auftreten können, finden Sie unter [Fehlerbehebung bei Problemen mit dem Amazon-S3-Lebenszyklus](troubleshoot-lifecycle.md).

# Wie S3-Lebenszyklus mit anderen Bucket-Konfigurationen interagiert.
<a name="lifecycle-and-other-bucket-config"></a>

Neben den S3-Lebenszykluskonfigurationen können Sie Ihrem Bucket auch weitere Konfigurationen zuordnen. In diesem Abschnitt wird erläutert, wie sich die S3-Lebenszykluskonfiguration auf andere Bucket-Konfigurationen auswirkt.

## S3-Lebenszyklus und S3-Versioning
<a name="lifecycle-versioning-support-intro"></a>

Sie können nicht versionsfähigen Buckets und versionsfähigen Buckets S3-Lebenszykluskonfigurationen hinzufügen. Weitere Informationen finden Sie unter [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md). 

Ein versionsfähiger Bucket behält eine aktuelle Objektversion sowie und null oder mehr langfristige Objektversionen bei. Sie können separate Lebenszyklusrichtlinie für aktuelle und nicht aktuelle Objektversionen definieren.

Weitere Informationen finden Sie unter [Elemente der Lebenszykluskonfiguration](intro-lifecycle-rules.md).

**Wichtig**  
Wenn in einer S3-Lebenszykluskonfiguration mehrere Regeln vorhanden sind, kann es sein, dass für ein Objekt am gleichen Tag mehrere S3-Lebenszyklusaktionen auszuführen sind. In solchen Fällen folgt Amazon S3 diesen allgemeinen Regeln:  
Das permanente Löschen hat Vorrang vor einem Übergang.
Die Übertragung hat Vorrang vor der Erstellung von [Löschmarkierungen](DeleteMarker.md).
Wenn ein Objekt sowohl für einen S3 Glacier Flexible Retrieval als auch für einen S3 Standard-IA (oder S3 One Zone-IA) -Übergang in Frage kommt, entscheidet sich Amazon S3 für den Übergang zu S3 Glacier Flexible Retrieval.
 Beispiele finden Sie unter [Beispiele für überlappende Filter und widersprüchliche Lebenszyklusaktionen](lifecycle-conflicts.md#lifecycle-config-conceptual-ex5). 

## S3-Lebenszyklus und
<a name="lifecycle-and-replication"></a>

Wenn Sie sowohl als auch S3 Lifecycle für einen Bucket aktiviert haben, blockiert S3 Lifecycle Ablaufs- und Übergangsaktionen für Objekte mit `PENDING` oder `FAILED` Replikationsstatus. Dadurch wird sichergestellt, dass Lifecycle erst dann auf Objekte einwirkt, wenn sie erfolgreich in ihren Ziel-Bucket repliziert wurden.

Objekte werden aufgrund von Problemen wie fehlenden Berechtigungen für `FAILED` Replikationsrollen, AWS Key Management Service (AWS KMS) -Berechtigungen oder Bucket-Berechtigungen in einen Replikationsstatus versetzt. Weitere Informationen finden Sie unter [Fehlerbehebung bei einer Replikation](replication-troubleshoot.md).

Für Objekte mit `FAILED` Replizierungsstatus fallen auch nach Ablauf des Lebenszyklus oder für die Übergangsberechtigung weiterhin Speicherkosten an, bis das Replikationsproblem behoben ist. Sobald Sie die zugrunde liegende Replikationskonfiguration oder die IAM-Berechtigungen korrigiert haben, werden neue Objekte automatisch repliziert. Objekte, die bereits einen `FAILED` Replikationsstatus haben, werden es jedoch nicht automatisch erneut versuchen. Sie müssen S3 Batch Replication verwenden, um sie zu replizieren, oder sie mithilfe von S3 Batch Operations mit löschen, AWS Lambda wenn sie nicht mehr benötigt werden. Nachdem Objekte erfolgreich repliziert (oder gelöscht) wurden, setzt Lifecycle ihre Verarbeitung gemäß Ihren konfigurierten Regeln fort. Um Objekte mit `FAILED` Replikationsstatus zu identifizieren, können Sie Amazon CloudWatch metrics (`OperationFailedReplication`) verwenden, um die Anzahl der Fehler und Trends auf Bucket-Ebene zu überwachen, oder Amazon S3 S3-Inventarberichte, Amazon S3 S3-API (`HeadObject`oder`GetObject`) oder Amazon S3 S3-Ereignisbenachrichtigungen für Details auf Objektebene verwenden.

## S3-Lebenszykluskonfiguration auf MFA-fähigen Buckets
<a name="lifecycle-general-considerations-mfa-enabled-bucket"></a>

Eine S3-Lebenszykluskonfiguration wird auf MFA-fähigen Buckets (Multi-Faktor-Authentifizierung) nicht unterstützt. Weitere Informationen finden Sie unter [Konfigurieren von MFA Delete](MultiFactorAuthenticationDelete.md).

## S3-Lebenszyklus und Protokollieren
<a name="lifecycle-general-considerations-logging"></a>

Amazon S3 Lifecycle-Aktionen werden nicht durch die Protokollierung auf AWS CloudTrail Objektebene erfasst. CloudTrailerfasst API-Anfragen an externe Amazon S3 S3-Endpunkte, wohingegen S3 Lifecycle-Aktionen mithilfe interner Amazon S3 S3-Endpunkte ausgeführt werden. 

Sie können Amazon-S3-Server-Zugriffsprotokolle in einem S3-Bucket aktivieren, um S3-Lebenszyklusaktionen wie die Objektübertragung auf eine andere Speicherklasse und Objektabläufe zu erfassen, die zu einer dauerhaften oder logischen Löschung führen. Weitere Informationen finden Sie unter [Protokollieren von Anfragen mit Server-Zugriffsprotokollierung](ServerLogs.md).

Wenn die Protokollierung für Ihren Bucket aktiviert ist, melden Amazon-S3-Server-Zugriffsprotokolle die Ergebnisse der folgenden Vorgänge.


| Operationsprotokoll | Description | 
| --- | --- | 
|  `S3.EXPIRE.OBJECT`  |  Amazon S3 löscht das Objekt aufgrund der Lebenszyklusaktion `Expiration` dauerhaft.  | 
|  `S3.CREATE.DELETEMARKER`  |  Amazon S3 löscht die aktuelle Version logisch, indem es eine Löschmarkierung in einem Bucket mit aktiviertem Versioning hinzufügt.  | 
|  `S3.TRANSITION_SIA.OBJECT`  |  Amazon S3 überträgt das Objekt auf die Speicherklasse S3 Standard-IA.  | 
|  `S3.TRANSITION_ZIA.OBJECT`  |  Amazon S3 überträgt das Objekt auf die Speicherklasse S3 One Zone-IA.  | 
|  `S3.TRANSITION_INT.OBJECT`  |  Amazon S3 überträgt das Objekt auf die Speicherklasse S3 Intelligent-Tiering.  | 
|  `S3.TRANSITION_GIR.OBJECT`  |  Amazon S3 initiiert die Übertragung von Objekten auf die Speicherklasse S3 Glacier Instant Retrieval.  | 
|  `S3.TRANSITION.OBJECT`  |  Amazon S3 initiiert die Übertragung von Objekten auf die Speicherklasse S3 Glacier Flexible Retrieval.  | 
|  `S3.TRANSITION_GDA.OBJECT`  |  Amazon S3 initiiert die Übertragung von Objekten auf die Speicherklasse S3 Glacier Deep Archive.  | 
|  `S3.DELETE.UPLOAD`  |  Amazon S3 bricht nicht vollständige mehrteilige Uploads ab.  | 

**Anmerkung**  
Zugriffsprotokolle von Amazon-S3-Server werden auf Best-Effort-Basis bereitgestellt. Sie sind nicht als vollständige Auflistung aller Amazon-S3-Anforderungen vorgesehen. 

# Konfigurieren von S3-Lebenszyklus-Ereignisbenachrichtigungen
<a name="lifecycle-configure-notification"></a>

Um eine Benachrichtigung zu erhalten, wenn Amazon S3 ein Objekt löscht oder es nach einer S3-Lebenszyklusregel in eine andere Amazon-S3-Speicherklasse überträgt, können Sie eine Amazon-S3-Ereignisbenachrichtigung einrichten.

Für die folgenden S3-Lebenszyklusereignisse können Sie Benachrichtigungen erhalten:
+ **Übertragungsereignisse** – Durch Verwendung des Ereignistyps `s3:LifecycleTransition` können Sie eine Benachrichtigung erhalten, wenn ein Objekt durch eine S3-Lebenszykluskonfiguration von einer Amazon-S3-Speicherklasse auf eine andere übertragen wird.
+ **Ablaufereignisse (Löschereignisse)** – Durch Verwendung des Ereignistyps `LifecycleExpiration` können Sie eine Benachrichtigung erhalten, sobald Amazon S3 ein Objekt basierend auf Ihrer S3-Lebenszykluskonfiguration löscht. 

  Es gibt zwei Typen von Ablaufereignissen: 
  + Der Ereignistyp `s3:LifecycleExpiration:Delete` benachrichtigt Sie, wenn ein Objekt in einem nicht versionierten Bucket gelöscht wird. `s3:LifecycleExpiration:Delete` benachrichtigt Sie auch, wenn eine Objektversion durch eine S3-Lebenszykluskonfiguration dauerhaft gelöscht wird.
  +  Der Ereignistyp `s3:LifecycleExpiration:DeleteMarkerCreated` benachrichtigt Sie, wenn S3-Lebenszyklus eine Löschmarkierung erstellt, nachdem eine aktuelle Version eines Objekts in einem versionierten Bucket gelöscht wurde. S3 Lifecycle setzt die Erstellungszeit der Löschmarke auf 00:00 UTC (Mitternacht) des aktuellen Tages. Diese Erstellungszeit kann von der Ereigniszeit in der von `s3:LifecycleExpiration:DeleteMarkerCreated` gesendeten Benachrichtigung abweichen. Weitere Informationen finden Sie unter [Löschen von Objekten aus einem versioning-fähigen Bucket](DeletingObjectVersions.md).

Amazon S3 kann Ereignisbenachrichtigungen zu einem Amazon Simple Notification Service (Amazon SNS) -Thema, einer Amazon Simple Queue Service (Amazon SQS) -Warteschlange oder einer AWS Lambda Funktion veröffentlichen. Weitere Informationen finden Sie unter [Amazon-S3-Ereignisbenachrichtigungen](EventNotifications.md).

Anweisungen zur Konfiguration von Amazon S3 S3-Ereignisbenachrichtigungen finden Sie unter [Aktivieren von Ereignisbenachrichtigungen mithilfe von Amazon SQS, Amazon SNS und](how-to-enable-disable-notification-intro.md). AWS Lambda

Das Folgende ist ein Beispiel für eine Nachricht, die Amazon S3 sendet, um ein `s3:LifecycleExpiration:Delete`-Ereignis zu veröffentlichen. Weitere Informationen finden Sie unter [Struktur von Ereignismeldungen](notification-content-structure.md).

```
 1. {  
 2.    "Records":[  
 3.       {  
 4.          "eventVersion":"2.3",
 5.          "eventSource":"aws:s3",
 6.          "awsRegion":"us-west-2",
 7.          "eventTime":"1970-01-01T00:00:00.000Z",
 8.          "eventName":"LifecycleExpiration:Delete",
 9.          "userIdentity":{  
10.             "principalId":"s3.amazonaws.com"
11.          },
12.          "requestParameters":{  
13.             "sourceIPAddress":"s3.amazonaws.com"
14.          },
15.          "responseElements":{  
16.             "x-amz-request-id":"C3D13FE58DE4C810",
17.             "x-amz-id-2":"FMyUVURIY8/IgAtTv8xRjskZQpcIZ9KG4V5Wp6S7S/JRWeUWerMUE5JgHvANOjpD"
18.          },
19.          "s3":{  
20.             "s3SchemaVersion":"1.0",
21.             "configurationId":"testConfigRule",
22.             "bucket":{  
23.                "name":"amzn-s3-demo-bucket",
24.                "ownerIdentity":{  
25.                   "principalId":"A3NL1KOZZKExample"
26.                },
27.                "arn":"arn:aws:s3:::amzn-s3-demo-bucket"
28.             },
29.             "object":{  
30.                "key":"expiration/delete",
31.                "sequencer":"0055AED6DCD90281E5",              
32.             }
33.          }
34.       }
35.    ]
36. }
```

Nachrichten, die Amazon S3 versendet, um ein `s3:LifecycleTransition`-Ereignis zu veröffentlichen, enthalten auch die folgenden Informationen:

```
1. "lifecycleEventData":{
2.     "transitionEventData": {
3.         "destinationStorageClass": the destination storage class for the object
4.     }
5. }
```

# Elemente der Lebenszykluskonfiguration
<a name="intro-lifecycle-rules"></a>

Eine S3-Lebenszykluskonfiguration besteht aus Lebenszyklusregeln mit verschiedenen Elementen, die die Aktionen beschreiben, die Amazon S3 während der Lebensdauer von Objekten durchführt. Jedem S3-Bucket kann eine Lebenszykluskonfiguration zugewiesen werden, die bis zu 1.000 Regeln enthalten kann. Sie erstellen eine Amazon-S3-Lebenszykluskonfiguration als XML, die aus einer oder mehreren Lebenszyklusregeln besteht. Jede Regel besteht wiederum aus einem oder mehreren Elementen.

```
<LifecycleConfiguration>
    <Rule>
         <Element>
    </Rule>
    <Rule>
         <Element>
         <Element>
    </Rule>
</LifecycleConfiguration>
```

Jeder Regel umfasst Folgendes:
+ Metadaten für die Regel, mit Regel-ID und einem Status, der anzeigt, ob die Regel aktiviert oder deaktiviert ist. Wenn eine Regel deaktiviert ist, führt Amazon S3 keine in der Regel spezifizierten Aktionen aus.
+ Ein Filter, der die Objekte identifiziert, für die die Regel gilt. Sie können einen Filter angeben, indem Sie die Objektgröße, das Objektschlüsselpräfix, ein oder mehrere Objekt-Tags oder eine Kombination von Filtern verwenden.
+ Eine oder mehrere Übergangs- oder Ablaufaktionen mit einem Datum oder einem Zeitintervall innerhalb der Lebensdauer des Objekts, zu denen Amazon S3 die angegebene Aktion ausführen soll. 

**Topics**
+ [ID-Element](#intro-lifecycle-rule-id)
+ [Statuselement](#intro-lifecycle-rule-status)
+ [Filterelement](#intro-lifecycle-rules-filter)
+ [Elemente, die Lebenszyklusaktionen beschreiben](#intro-lifecycle-rules-actions)
+ [Hinzufügen von Filtern zu Lebenszyklusregeln](intro-lifecycle-filters.md)

In den folgenden Abschnitten werden die XML-Elemente in einer S3-Lebenszykluskonfiguration beschrieben. Beispielkonfigurationen finden Sie unter [Beispiele für S3-Lebenszykluskonfigurationen](lifecycle-configuration-examples.md).

## ID-Element
<a name="intro-lifecycle-rule-id"></a>

Lebenszykluskonfigurationen werden auf Bucket-Ebene festgelegt, wobei jeder Bucket seine eigene Lebenszykluskonfiguration hat. Eine S3-Lebenszykluskonfiguration kann bis zu 1 000 Regeln pro Bucket haben. Diese Grenze ist nicht einstellbar. Das `<ID>` Element identifiziert eindeutig eine Regel innerhalb der Lebenszykluskonfiguration eines Buckets. Die Länge der ID ist auf 255 Zeichen begrenzt.

## Statuselement
<a name="intro-lifecycle-rule-status"></a>

Der Wert des Elements `<Status>` kann `Enabled` oder `Disabled` sein. Wenn eine Regel deaktiviert ist, führt Amazon S3 keine in der Regel definierten Aktionen aus.

## Filterelement
<a name="intro-lifecycle-rules-filter"></a>

Eine S3-Lebenszyklusregel kann für alle Objekte oder eine Untermenge der Objekte in einem Bucket gelten, abhängig vom Element `<Filter>`, das Sie in der Regel angeben. 

Sie können Objekte nach dem Schlüsselpräfix, Objekt-Markierungen oder Kombinationen aus beidem filtern (bei einer Kombination verwendet Amazon S3 ein logisches `AND` für die Filter). Beispiele und weitere Informationen zu Filtern finden Sie unter [Hinzufügen von Filtern zu Lebenszyklusregeln](intro-lifecycle-filters.md).
+ **Festlegen eines Filters unter Verwendung von Schlüsselpräfixen** – Dieses Beispiel zeigt eine S3-Lebenszyklusregel, die sich abhängig vom Schlüsselnamenpräfix (`logs/`) auf eine Untermenge von Objekten bezieht. Beispielsweise gilt die Lebenszyklusregel für die Objekte `logs/mylog.txt`, `logs/temp1.txt` und `logs/test.txt`. Die Regel gilt nicht für das Objekt `example.jpg`.

  ```
  <LifecycleConfiguration>
      <Rule>
          <Filter>
             <Prefix>logs/</Prefix>
          </Filter>
          transition/expiration actions
           ...
      </Rule>
      ...
  </LifecycleConfiguration>
  ```

  Wenn Sie eine Lebenszyklusaktion auf eine Untermenge von Objekten basierend auf unterschiedlichen Schlüsselnamenpräfixen anwenden wollen, müssen Sie separate Regeln angeben. Geben Sie in jeder Regel einen auf einem Präfix basierenden Filter an. Um beispielsweise eine Lebenszyklusaktion für Objekte mit den Schlüsselpräfixen `projectA/` und `projectB/` zu beschreiben, geben Sie zwei Regeln folgendermaßen an: 

  ```
  <LifecycleConfiguration>
      <Rule>
          <Filter>
             <Prefix>projectA/</Prefix>
          </Filter>
          transition/expiration actions
           ...
      </Rule>
  
      <Rule>
          <Filter>
             <Prefix>projectB/</Prefix>
          </Filter>
          transition/expiration actions
           ...
      </Rule>
  </LifecycleConfiguration>
  ```

  Weitere Informationen über Objektschlüssel finden Sie unter [Markieren von Amazon-S3-Objekten](object-keys.md). 
+ **Festlegen eines Filters auf der Basis von Objekt-Markierungen** – Im folgenden Beispiel gibt die Lebenszyklusregel einen Filter basierend auf einem Tag (`key`) und einem Wert (`value`) an. Die Regel wird dann nur auf eine Untermenge von Objekten mit dem spezifischen Tag angewendet.

  ```
  <LifecycleConfiguration>
      <Rule>
          <Filter>
             <Tag>
                <Key>key</Key>
                <Value>value</Value>
             </Tag>
          </Filter>
          transition/expiration actions
          ...
      </Rule>
  </LifecycleConfiguration>
  ```

  Sie können einen Filter auf mehreren Markierungen basierend angeben. Sie müssen die Markierungen mit dem Element `<And>` umschließen wie im folgenden Beispiel gezeigt. Die Regel weist Amazon S3 an, Lebenszyklusaktionen für Objekte mit zwei Markierungen auszuführen (mit dem spezifischen Tag-Schlüssel und -wert).

  ```
  <LifecycleConfiguration>
      <Rule>
        <Filter>
           <And>
              <Tag>
                 <Key>key1</Key>
                 <Value>value1</Value>
              </Tag>
              <Tag>
                 <Key>key2</Key>
                 <Value>value2</Value>
              </Tag>
               ...
            </And>
        </Filter>
        transition/expiration actions
      </Rule>
  </Lifecycle>
  ```

  Die Lebenszyklusregel gilt für Objekte, für die beide Markierungen angegeben sind. Amazon S3 führt eine logische `AND`-Operation aus. Beachten Sie Folgendes:
  + Jede Markierung muss exakt mit dem Schlüssel *und* dem Wert übereinstimmen. Wenn Sie nur ein Element `<Key>` und kein Element `<Value>` angeben, gilt die Regel nur für Objekte, die dem Schlüssel der Markierung entsprechen und für die *kein* Wert angegeben ist.
  + Die Regel gilt für die Untermenge der Objekte, , die alle in der Regel angegebenen Markierungen besitzt. Wenn für ein Objekt zusätzliche Markierungen angegeben sind, gilt die Regel weiterhin.
**Anmerkung**  
Wenn Sie mehrere Markierungen in einem Filter spezifizieren, muss jeder Tag-Schlüssel eindeutig sein.
+ **Festlegen eines Filters auf der Basis eines Präfixes und mindestens einer Markierung** – Sie können in einer Lebenszyklusregel einen Filter angeben, der sowohl auf dem Schlüsselpräfix als auch auf mindestens einer Markierung basiert. Auch hier müssen Sie all diese Filterelemente folgendermaßen mit dem Element `<And>` umschließen:

  ```
  <LifecycleConfiguration>
      <Rule>
          <Filter>
            <And>
               <Prefix>key-prefix</Prefix>
               <Tag>
                  <Key>key1</Key>
                  <Value>value1</Value>
               </Tag>
               <Tag>
                  <Key>key2</Key>
                  <Value>value2</Value>
               </Tag>
                ...
            </And>
          </Filter>
          <Status>Enabled</Status>
          transition/expiration actions
      </Rule>
  </LifecycleConfiguration>
  ```

  Amazon S3 kombiniert diese Filter unter Verwendung eines logischen `AND`-Vorgangs. Das bedeutet, die Regel wird auf eine Untermenge von Objekten mit dem festgelegten Schlüsselpräfix und den festgelegten Markierungen angewendet. Ein Filter kann höchstens ein Präfix und null oder mehr Markierungen aufweisen.
+ Sie können einen **leeren Filter** angeben, dann gilt die Regel für alle Objekte in dem Bucket.

  ```
  <LifecycleConfiguration>
      <Rule>
          <Filter>
          </Filter>
          <Status>Enabled</Status>
          transition/expiration actions
      </Rule>
  </LifecycleConfiguration>
  ```
+ Um eine Regel nach **Objektgröße** zu filtern, können Sie eine Mindestgröße (`ObjectSizeGreaterThan`) oder eine Höchstgröße (`ObjectSizeLessThan`) oder einen Bereich von Objektgrößen angeben.

  Objektgrößenwerte sind in Bytes. Standardmäßig werden Objekte, die kleiner als 128 KB sind, nicht in eine Speicherklasse übertragen, es sei denn, Sie geben eine kleinere Mindestgröße (`ObjectSizeGreaterThan`) oder eine maximale Größe (`ObjectSizeLessThan`) an. Weitere Informationen finden Sie unter [Beispiel: Zulassen der Übertragung von Objekten, die kleiner als 128 KB sind](lifecycle-configuration-examples.md#lc-small-objects).

  ```
                      <LifecycleConfiguration>
      <Rule>
          <Filter>
              <ObjectSizeGreaterThan>500</ObjectSizeGreaterThan>   
          </Filter>
          <Status>Enabled</Status>
          transition/expiration actions
      </Rule>
  </LifecycleConfiguration>
  ```
**Anmerkung**  
Die Filter `ObjectSizeGreaterThan` und `ObjectSizeLessThan` schließen die festgelegten Werte aus. Beispiel: Wenn Sie festlegen, dass Objekte mit einer Größe von 128 KB bis 1.024 KB von der Speicherklasse S3 Standard auf die Speicherklasse S3 Standard-IA übertragen werden sollen, werden Objekte, die genau 1.024 KB oder 128 KB groß sind, nicht auf S3 Standard-IA übertragen. Stattdessen gilt die Regel nur für Objekte, die größer als 128 KB und kleiner als 1.024 KB sind. 

  Wenn Sie einen Objektgrößenbereich angeben, muss die `ObjectSizeGreaterThan`-Ganzzahl kleiner als der `ObjectSizeLessThan`-Wert sein. Wenn Sie mehr als einen Filter verwenden, müssen Sie die Filter in ein `<And>`-Element packen. Im folgenden Beispiel wird gezeigt, wie Sie Objekte in einem Bereich zwischen 500 und 64.000 Byte angeben. 

  ```
  <LifecycleConfiguration>
      <Rule>
          <Filter>
              <And>
                  <Prefix>key-prefix</Prefix>
                  <ObjectSizeGreaterThan>500</ObjectSizeGreaterThan>
                  <ObjectSizeLessThan>64000</ObjectSizeLessThan>
              </And>    
          </Filter>
          <Status>Enabled</Status>
          transition/expiration actions
      </Rule>
  </LifecycleConfiguration>
  ```

## Elemente, die Lebenszyklusaktionen beschreiben
<a name="intro-lifecycle-rules-actions"></a>

Sie können Amazon S3 anweisen, spezifische Aktionen innerhalb der Lebensdauer eines Objekts auszuführen, indem Sie eine oder mehrere vordefinierte Aktionen in einer S3-Lebenszyklusregel angeben. Die Wirkung dieser Aktionen ist vom Versioning-Status Ihres Buckets abhängig. 
+ **`Transition`-Aktionselement** – Sie geben die `Transition`-Aktion an, um Objekte von einer Speicherklasse in eine andere zu übertragen. Weitere Informationen zum Übergang von Objekten finden Sie unter [Unterstützte Übertragungen](lifecycle-transition-general-considerations.md#lifecycle-general-considerations-transition-sc). Wenn ein vorgegebenes Datum oder einem Zeitintervall innerhalb der Lebensdauer des Objekts erreicht ist, führt Amazon S3 den Übergang aus. 

  Für einen versionsfähigen Bucket (Bucket mit aktiviertem oder ausgesetztem Versioning) wird die `Transition`-Aktion auf die aktuelle Objektversion angewendet. Um nicht aktuelle Versionen zu verwalten, definiert Amazon S3 die `NoncurrentVersionTransition`-Aktion (wird später in diesem Thema beschrieben).
+ **`Expiration`-Aktionselement** – Die `Expiration`-Aktion lässt in der Regel definierte Objekte ablaufen und gilt für entsprechende Objekte in allen Amazon-S3-Speicherklassen. Weitere Informationen über Speicherklassen finden Sie unter [Verstehen und Verwalten von Amazon-S3-Speicherklassen](storage-class-intro.md). Amazon S3 lässt keinen Zugriff auf abgelaufene Objekte zu. Ob die Objekte dauerhaft entfernt werden, ist vom Versioning-Status des Buckets abhängig. 
  + **Nicht versionsfähiger Bucket** – Die `Expiration`-Aktion bewirkt, dass Amazon S3 das Objekt dauerhaft entfernt. 
  + **Versionsfähiger Bucket** – Für einen versionsfähigen Bucket (d. h. das Versioning ist aktiviert oder ausgesetzt) gibt es mehrere Aspekte, die bestimmen, wie Amazon S3 `Expiration`-Aktion verarbeitet. Für Buckets mit aktivierter oder ausgesetzter Versionsverwaltung gilt Folgendes:
    + Die `Expiration`-Aktion wird nur auf die aktuelle Version angewendet (sie wirkt sich nicht auf nicht aktuelle Objektversionen aus).
    + Amazon S3 führt keine Aktion aus, wenn es eine oder mehrere Objektversionen gibt und die Löschmarkierung die aktuelle Version ist.
    + Wenn die aktuelle Objektversion die einzige Objektversion und auch eine Löschmarkierung ist (auch als *Löschmarkierung eines abgelaufenen Objekts* bezeichnet, wobei alle Objektversionen gelöscht werden und nur noch eine Löschmarkierung beibehalten wird), entfernt Amazon S3 die Löschmarkierung des abgelaufenen Objekts. Sie können die Ablaufaktion (Expiration) auch verwenden, um Amazon S3 anzuweisen, alle abgelaufenen Löschmarkierungen zu entfernen. Ein Beispiel finden Sie unter [Entfernen von Löschmarkierungen für abgelaufene Objekte in einem Bucket mit aktivierter Versionsverwaltung](lifecycle-configuration-examples.md#lifecycle-config-conceptual-ex7). 

    Weitere Informationen finden Sie unter [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md).

    Berücksichtigen Sie auch die folgenden Punkte, wenn Sie Amazon S3 zur Ablaufverwaltung einrichten:
    + **Bucket mit aktiviertem Versioning** 

      Wenn die aktuelle Objektversion keine Löschmarkierung ist, fügt Amazon S3 die Löschmarkierung mit einer eindeutigen Versions-ID hinzu. Damit ist die aktuelle Version nicht mehr aktuell und die Löschmarkierung wird zur aktuellen Version. 
    + **Bucket mit ausgesetztem Versioning** 

      Für einen Bucket mit ausgesetztem Versioning bewirkt die Ablaufaktion, dass Amazon S3 eine Löschmarkierung mit der Versions-ID `null` erstellt. Diese Löschmarkierung ersetzt jede Objektversion mi einer Versions-ID von null in der Versionshierarchie, womit das Objekt effektiv gelöscht wird. 

Darüber hinaus unterstützt Amazon S3 die folgenden Aktionen, mit denen Sie nicht aktuelle Objektversionen in einem versionsfähigen Bucket verwalten können (d. h. für Buckets mit aktivierten und ausgesetztem Versioning).
+ **`NoncurrentVersionTransition`-Aktionselement** – Verwenden Sie diese Aktion, um festzulegen, wann Amazon S3 Objekte auf die angegebene Speicherklasse übertragen soll. Sie können diesen Übergang auf die Anzahl von Tagen basieren, seit der die Objekte nicht mehr aktuell (`<NoncurrentDays>`) sind. Zusätzlich zur Anzahl der Tage können Sie auch die Anzahl der nicht aktuellen Versionen (`<NewerNoncurrentVersions>`) angeben, die aufbewahrt werden sollen (zwischen 1 und 100). Dieser Wert bestimmt die Anzahl der neueren nicht aktuellen Versionen, die vorhanden sein müssen, damit Amazon S3 die zugehörige Aktion für eine bestimmte Version ausführen kann. Amazon S3 überträgt alle zusätzlichen nicht aktuellen Versionen, die über die angegebene Anzahl hinaus beibehalten werden sollen. Damit der Übergang stattfinden kann, müssen `<NoncurrentDays>` **sowohl** die als auch die `<NewerNoncurrentVersions>` Werte überschritten werden.

  Sie müssen auch ein `<Filter>`-Element angeben, um die maximale Anzahl nicht aktueller Versionen festzulegen. Wenn Sie kein `<Filter>`-Element angeben, generiert Amazon S3 einen `InvalidRequest`-Fehler, sobald Sie eine maximale Anzahl nicht aktueller Versionen angeben.

  Weitere Informationen zum Übergang von Objekten finden Sie unter [Unterstützte Übertragungen](lifecycle-transition-general-considerations.md#lifecycle-general-considerations-transition-sc). Ausführliche Informationen dazu, wie Amazon S3 das Datum berechnet, wenn Sie die Anzahl der Tage in der `NoncurrentVersionTransition`-Aktion angeben, finden Sie unter [Lebenszyklusregeln: Basierend auf dem Alter eines Objekts](#intro-lifecycle-rules-number-of-days).
+ **`NoncurrentVersionExpiration`-Aktionselement** – Verwenden Sie diese Aktion, um festzulegen, dass Amazon S3 nicht aktuelle Versionen von Objekten dauerhaft entfernen soll. Diese gelöschten Objekte können nicht wiederhergestellt werden. Sie können diesem Ablauf eine bestimmte Anzahl von Tagen zugrunde legen, seit die Objekte nicht mehr aktuell sind (`<NoncurrentDays>`). Zusätzlich zur Anzahl der Tage können Sie auch die Anzahl der nicht aktuellen Versionen (`<NewerNoncurrentVersions>`) angeben, die aufbewahrt werden sollen (zwischen 1 und 100). Dieser Wert gibt die Anzahl der neueren nicht aktuellen Versionen an, die vorhanden sein müssen, damit Amazon S3 die zugehörige Aktion für eine bestimmte Version ausführen kann. Amazon S3 löscht alle zusätzlichen nicht aktuellen Versionen dauerhaft, die über die angegebene Anzahl hinaus beibehalten werden sollen. Damit der Löschvorgang durchgeführt werden kann, müssen `<NoncurrentDays>` **sowohl** der als auch der `<NewerNoncurrentVersions>` Wert überschritten werden.

  Sie müssen auch ein `<Filter>`-Element angeben, um die maximale Anzahl nicht aktueller Versionen festzulegen. Wenn Sie kein `<Filter>`-Element angeben, generiert Amazon S3 einen `InvalidRequest`-Fehler, sobald Sie eine maximale Anzahl nicht aktueller Versionen angeben.

  Das verzögerte Entfernen nicht aktueller Objekte kann hilfreich sein, wenn Sie versehentliche Lösch- oder Überschreibvorgänge korrigieren müssen. Beispielsweise können Sie eine Ablaufregel konfigurieren, um nicht aktuelle Versionen fünf Tage nach dem Zeitpunkt zu löschen, zu dem sie nicht aktuell geworden sind. Angenommen, Sie erstellen am 01.01.2014 um 10:30 Uhr UTC das Objekt `photo.gif` (Versions-ID 111111). Am 2.1.2014 um 11:30 Uhr UTC löschen Sie versehentlich `photo.gif` (Versions-ID 111111), wodurch eine Löschmarkierung mit einer neuen Versions-ID erstellt wird (z. B. Versions-ID 4857693). Jetzt haben Sie fünf Tage Zeit, die Originalversion von `photo.gif` (Versions-ID 111111) wiederherzustellen, bevor das Löschen permanent wird. Am 8.1.2014 um 00:00 Uhr UTC wird die Lebenszyklusregel für den Ablauf ausgeführt und löscht `photo.gif` (Versions-ID 111111) permanent. Dies erfolgt fünf Tage, nachdem es zu einer nicht aktuellen Version geworden ist. 

  Weitere Informationen darüber, wie Amazon S3 das Datum berechnet, an dem Sie die Anzahl der Tage `NoncurrentVersionExpiration` Aktion angeben finden Sie in [Lebenszyklusregeln: Basierend auf dem Alter eines Objekts](#intro-lifecycle-rules-number-of-days).
**Anmerkung**  
Objektablauf-Lebenszykluskonfigurationen entfernen keine unvollständigen mehrteiligen Uploads. Um unvollständige mehrteilige Uploads zu entfernen, müssen Sie die Lebenszykluskonfigurations-Aktion `AbortIncompleteMultipartUpload` verwenden, die später in diesem Abschnitt beschrieben wird. 

Neben den Übertragungs- und Ablaufaktionen können Sie die folgenden Lebenszykluskonfigurationsaktionen verwenden, um Amazon S3 anzuweisen, unvollständige mehrteilige Uploads abzubrechen oder abgelaufene Objekte mit Löschmarkierung zu entfernen. 
+ **`AbortIncompleteMultipartUpload`-Aktionselement** – Mit diesem Element können Sie eine maximale Zeitdauer (in Tagen) festlegen, für den Sie die Bearbeitung mehrteiliger Uploads zulassen möchten. Wenn die jeweiligen mehrteiligen Uploads (festgelegt durch das in der Lebenszyklusregel angegebene `prefix` des Schlüsselnamens) nicht innerhalb des vordefinierten Zeitraums erfolgreich abgeschlossen werden, bricht Amazon S3 die unvollständigen mehrteiligen Uploads ab. Weitere Informationen finden Sie unter [Abbrechen eines mehrteiligen Uploads](abort-mpu.md). 
**Anmerkung**  
Sie können diese Lebenszyklusaktion nicht in einer Regel angeben, die einen Filter hat, der Objekt-Markierungen verwendet. 
+ **`ExpiredObjectDeleteMarker`-Aktionselement** – In einem Bucket mit aktiviertem Versioning wird eine Löschmarkierung, die keine nicht aktuellen Versionen enthält, als *Löschmarkierung für abgelaufene Objekte* bezeichnet. Sie können diese Lebenszyklusaktion verwenden, um Amazon S3 anzuweisen, Löschmarkierungen abgelaufener Objekte zu entfernen. Ein Beispiel finden Sie unter [Entfernen von Löschmarkierungen für abgelaufene Objekte in einem Bucket mit aktivierter Versionsverwaltung](lifecycle-configuration-examples.md#lifecycle-config-conceptual-ex7).
**Anmerkung**  
Sie können diese Lebenszyklusaktion nicht in einer Regel angeben, die einen Filter hat, der Objekt-Markierungen verwendet.

### Wie Amazon S3 berechnet, wie lange ein Objekt nicht aktuell ist
<a name="non-current-days-calculations"></a>

In einem versionsfähigen Bucket können Sie mehrere Versionen eines Objekts haben. Es gibt immer eine aktuelle Version und null oder mehr nicht aktuelle Versionen. Immer wenn Sie ein Objekt hochladen, wird die aktuelle Version als die nicht aktuelle Version beibehalten, und die neu hinzugefügte Version, der Nachfolger, wird zur aktuellen Version. Um die Anzahl der Tage zu bestimmen, wie lange ein Objekt nicht aktuell ist, wertet Amazon S3 es aus, wenn der Nachfolger erstellt wurde. Amazon S3 verwendet die Anzahl der Tage, seit der Nachfolger erstellt wurde, als die Anzahl der Tage, wie lange ein Objekt nicht aktuell ist.

**Wiederherstellung vorheriger Versionen eines Objekts bei Verwendung von S3-Lebenszykluskonfigurationen**  
Wie in [Wiederherstellen früherer Versionen](RestoringPreviousVersions.md) erklärt, können Sie eine der beiden folgenden Methoden verwenden, um vorherige Versionen eines Objekts abzurufen:  
**Methode 1 – Eine nicht aktuelle Version des Objekts in denselben Bucket kopieren.** Das kopierte Objekt wird zur aktuellen Version dieses Objekts, und alle Objektversionen werden beibehalten.
**Methode 2 – Die aktuelle Version des Objekts dauerhaft löschen.** Wenn Sie die aktuelle Objektversion löschen, wandeln Sie letztlich die nicht aktuelle Version in die aktuelle Version dieses Objekts um. 
Wenn Sie S3-Lebenszyklus-Konfigurationsregeln für Buckets mit aktiviertem Versioning verwenden, empfehlen wir Ihnen, Methode 1 zu verwenden, was sich bewährt hat.   
Der S3-Lebenszyklus arbeitet nach einem letztlich konsistenten Modell. Eine aktuelle Version, die Sie dauerhaft gelöscht haben, verschwindet möglicherweise erst, wenn die Änderungen an alle Amazon-S3-Systeme propagiert werden. (Daher kennt Amazon S3 diese Löschaktion möglicherweise vorübergehend nicht.) In der Zwischenzeit kann die Lebenszyklusregel, die Sie für den Ablauf nicht aktueller Objekte konfiguriert haben, die nicht aktuellen Objekte dauerhaft entfernen, auch dasjenige, das Sie wiederherstellen möchten. Das Kopieren der alten Version, wie in Methode 1 empfohlen, ist deshalb die sicherere Alternative.

### Lebenszyklusaktionen und der Versioning-Status eines Buckets
<a name="lifecycle-actions-bucket-versioning-state"></a>

Die folgende Tabelle zeigt einen Überblick über das Verhalten der Aktionen der S3-Lebenszyklus-Konfigurationsregeln für Objekte im Hinblick auf den Versioning-Status des Buckets, der das Objekt enthält.


| Action | Nicht versionsfähiger Bucket (Versioning nicht aktiviert) | Bucket mit aktiviertem Versioning | Bucket mit ausgesetztem Versioning | 
| --- | --- | --- | --- | 
|  `Transition` Wenn ein vorgegebenes Datum oder einem Zeitintervall innerhalb der Lebensdauer des Objekts erreicht ist  | Amazon S3 führt das Objekt in die angegebene Speicherklasse über. | Amazon S3 führt die aktuelle Version des Objekts in die angegebene Speicherklasse über. | Dasselbe Verhalten wie ein Bucket mit aktiviertem Versioning. | 
|  `Expiration` Wenn ein vorgegebenes Datum oder einem Zeitintervall innerhalb der Lebensdauer des Objekts erreicht ist  | Die Expiration-Aktion löscht das Objekt, und das gelöschte Objekt kann nicht wiederhergestellt werden. | Wenn die aktuelle Version keine Löschmarkierung ist, erstellt Amazon S3 eine Löschmarkierung, die zur aktuellen Version wird, und die vorhandene aktuelle Version wird als nicht aktuelle Version beibehalten. | Die Lebenszyklusaktion erstellt eine Löschmarkierung mit der Versions-ID null, die zur aktuellen Version wird. Wenn die Versions-ID der aktuellen Version des Objekts null ist, löscht die Expiration-Aktion diese Version dauerhaft. Andernfalls wird die aktuelle Version als nicht aktuelle Version beibehalten. | 
|  `NoncurrentVersionTransition` **Bei veralteten Versionen in einem Bucket mit aktivierter Versionsverwaltung oder angehaltener Versionsverwaltung wechselt S3 Lifecycle ein Objekt, wenn die Anzahl der Tage, seit das Objekt nicht aktuell war, sowohl den in der Regel unter **Tage nach der Nichtaktualität von Objekten** (`<NoncurrentDays>`) angegebenen Wert überschreitet als auch wenn die Anzahl der Versionen den in Anzahl der **beibehaltenen neueren Versionen (`<NewerNoncurrentVersions>`) in der** Regel angegebenen Wert überschreitet.**  | NoncurrentVersionTransition hat keine Auswirkungen. |  Amazon S3 führt die nicht aktuellen Versionen des Objekts in die angegebene Speicherklasse über.  | Dasselbe Verhalten wie ein Bucket mit aktiviertem Versioning. | 
|  `NoncurrentVersionExpiration` **Bei nicht aktuellen Versionen in einem Bucket mit aktivierter Versionsverwaltung oder angehaltener Versionsverwaltung läuft ein Objekt in S3 Lifecycle ab, wenn die Anzahl der Tage, seit das Objekt nicht aktuell war, sowohl den in der Regel unter **Tage nach der Nichtaktualität von Objekten** (`<NoncurrentDays>`) angegebenen Wert überschreitet als auch wenn die Anzahl der Versionen den in **Anzahl der beizubehaltenden neueren Versionen** (`<NewerNoncurrentVersions>`) in der Regel angegebenen Wert überschreitet.**  | NoncurrentVersionExpiration hat keine Auswirkungen. | Die NoncurrentVersionExpiration-Aktion löscht die nicht aktuelle Version des Objekts dauerhaft, und das gelöschte Objekt kann nicht wiederhergestellt werden. | Dasselbe Verhalten wie ein Bucket mit aktiviertem Versioning. | 

### Lebenszyklusregeln: Basierend auf dem Alter eines Objekts
<a name="intro-lifecycle-rules-number-of-days"></a>

Sie können ein Zeitintervall als Anzahl der Tage ab der Erstellung (oder Änderung) des Objekts angeben, wann Amazon S3 die festgelegte Aktion ausführen kann. 

Wenn Sie die Anzahl der Tage in den `Transition`- und `Expiration`-Aktionen in einer S3-Lebenszykluskonfiguration angeben, beachten Sie Folgendes:
+ Der Wert, den Sie festlegen, ist die Anzahl der Tage nach der Erstellung des Objekts, wann die Aktion stattfindet.
+ Amazon S3 berechnet die Zeit, indem es die in der Regel angegebene Anzahl an Tagen zur Zeit der Objekterstellung hinzufügt und die resultierende Zeit auf die UTC des nächsten Tags um Mitternacht rundet. Wurde ein Objekt beispielsweise am 15.1.2014 um 10:30 Uhr UTC erstellt und Sie geben in einer Übergangsregel 3 Tage an, wird das Übergangsdatum des Objekts für den 19.1.2014 um 00:00 Uhr UTC berechnet. 

**Anmerkung**  
Amazon S3 behält nur das letzte Änderungsdatum für jedes Objekt bei. Beispielsweise zeigt die Amazon-S3-Konsole das Datum **Last Modified (Zuletzt geändert)** im Bereich **Properties (Eigenschaften)** für das Objekt an. Wenn Sie ein neues Objekt erstellen, ist dieses Datum das Datum, zu dem das Objekt erstellt wurde. Wenn Sie das Objekt ersetzen, ändert sich das Datum entsprechend. Daher ist das Erstellungsdatum gleichbedeutend mit dem Datum der **letzten Änderung (Last modified)**. 

Wenn Sie die Anzahl der Tage in den `NoncurrentVersionTransition`- und `NoncurrentVersionExpiration`-Aktionen in einer Lebenszykluskonfiguration angeben, beachten Sie Folgendes:
+ Der Wert, den Sie festlegen, ist die Anzahl der Tage, ab dem Zeitpunkt, an dem die Version des Objekts nicht aktuell wird (d. h. der Zeitpunkt, an dem das Objekt überschrieben oder gelöscht wird). Dies gilt für die Version des Objekts, für das Amazon S3 die Aktion ausführen wird.
+ Amazon S3 berechnet die Zeit, indem es die in der Regel angegebene Anzahl an Tagen der Zeit hinzufügt, zu der die neue Nachfolgerversion des Objekts erstellt wurde, und die resultierende Zeit auf die UTC des nächsten Tags um Mitternacht rundet. Angenommen, Sie haben in Ihrem Bucket eine aktuelle Version eines Objekts, das am 1.1.2014 um 10:30 Uhr UTC erstellt wurde. Wenn die neue Version des Objekts, die die aktuelle Version ersetzt, am 15.1.2014 um 10:30 Uhr UTC erstellt wird und Sie in einer Übergangsregel 3 Tage angeben, wird das Übergangsdatum für das Objekt für den 19.1.2014 um 00:00 Uhr UTC berechnet. 

### Lebenszyklusregeln: Basierend auf einem spezifischen Datum
<a name="intro-lifecycle-rules-date"></a>

Wenn Sie in einer S3-Lebenszyklusregel eine Aktion angeben, können Sie ein Datum angeben, wann Amazon S3 die Aktion ausführen soll. Wenn das spezifische Datum erreicht ist, wendet Amazon S3 die Aktion auf alle qualifizierten Objekte an (basierend auf den Filterkriterien). 

Wenn Sie eine S3-Lebenszyklusaktion mit einem Datum angeben, das in der Vergangenheit liegt, kommen sofort alle qualifizierten Objekte für diese Lebenszyklusaktion in Frage.

**Wichtig**  
Die auf einem Datum basierende Aktion ist keine einmalige Aktion. Amazon S3 wendet die auf dem Datum basierende Aktion auch an, nachdem das Datum erreicht wurde, solange der Regel-Status is `Enabled`.  
Angenommen, Sie geben eine auf einem Datum basierende `Expiration`-Aktion an, um alle Objekte zu löschen (unter der Annahme, dass in der Regel kein Filter angegeben ist). Amazon S3 lässt zu dem angegebenen Datum alle Objekte in dem Bucket ablaufen. Amazon S3 lässt auch weiterhin alle neuen Objekte ablaufen, die Sie in dem Bucket erstellen. Um die Lebenszyklusaktion zu unterbrechen, müssen Sie die Aktion aus der Lebenszyklusregel entfernen, die Regel deaktivieren oder die Regel aus der Lebenszykluskonfiguration löschen.

Der Datumswert muss konform zum Format ISO 8601 angegeben werden. Die Uhrzeit ist stets Mitternacht UTC. 

**Anmerkung**  
Sie können die auf dem Datum basierenden Lebenszyklusregeln nicht über die Amazon-S3-Konsole erstellen, aber Sie können solche Regeln anzeigen, deaktivieren oder löschen. 

# Hinzufügen von Filtern zu Lebenszyklusregeln
<a name="intro-lifecycle-filters"></a>

Filter sind ein optionales Element von Lebenszyklusregeln, über das Sie angeben können, für welche Objekte die Regel gilt.

Die folgenden Elemente können zum Filtern von Objekten verwendet werden:

**Schlüsselpräfix**  
Sie können Objekte auf der Basis eines Präfixes filtern. Wenn Sie eine Lebenszyklusaktion auf eine Teilmenge von Objekten mit unterschiedlichen Präfixen anwenden möchten, erstellen Sie bitte für jede Aktion separate Regeln.

**Objekt-Tags**  
Sie können Objekte auf der Basis einer oder mehrerer Markierungen filtern. Jede Markierung muss exakt mit dem Schlüssel und dem Wert übereinstimmen, und wenn Sie mehrere Markierungen festlegen, muss jeder Markierungsschlüssel eindeutig sein. Ein Filter mit mehreren Objektmarkierungen gilt für eine Untermenge von Objekten, für die alle Markierungen angegeben sind. Wenn für ein Objekt zusätzliche Markierungen festgelegt sind, gilt der Filter weiterhin.  
Wenn Sie nur ein Element `Key` und kein Element `Value` angeben, gilt die Regel nur für Objekte, die dem Schlüssel der Markierung entsprechen und für die kein Wert angegeben ist.

**Mindest- oder maximale Objektgröße**  
Sie können Objekte auf der Basis ihrer Größe filtern. Sie können eine Mindestgröße angeben (`ObjectSizeGreaterThan`) oder eine maximale Größe (`ObjectSizeLessThan`), oder Sie können einen Bereich von Objektgrößen im gleichen Filter festlegen. Objektgrößenwerte sind in Bytes. Die maximale Filtergröße beträgt 50 TB. Amazon S3 wendet eine standardmäßige Mindestobjektgröße auf die Lebenszykluskonfiguration an. Weitere Informationen finden Sie unter [Beispiel: Zulassen der Übertragung von Objekten, die kleiner als 128 KB sind](lifecycle-configuration-examples.md#lc-small-objects).

Sie können verschiedene Filterelemente miteinander kombinieren. In diesem Fall verwendet Amazon S3 ein logisches `AND`.

## Filterbeispiele
<a name="filter-examples"></a>

Die folgenden Beispiele zeigen, wie Sie verschiedene Filterelemente verwenden können:
+ **Festlegen eines Filters unter Verwendung von Schlüsselpräfixen** – Dieses Beispiel zeigt eine S3-Lebenszyklusregel, die sich abhängig vom Schlüsselnamenpräfix (`logs/`) auf eine Untermenge von Objekten bezieht. Beispielsweise gilt die Lebenszyklusregel für die Objekte `logs/mylog.txt`, `logs/temp1.txt` und `logs/test.txt`. Die Regel gilt nicht für das Objekt `example.jpg`.

  ```
  <LifecycleConfiguration>
      <Rule>
          <Filter>
             <Prefix>logs/</Prefix>
          </Filter>
          transition/expiration actions
           ...
      </Rule>
      ...
  </LifecycleConfiguration>
  ```
**Anmerkung**  
 Wenn Sie über ein oder mehrere Präfixe verfügen, die mit denselben Zeichen beginnen, können Sie all diese Präfixe in Ihre Regel aufnehmen, indem Sie im Filter ein Teilpräfix ohne abschließenden Schrägstrich (`/`) angeben. Angenommen, Sie haben folgende Präfixe:  

  ```
  sales1999/
                  sales2000/
                  sales2001/
  ```
Um alle drei Präfixe in Ihre Regel aufzunehmen, geben Sie `sales` als Präfix in Ihrer Lebenszyklusregel an.

  Wenn Sie eine Lebenszyklusaktion auf eine Untermenge von Objekten basierend auf unterschiedlichen Schlüsselnamenpräfixen anwenden wollen, müssen Sie separate Regeln angeben. Geben Sie in jeder Regel einen auf einem Präfix basierenden Filter an. Um beispielsweise eine Lebenszyklusaktion für Objekte mit den Schlüsselpräfixen `projectA/` und `projectB/` zu beschreiben, geben Sie zwei Regeln folgendermaßen an: 

  ```
  <LifecycleConfiguration>
      <Rule>
          <Filter>
             <Prefix>projectA/</Prefix>
          </Filter>
          transition/expiration actions
           ...
      </Rule>
  
      <Rule>
          <Filter>
             <Prefix>projectB/</Prefix>
          </Filter>
          transition/expiration actions
           ...
      </Rule>
  </LifecycleConfiguration>
  ```

  Weitere Informationen über Objektschlüssel finden Sie unter [Markieren von Amazon-S3-Objekten](object-keys.md). 
+ **Festlegen eines Filters auf der Basis von Objekt-Markierungen** – Im folgenden Beispiel gibt die Lebenszyklusregel einen Filter basierend auf einem Tag (`key`) und einem Wert (`value`) an. Die Regel wird dann nur auf eine Untermenge von Objekten mit dem spezifischen Tag angewendet.

  ```
  <LifecycleConfiguration>
      <Rule>
          <Filter>
             <Tag>
                <Key>key</Key>
                <Value>value</Value>
             </Tag>
          </Filter>
          transition/expiration actions
          ...
      </Rule>
  </LifecycleConfiguration>
  ```

  Sie können einen Filter auf mehreren Markierungen basierend angeben. Sie müssen die Markierungen mit dem Element `<And>` umschließen wie im folgenden Beispiel gezeigt. Die Regel weist Amazon S3 an, Lebenszyklusaktionen für Objekte mit zwei Markierungen auszuführen (mit dem spezifischen Tag-Schlüssel und -wert).

  ```
  <LifecycleConfiguration>
      <Rule>
        <Filter>
           <And>
              <Tag>
                 <Key>key1</Key>
                 <Value>value1</Value>
              </Tag>
              <Tag>
                 <Key>key2</Key>
                 <Value>value2</Value>
              </Tag>
               ...
            </And>
        </Filter>
        transition/expiration actions
      </Rule>
  </Lifecycle>
  ```

  Die Lebenszyklusregel gilt für Objekte, für die beide Markierungen angegeben sind. Amazon S3 führt eine logische `AND`-Operation aus. Beachten Sie Folgendes:
  + Jede Markierung muss exakt mit dem Schlüssel *und* dem Wert übereinstimmen. Wenn Sie nur ein Element `<Key>` und kein Element `<Value>` angeben, gilt die Regel nur für Objekte, die dem Schlüssel der Markierung entsprechen und für die *kein* Wert angegeben ist.
  + Die Regel gilt für die Untermenge der Objekte, , die alle in der Regel angegebenen Markierungen besitzt. Wenn für ein Objekt zusätzliche Markierungen angegeben sind, gilt die Regel weiterhin.
**Anmerkung**  
Wenn Sie mehrere Markierungen in einem Filter spezifizieren, muss jeder Tag-Schlüssel eindeutig sein.
+ **Festlegen eines Filters auf der Basis eines Präfixes und mindestens einer Markierung** – Sie können in einer Lebenszyklusregel einen Filter angeben, der sowohl auf dem Schlüsselpräfix als auch auf mindestens einer Markierung basiert. Auch hier müssen Sie all diese Filterelemente folgendermaßen mit dem Element `<And>` umschließen:

  ```
  <LifecycleConfiguration>
      <Rule>
          <Filter>
            <And>
               <Prefix>key-prefix</Prefix>
               <Tag>
                  <Key>key1</Key>
                  <Value>value1</Value>
               </Tag>
               <Tag>
                  <Key>key2</Key>
                  <Value>value2</Value>
               </Tag>
                ...
            </And>
          </Filter>
          <Status>Enabled</Status>
          transition/expiration actions
      </Rule>
  </LifecycleConfiguration>
  ```

  Amazon S3 kombiniert diese Filter unter Verwendung eines logischen `AND`-Vorgangs. Das bedeutet, die Regel wird auf eine Untermenge von Objekten mit dem festgelegten Schlüsselpräfix und den festgelegten Markierungen angewendet. Ein Filter kann höchstens ein Präfix und null oder mehr Markierungen aufweisen.
+ **Festlegen eines leeren Filters** – Sie können einen leeren Filter festlegen, wodurch die Regel für alle Objekte in dem Bucket gilt.

  ```
  <LifecycleConfiguration>
      <Rule>
          <Filter>
          </Filter>
          <Status>Enabled</Status>
          transition/expiration actions
      </Rule>
  </LifecycleConfiguration>
  ```
+ **Festlegen eines Objektgrößenfilters** – Um eine Regel nach Objektgröße zu filtern, können Sie eine Mindestgröße (`ObjectSizeGreaterThan`) oder eine maximale Größe (`ObjectSizeLessThan`) oder einen Bereich von Objektgrößen festlegen.

  Objektgrößenwerte sind in Bytes. Die maximale Filtergröße beträgt 50 TB. Für einige Speicherklassen gelten Beschränkungen für die Mindestobjektgröße. Weitere Informationen finden Sie unter [Vergleich der Amazon-S3-Speicherklassen](storage-class-intro.md#sc-compare).

  ```
  <LifecycleConfiguration>
      <Rule>
          <Filter>
              <ObjectSizeGreaterThan>500</ObjectSizeGreaterThan>   
          </Filter>
          <Status>Enabled</Status>
          transition/expiration actions
      </Rule>
  </LifecycleConfiguration>
  ```
**Anmerkung**  
Die Filter `ObjectSizeGreaterThan` und `ObjectSizeLessThan` schließen die festgelegten Werte aus. Beispiel: Wenn Sie festlegen, dass Objekte mit einer Größe von 128 KB bis 1.024 KB von der Speicherklasse S3 Standard auf die Speicherklasse S3 Standard-IA übertragen werden sollen, werden Objekte, die genau 1.024 KB oder 128 KB groß sind, nicht auf S3 Standard-IA übertragen. Stattdessen gilt die Regel nur für Objekte, die größer als 128 KB und kleiner als 1.024 KB sind. 

  Wenn Sie einen Objektgrößenbereich angeben, muss die `ObjectSizeGreaterThan`-Ganzzahl kleiner als der `ObjectSizeLessThan`-Wert sein. Wenn Sie mehr als einen Filter verwenden, müssen Sie die Filter in ein `<And>`-Element packen. Im folgenden Beispiel wird gezeigt, wie Sie Objekte in einem Bereich zwischen 500 und 64.000 Byte angeben. 

  ```
  <LifecycleConfiguration>
      <Rule>
          <Filter>
              <And>
                  <Prefix>key-prefix</Prefix>
                  <ObjectSizeGreaterThan>500</ObjectSizeGreaterThan>
                  <ObjectSizeLessThan>64000</ObjectSizeLessThan>
              </And>    
          </Filter>
          <Status>Enabled</Status>
          transition/expiration actions
      </Rule>
  </LifecycleConfiguration>
  ```

# Wie S3 mit Konflikten in Lebenszykluskonfigurationen umgeht
<a name="lifecycle-conflicts"></a>

Im Allgemeinen gibt Amazon S3 Lifecycle Kostenoptimierung Vorrang. Wenn sich z. B. zwei Ablaufrichtlinien überschneiden, wird die Ablaufrichtlinie mit der kürzeren Frist durchgesetzt, sodass die Daten nicht länger als erwartet gespeichert werden. Wenn sich zwei Übergangsrichtlinien überschneiden, überführt S3 Lifecycle Ihre Objekte in die Speicherklasse mit geringeren Kosten.

In beiden Fällen versucht S3 Lifecycle den für Sie kostengünstigsten Pfad auszuwählen. Die Speicherklasse S3 Intelligent-Tiering ist von dieser Regel ausgenommen. S3 Intelligent-Tiering wird von S3 Lifecycle gegenüber jeder Speicherklasse bevorzugt, abgesehen von den Speicherklassen S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive.

Wenn in einer S3-Lebenszykluskonfiguration mehrere Regeln vorhanden sind, kann es sein, dass für ein Objekt am gleichen Tag mehrere S3-Lebenszyklusaktionen auszuführen sind. In solchen Fällen folgt Amazon S3 diesen allgemeinen Regeln:
+ Das permanente Löschen hat Vorrang vor einem Übergang.
+ Die Übertragung hat Vorrang vor der Erstellung von [Löschmarkierungen](DeleteMarker.md).
+ Wenn ein Objekt sowohl für die Übertragung auf einen S3 Glacier Flexible Retrieval als auch auf einen S3 Standard-IA (oder S3 One Zone-IA) in Frage kommt, entscheidet sich Amazon S3 für die Übertragung auf S3 Glacier Flexible Retrieval.

## Beispiele für überlappende Filter und widersprüchliche Lebenszyklusaktionen
<a name="lifecycle-config-conceptual-ex5"></a>

Sie könnten eine S3-Lebenszyklus-Konfiguration angeben, in der Sie überlappende Präfixe oder Aktionen spezifizieren. Die folgenden Beispiele zeigen, wie Amazon S3 potenzielle Konflikte löst.

**Example 1: Überlappende Präfixe (kein Konflikt)**  
Die folgende Beispielkonfiguration weist zwei Regeln auf, die überlappenden Präfixe spezifizieren, wie folgt:  
+ Die erste Regel spezifiziert einen leeren Filter, d. h. alle Objekte in dem Bucket werden angesprochen. 
+ Die zweite Regel spezifiziert ein Schlüsselnamenpräfix (`logs/`), d. h. nur eine Untermenge von Objekten.
Regel 1 fordert Amazon S3 auf, alle Objekte ein Jahr nach der Erstellung zu löschen. Regel 2 fordert Amazon S3 auf, 30 Tage nach der Erstellung eine Teilmenge von Objekten in die S3-Standard-IA-Speicherklasse zu überführen.  

```
 1. <LifecycleConfiguration>
 2.   <Rule>
 3.     <ID>Rule 1</ID>
 4.     <Filter>
 5.     </Filter>
 6.     <Status>Enabled</Status>
 7.     <Expiration>
 8.       <Days>365</Days>
 9.     </Expiration>
10.   </Rule>
11.   <Rule>
12.     <ID>Rule 2</ID>
13.     <Filter>
14.       <Prefix>logs/</Prefix>
15.     </Filter>
16.     <Status>Enabled</Status>
17.     <Transition>
18.       <StorageClass>STANDARD_IA</StorageClass>
19.       <Days>30</Days>
20.     </Transition>
21.    </Rule>
22. </LifecycleConfiguration>
```
Da in diesem Fall kein Konflikt besteht, überführt Amazon S3 die Objekte mit dem Präfix `logs/` 30 Tage nach der Erstellung in die Speicherklasse S3 Standard-IA. Wenn ein Objekt ein Jahr nach der Erstellung erreicht, wird es gelöscht.

**Example 2: Widersprüchliche Lebenszyklus-Aktionen**  
In dieser Beispielkonfiguration gibt es zwei Regeln, die Amazon S3 anweisen, zwei unterschiedliche Aktionen für dieselbe Objektmenge zur selben Zeit in der Lebensdauer des Objekts auszuführen:  
+ Beide Regeln geben dasselbe Schlüsselnamenpräfix an, deshalb gelten beide Regeln für dieselbe Objektmenge.
+ Beide Regeln spezifizieren dieselben 365 Tage nach der Erstellung des Objekts, wann die Regeln angewendet werden sollen.
+ Eine Regel weist Amazon S3 an, Objekte zur S3 Standard-IA-Speicherklasse zu überführen. Eine andere Regel weist Amazon S3 an, die Objekte zur gleichen Zeit ablaufen zu lassen.

```
<LifecycleConfiguration>
  <Rule>
    <ID>Rule 1</ID>
    <Filter>
      <Prefix>logs/</Prefix>
    </Filter>
    <Status>Enabled</Status>
    <Expiration>
      <Days>365</Days>
    </Expiration>        
  </Rule>
  <Rule>
    <ID>Rule 2</ID>
    <Filter>
      <Prefix>logs/</Prefix>
    </Filter>
    <Status>Enabled</Status>
    <Transition>
      <StorageClass>STANDARD_IA</StorageClass>
      <Days>365</Days>
    </Transition>
   </Rule>
</LifecycleConfiguration>
```
In diesem Fall wollen Sie, dass Objekte ablaufen (zu entfernen), deshalb macht es keinen Sinn, die Speicherklasse zu ändern, und Amazon S3 wählt einfach die Ablaufaktion für diese Objekte aus.

**Example 3: Überlappende Präfixe, die zu widersprüchlichen Lebenszyklus-Aktionen führen**  
In diesem Beispiel besitzt die Konfiguration zwei Regeln, die überlappende Präfixe angeben, wie folgt:  
+ Regel 1 legt ein leeres Präfix fest (was für alle Objekte gilt).
+ Regel 2 spezifiziert ein Schlüsselnamenpräfix (`logs/`), das eine Untermenge aller Objekte angibt.
Für die Untermenge der Objekte mit dem Schlüsselnamenpräfix `logs/` werden die S3-Lebenszyklus-Aktionen aus beiden Regeln angewendet. Eine Regel weist Amazon S3 an, Objekte 10 Tage nach der Erstellung zu übertragen, und eine andere Regel weist Amazon S3 an, Objekte 365 Tage nach dem Erstellen zu übertragen.   

```
<LifecycleConfiguration>
  <Rule>
    <ID>Rule 1</ID>
    <Filter>
      <Prefix></Prefix>
    </Filter>
    <Status>Enabled</Status>
    <Transition>
      <StorageClass>STANDARD_IA</StorageClass>
      <Days>10</Days> 
    </Transition>
  </Rule>
  <Rule>
    <ID>Rule 2</ID>
    <Filter>
      <Prefix>logs/</Prefix>
    </Filter>
    <Status>Enabled</Status>
    <Transition>
      <StorageClass>STANDARD_IA</StorageClass>
      <Days>365</Days> 
    </Transition>
   </Rule>
</LifecycleConfiguration>
```
In diesem Fall entscheidet Amazon S3 den Übergang 10 Tage nach der Erstellung auszuführen. 

**Example 4: Tag-basiertes Filtern, das zu widersprüchlichen Lebenszyklus-Aktionen führt**  
Angenommen, Sie haben die folgende S3-Lebenszykluskonfiguration, die zwei Regeln enthält, die beide einen Tag-Filter spezifizieren:  
+ Regel 1 spezifiziert einen Tag-basierten Filter (`tag1/value1`). Diese Regel weist Amazon S3 an, Objekte 365 Tage nach der Erstellung in die Speicherklasse S3 Glacier Flexible Retrieval zu übertragen.
+ Regel 2 spezifiziert einen Tag-basierten Filter (`tag2/value2`). Diese Regel weist Amazon S3 an, Objekte 14 Tage nach der Erstellung ablaufen zu lassen.
Die S3-Lebenszyklus-Konfiguration wird im Folgenden angezeigt.  

```
<LifecycleConfiguration>
  <Rule>
    <ID>Rule 1</ID>
    <Filter>
      <Tag>
         <Key>tag1</Key>
         <Value>value1</Value>
      </Tag>
    </Filter>
    <Status>Enabled</Status>
    <Transition>
      <StorageClass>GLACIER</StorageClass>
      <Days>365</Days> 
    </Transition>
  </Rule>
  <Rule>
    <ID>Rule 2</ID>
    <Filter>
      <Tag>
         <Key>tag2</Key>
         <Value>value2</Value>
      </Tag>
    </Filter>
    <Status>Enabled</Status>
    <Expiration>
      <Days>14</Days> 
    </Expiration>
   </Rule>
</LifecycleConfiguration>
```
Wenn ein Objekt beide Tags hat, muss Amazon S3 entscheiden, welche Regel befolgt werden soll. In diesem Fall lässt Amazon S3 das Objekt 14 Tage nach der Erstellung ablaufen. Das Objekt wird entfernt und die Übergangsaktion wird daher nicht angewendet.





# Beispiele für S3-Lebenszykluskonfigurationen
<a name="lifecycle-configuration-examples"></a>

Dieser Abschnitt enthält Beispiele für S3-Lebenszykluskonfigurationen. Jedes Beispiel zeigt, wie Sie in jedem der Beispielszenarien das XML spezifizieren können.

**Topics**
+ [Archivieren aller Objekte innerhalb eines Tages nach der Erstellung](#lifecycle-config-ex1)
+ [Vorübergehendes Deaktivieren von Lebenszyklusregeln](#lifecycle-config-conceptual-ex2)
+ [Stufenweise Reduzierung der Speicherklasse über die Lebensdauer des Objekts](#lifecycle-config-conceptual-ex3)
+ [Festlegen mehrerer Aktionen oder Regeln](#lifecycle-config-conceptual-ex4)
+ [Festlegen einer Lebenszyklus-Konfigurationsregel für einen Bucket mit Versioning](#lifecycle-config-conceptual-ex6)
+ [Entfernen von Löschmarkierungen für abgelaufene Objekte in einem Bucket mit aktivierter Versionsverwaltung](#lifecycle-config-conceptual-ex7)
+ [Lebenszyklus-Konfigurationsregel für das Abbrechen mehrteiliger Uploads](#lc-expire-mpu)
+ [Ablauf von Objekten, die keine Daten enthalten](#lc-size-rules)
+ [Beispiel: Zulassen der Übertragung von Objekten, die kleiner als 128 KB sind](#lc-small-objects)

## Archivieren aller Objekte innerhalb eines Tages nach der Erstellung
<a name="lifecycle-config-ex1"></a>

Jede S3-Lebenszyklusregel enthält einen Filter, mit dem Sie eine Untermenge der Objekte in Ihrem Bucket identifizieren können, auf die sich die S3-Lebenszyklusregel bezieht. Die folgenden S3-Lebenszykluskonfigurationen zeigen Beispiele dafür, wie Sie einen Filter spezifizieren können.
+ In dieser S3-Lebenszyklus-Konfigurationsregel spezifiziert der Filter ein Schlüsselpräfix (`tax/`). Aus diesem Grund gilt die Regel für Objekte mit dem Schlüsselnamenpräfix `tax/`, wie beispielsweise `tax/doc1.txt` und `tax/doc2.txt`.

  Die Regel spezifiziert zwei Aktionen, die Amazon S3 zu Folgendem anweisen:
  + Übergang von Objekten in die Speicherklasse S3 Glacier Flexible Retrieval 365 Tage (ein Jahr) nach der Erstellung.
  + Objekte 3.650 Tage (10 Jahre) nach der Erstellung löschen (die `Expiration`-Aktion).

  ```
  <LifecycleConfiguration>
    <Rule>
      <ID>Transition and Expiration Rule</ID>
      <Filter>
         <Prefix>tax/</Prefix>
      </Filter>
      <Status>Enabled</Status>
      <Transition>
        <Days>365</Days>
        <StorageClass>GLACIER</StorageClass>
      </Transition>
      <Expiration>
        <Days>3650</Days>
      </Expiration>
    </Rule>
  </LifecycleConfiguration>
  ```

  Statt das Objektalter in Tagen nach der Erstellung zu spezifizieren, können Sie für jede Aktion ein Datum festlegen. Sie können `Date` und `Days` nicht in derselben Regel kombinieren. 
+ Wenn Sie wollen, dass die S3-Lebenszyklusregel für alle Objekte im Bucket gilt, geben Sie ein leeres Präfix an. In der folgenden Konfiguration gibt die Regel eine `Transition`-Aktion an, die Amazon S3 anweist, Objekte 0 Tage nach der Erstellung in die S3 Glacier Flexible Retrieval-Speicherklasse zu überführen. Diese Regel bedeutet, dass die Objekte nach der Erstellung um Mitternacht UTC zur Archivierung in S3 Glacier Flexible Retrieval berechtigt sind. Weitere Informationen zu Lebenszykluseinschränkungen finden Sie unter [Einschränkungen und Überlegungen hinsichtlich Übertragungen](lifecycle-transition-general-considerations.md#lifecycle-configuration-constraints).

  ```
  <LifecycleConfiguration>
    <Rule>
      <ID>Archive all object same-day upon creation</ID>
      <Filter>
        <Prefix></Prefix>
      </Filter>
      <Status>Enabled</Status>
      <Transition>
        <Days>0</Days>
        <StorageClass>GLACIER</StorageClass>
      </Transition>
    </Rule>
  </LifecycleConfiguration>
  ```
+ Sie können null oder mehrere Schlüsselnamenpräfixe und null oder mehr Objekt-Markierungen in einem Filter angeben. Der folgende Beispiel-Code wendet die S3-Lebenszyklusregel auf eine Untermenge von Objekten mit dem Schüsselpräfix `tax/` an, ebenso wie auf Objekte mit zwei Markierungen mit spezifischem Schüssel und Wert. Wenn Sie mehr als einen Filter angeben, müssen Sie das `<And>`-Element wie gezeigt einschließen (Amazon S3 wendet ein logisches `AND` an, um die angegebenen Filterbedingungen zu kombinieren).

  ```
  ...
  <Filter>
     <And>
        <Prefix>tax/</Prefix>
        <Tag>
           <Key>key1</Key>
           <Value>value1</Value>
        </Tag>
        <Tag>
           <Key>key2</Key>
           <Value>value2</Value>
        </Tag>
      </And>
  </Filter>
  ...
  ```

  
+ Sie können Objekte nur auf Markierungen basierend filtern. Die folgende S3-Lebenszyklusregel beispielsweise wird auf Objekte angewendet, die die beiden spezifizierten Markierungen aufweisen (es wird kein Präfix angegeben).

  ```
  ...
  <Filter>
     <And>
        <Tag>
           <Key>key1</Key>
           <Value>value1</Value>
        </Tag>
        <Tag>
           <Key>key2</Key>
           <Value>value2</Value>
        </Tag>
      </And>
  </Filter>
  ...
  ```

  

**Wichtig**  
Wenn in einer S3-Lebenszykluskonfiguration mehrere Regeln vorhanden sind, kann es sein, dass für ein Objekt am gleichen Tag mehrere S3-Lebenszyklusaktionen auszuführen sind. In solchen Fällen folgt Amazon S3 diesen allgemeinen Regeln:  
Das permanente Löschen hat Vorrang vor einem Übergang.
Die Übertragung hat Vorrang vor der Erstellung von [Löschmarkierungen](DeleteMarker.md).
Wenn ein Objekt sowohl für einen S3 Glacier Flexible Retrieval als auch für einen S3 Standard-IA (oder S3 One Zone-IA)-Übergang in Frage kommt, entscheidet sich Amazon S3 für den Übergang zu S3 Glacier Flexible Retrieval.
 Beispiele finden Sie unter [Beispiele für überlappende Filter und widersprüchliche Lebenszyklusaktionen](lifecycle-conflicts.md#lifecycle-config-conceptual-ex5). 



## Vorübergehendes Deaktivieren von Lebenszyklusregeln
<a name="lifecycle-config-conceptual-ex2"></a>

Sie können eine S3-Lebenszyklusregel mithilfe des `status`-Elements vorübergehend deaktivieren. Dies kann nützlich sein, wenn Sie neue Regeln testen oder Probleme mit Ihrer Konfiguration beheben möchten, ohne Ihre vorhandenen Regeln zu überschreiben. Die folgende S3-Lebenszykluskonfiguration spezifiziert zwei Regeln:
+ Regel 1 weist Amazon S3 an, Objekte mit dem Präfix `logs/` bald nach der Erstellung in die Speicherklasse S3 Glacier Flexible Retrieval zu übertragen. 
+ Regel 2 weist Amazon S3 an, Objekte mit dem Präfix `documents/` bald nach der Erstellung in die Speicherklasse S3 Glacier Flexible Retrieval zu übertragen. 

In der Konfiguration ist Regel 1 aktiviert und Regel 2 ist deaktiviert. Amazon S3 ignoriert die deaktivierte Regel.

```
<LifecycleConfiguration>
  <Rule>
    <ID>Rule1</ID>
    <Filter>
      <Prefix>logs/</Prefix>
    </Filter>
    <Status>Enabled</Status>
    <Transition>
      <Days>0</Days>
      <StorageClass>GLACIER</StorageClass>
    </Transition>
  </Rule>
  <Rule>
    <ID>Rule2</ID>
    <Filter>
      <Prefix>documents/</Prefix>
    </Filter>
    <Status>Disabled</Status>
    <Transition>
      <Days>0</Days>
      <StorageClass>GLACIER</StorageClass>
    </Transition>
  </Rule>
</LifecycleConfiguration>
```

## Stufenweise Reduzierung der Speicherklasse über die Lebensdauer des Objekts
<a name="lifecycle-config-conceptual-ex3"></a>

In diesem Beispiel nutzen Sie die S3-Lebenszykluskonfiguration, um die Speicherklasse von Objekten über ihre Lebensdauer stufenweise zu reduzieren. Diese schichtweise Reduzierung kann dazu beitragen, Speicherkosten zu reduzieren. Weitere Informationen zu Preisen finden Sie unter [Amazon-S3-Preise](https://aws.amazon.com/s3/pricing/).

Die folgende S3-Lebenszyklus-Konfiguration spezifiziert eine Regel, die auf Objekte mit Schlüsselnamenpräfix `logs/` angewendet wird. Die Regel definiert die folgenden Aktionen:
+ Zwei Übergangsaktionen:
  + Übergang von Objekten in die Speicherklasse S3 Standard-IA 30 Tage nach der Erstellung.
  + Übergang von Objekten in die Speicherklasse S3 Glacier Flexible Retrieval 90 Tage nach der Erstellung.
+ Eine Ablaufaktion, die Amazon S3 anweist, Objekte ein Jahr nach ihrer Erstellung zu löschen.

```
<LifecycleConfiguration>
  <Rule>
    <ID>example-id</ID>
    <Filter>
       <Prefix>logs/</Prefix>
    </Filter>
    <Status>Enabled</Status>
    <Transition>
      <Days>30</Days>
      <StorageClass>STANDARD_IA</StorageClass>
    </Transition>
    <Transition>
      <Days>90</Days>
      <StorageClass>GLACIER</StorageClass>
    </Transition>
    <Expiration>
      <Days>365</Days>
    </Expiration>
  </Rule>
</LifecycleConfiguration>
```

**Anmerkung**  
Sie können eine Regel verwenden, um alle S3-Lebenszyklus-Aktionen zu beschreiben, die für dieselbe Objektmenge angewendet werden (identifiziert durch den Filter). Andernfalls können Sie mehrere Regeln hinzufügen, die jeweils einen unterschiedlichen Filter angeben.

**Wichtig**  
Wenn in einer S3-Lebenszykluskonfiguration mehrere Regeln vorhanden sind, kann es sein, dass für ein Objekt am gleichen Tag mehrere S3-Lebenszyklusaktionen auszuführen sind. In solchen Fällen folgt Amazon S3 diesen allgemeinen Regeln:  
Das permanente Löschen hat Vorrang vor einem Übergang.
Die Übertragung hat Vorrang vor der Erstellung von [Löschmarkierungen](DeleteMarker.md).
Wenn ein Objekt sowohl für einen S3 Glacier Flexible Retrieval als auch für einen S3 Standard-IA (oder S3 One Zone-IA)-Übergang in Frage kommt, entscheidet sich Amazon S3 für den Übergang zu S3 Glacier Flexible Retrieval.
 Beispiele finden Sie unter [Beispiele für überlappende Filter und widersprüchliche Lebenszyklusaktionen](lifecycle-conflicts.md#lifecycle-config-conceptual-ex5). 

## Festlegen mehrerer Aktionen oder Regeln
<a name="lifecycle-config-conceptual-ex4"></a>



Sie können mehrere Regeln angeben, wenn Sie unterschiedliche S3-Lebenszyklusaktionen auf unterschiedliche Objekte anwenden wollen. Die folgende S3-Lebenszyklus-Konfiguration spezifiziert zwei Regeln:
+ Regel 1 gilt für Objekte mit dem Schlüsselnamenpräfix `classA/`. Sie weist Amazon S3 an, Objekte ein Jahr nach der Erstellung in die Speicherklasse S3 Glacier Flexible Retrieval zu übertragen, und diese Objekte 10 Jahre nach dem Erstellen ablaufen zu lassen.
+ Regel 2 gilt für Objekte mit dem Schlüsselnamenpräfix `classB/`. Sie weist Amazon S3 an, Objekte 90 Tage nach der Erstellung in die Speicherklasse S3 Standard-IA zu übertragen, und sie ein Jahr nach dem zu löschen.

```
<LifecycleConfiguration>
    <Rule>
        <ID>ClassADocRule</ID>
        <Filter>
           <Prefix>classA/</Prefix>        
        </Filter>
        <Status>Enabled</Status>
        <Transition>        
           <Days>365</Days>        
           <StorageClass>GLACIER</StorageClass>       
        </Transition>    
        <Expiration>
             <Days>3650</Days>
        </Expiration>
    </Rule>
    <Rule>
        <ID>ClassBDocRule</ID>
        <Filter>
            <Prefix>classB/</Prefix>
        </Filter>
        <Status>Enabled</Status>
        <Transition>        
           <Days>90</Days>        
           <StorageClass>STANDARD_IA</StorageClass>       
        </Transition>    
        <Expiration>
             <Days>365</Days>
        </Expiration>
    </Rule>
</LifecycleConfiguration>
```

**Wichtig**  
Wenn in einer S3-Lebenszykluskonfiguration mehrere Regeln vorhanden sind, kann es sein, dass für ein Objekt am gleichen Tag mehrere S3-Lebenszyklusaktionen auszuführen sind. In solchen Fällen folgt Amazon S3 diesen allgemeinen Regeln:  
Das permanente Löschen hat Vorrang vor einem Übergang.
Die Übertragung hat Vorrang vor der Erstellung von [Löschmarkierungen](DeleteMarker.md).
Wenn ein Objekt sowohl für einen S3 Glacier Flexible Retrieval als auch für einen S3 Standard-IA (oder S3 One Zone-IA)-Übergang in Frage kommt, entscheidet sich Amazon S3 für den Übergang zu S3 Glacier Flexible Retrieval.
 Beispiele finden Sie unter [Beispiele für überlappende Filter und widersprüchliche Lebenszyklusaktionen](lifecycle-conflicts.md#lifecycle-config-conceptual-ex5). 

## Festlegen einer Lebenszyklus-Konfigurationsregel für einen Bucket mit Versioning
<a name="lifecycle-config-conceptual-ex6"></a>

Angenommen, Sie haben einen Versioning-fähigen Bucket, d. h. Sie haben für jedes Objekt eine aktuelle Version und keine oder mehr nicht aktuelle Versionen. (Weitere Informationen über das S3-Versioning finden Sie unter [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md).) 

Im folgenden Beispiel möchten Sie den Verlauf eines Jahres verwalten und 5 ältere Versionen schützen. S3-Lebenszykluskonfigurationen unterstützen die Beibehaltung von 1 bis 100 Versionen eines beliebigen Objekts. Beachten Sie die Tatsache, dass mehr als 5 neuere nicht aktuelle Versionen vorhanden sein müssen, damit Amazon S3 eine bestimmte Version ablaufen kann. Amazon S3 löscht alle zusätzlichen nicht aktuellen Versionen dauerhaft, die über die angegebene Anzahl hinaus beibehalten werden sollen. Damit der Löschvorgang durchgeführt werden kann, müssen `NoncurrentDays` sowohl der als auch der `NewerNoncurrentVersions` Wert überschritten werden.

Um Speicherkosten zu sparen, sollten Sie nicht aktuelle Versionen 30 Tage, nachdem sie ihre Aktualität verlieren, in S3 Glacier Flexible Retrieval verschieben (vorausgesetzt, diese nicht aktuellen Objekte sind kalte Daten, für die Sie keinen Echtzeitzugriff benötigen). Darüber hinaus erwarten Sie, dass die Häufigkeit der Zugriffe auf die aktuellen Versionen 90 Tage nach der Erstellung nachlässt. So könnten Sie sich dazu entscheiden, diese Objekte in die Speicherklasse S3 Standard-IA zu verschieben.

```
 1. <LifecycleConfiguration>
 2.     <Rule>
 3.         <ID>sample-rule</ID>
 4.         <Filter>
 5.            <Prefix></Prefix>
 6.         </Filter>
 7.         <Status>Enabled</Status>
 8.         <Transition>
 9.            <Days>90</Days>
10.            <StorageClass>STANDARD_IA</StorageClass>
11.         </Transition>
12.         <NoncurrentVersionTransition>      
13.             <NoncurrentDays>30</NoncurrentDays>      
14.             <StorageClass>GLACIER</StorageClass>   
15.         </NoncurrentVersionTransition>    
16.        <NoncurrentVersionExpiration>     
17.             <NewerNoncurrentVersions>5</NewerNoncurrentVersions>
18.             <NoncurrentDays>365</NoncurrentDays>    
19.        </NoncurrentVersionExpiration> 
20.     </Rule>
21. </LifecycleConfiguration>
```

## Entfernen von Löschmarkierungen für abgelaufene Objekte in einem Bucket mit aktivierter Versionsverwaltung
<a name="lifecycle-config-conceptual-ex7"></a>



Ein Bucket mit Versioning enthält eine aktuelle Version und null oder mehr nicht aktuelle Versionen für jedes Objekt. Beachten Sie beim Löschen eines Objekts Folgendes:
+ Wenn Sie keine Versions-ID in Ihrer Löschanfrage angeben, fügt Amazon S3 eine Löschmarkierung hinzu, statt das Objekt zu löschen. Das aktuelle Version wird nicht aktuell, und die Löschmarkierung wird zur aktuellen Version. 
+ Wenn Sie eine Versions-ID in Ihrer Löschanfrage angeben, löscht Amazon S3 die Objektversion permanent (es wird keine Löschmarkierung erstellt).
+ Eine Löschmarkierung mit null nicht aktuellen Versionen wird als *Löschmarkierung für das abgelaufene Objekt* bezeichnet. 

Dieses Beispiel zeigt ein Szenario, das Löschmarkierungen für abgelaufene Objekte in Ihrem Bucket erstellen kann, und demonstriert, wie Sie mit einer S3-Lebenszyklus-Konfiguration Amazon S3 anweisen können, die Löschmarkierungen für abgelaufene Objekte zu löschen.

Angenommen, Sie schreiben eine S3-Lebenszykluskonfiguration, die die Aktion `NoncurrentVersionExpiration` verwendet, um die nicht aktuellen Versionen 30 Tage, nachdem sie nicht mehr aktuell sind, zu entfernen und höchstens 10 nicht aktuelle Versionen beizubehalten, wie im folgenden Beispiel gezeigt. Beachten Sie die Tatsache, dass mehr als 10 neuere nicht aktuelle Versionen vorhanden sein müssen, damit Amazon S3 eine bestimmte Version ablaufen kann. Amazon S3 löscht alle zusätzlichen nicht aktuellen Versionen dauerhaft, die über die angegebene Anzahl hinaus beibehalten werden sollen. Damit der Löschvorgang durchgeführt werden kann, müssen `NoncurrentDays` sowohl der als auch der `NewerNoncurrentVersions` Wert überschritten werden.

```
<LifecycleConfiguration>
    <Rule>
        ...
        <NoncurrentVersionExpiration>     
            <NewerNoncurrentVersions>10</NewerNoncurrentVersions>
            <NoncurrentDays>30</NoncurrentDays>    
        </NoncurrentVersionExpiration>
    </Rule>
</LifecycleConfiguration>
```

Die Aktion `NoncurrentVersionExpiration` gilt nicht für die aktuellen Objektversionen. Sie entfernt nur nicht aktuelle Versionen.

Für aktuelle Objektversionen haben Sie die folgenden Optionen, ihre Lebensdauer zu verwalten, abhängig davon, ob die aktuellen Objektversionen einen definieren Lebenszyklus haben: 
+ **Aktuelle Objektversionen folgen einem gut definierten Lebenszyklus.**

  In diesem Fall können Sie eine S3-Lebenszykluskonfiguration mit der Aktion `Expiration` verwenden, um Amazon S3 anzuweisen, die aktuellen Versionen zu entfernen, wie im folgenden Beispiel gezeigt.

  ```
  <LifecycleConfiguration>
      <Rule>
          ...
          <Expiration>
             <Days>60</Days>
          </Expiration>
          <NoncurrentVersionExpiration>     
              <NewerNoncurrentVersions>10</NewerNoncurrentVersions>
              <NoncurrentDays>30</NoncurrentDays>    
          </NoncurrentVersionExpiration>
      </Rule>
  </LifecycleConfiguration>
  ```

  In diesem Beispiel entfernt Amazon S3 aktuelle Versionen 60 Tage nach ihrer Erstellung, indem für jede der aktuellen Objektversionen eine Löschmarkierung hinzugefügt wird. Durch diesen Vorgang wird die aktuelle Version nicht mehr aktuell und die Löschmarkierung wird zur aktuellen Version. Weitere Informationen finden Sie unter [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md). 
**Anmerkung**  
Sie können nicht sowohl ein `Days` als auch `ExpiredObjectDeleteMarker`-Tag für dieselbe Regel angeben. Wenn Sie das `Days`-Tag angeben, führt Amazon S3 automatisch eine `ExpiredObjectDeleteMarker`-Bereinigung durch, wenn die Löschmarkierungen alt genug sind, um die Alterskriterien zu erfüllen. Um Löschmarkierungen zu bereinigen, sobald sie die einzige Version werden, erstellen Sie eine separate Regel nur mit dem `ExpiredObjectDeleteMarker`-Tag.

  Die `NoncurrentVersionExpiration`-Aktion in derselben S3-Lebenszyklus-Konfiguration entfernt nicht aktuelle Objekte 30 Tage, nachdem sie nicht aktuell wurden. Somit werden in diesem Beispiel 90 Tage nach der Objekterstellung alle Objektversionen dauerhaft entfernt. Beachten Sie die Tatsache, dass in diesem Beispiel mehr als 10 neuere nicht aktuelle Versionen vorhanden sein müssen, damit Amazon S3 eine bestimmte Version ablaufen kann. Amazon S3 löscht alle zusätzlichen nicht aktuellen Versionen dauerhaft, die über die angegebene Anzahl hinaus beibehalten werden sollen. Damit der Löschvorgang durchgeführt werden kann, müssen `NoncurrentDays` sowohl der als auch der `NewerNoncurrentVersions` Wert überschritten werden. 

  Obwohl während dieses Vorgangs Löschmarkierungen für abgelaufene Objekte erstellt werden, erkennt und entfernt Amazon S3 die Löschmarkierungen für abgelaufene Objekte für Sie. 
+ **Aktuelle Objektversionen folgen keinem gut definierten Lebenszyklus.** 

  In diesem Fall müssen Sie die Objekte möglicherweise manuell entfernen, wenn Sie sie nicht mehr brauchen, und eine Löschmarkierungen mit einer oder mehreren nicht aktuellen Versionen erstellen. Wenn Ihre S3-Lebenszyklus-Konfiguration mit der `NoncurrentVersionExpiration`-Aktion alle nicht aktuellen Versionen löscht, haben Sie jetzt Löschmarkierungen für abgelaufene Objekte.

  Speziell für dieses Szenario stellt die S3-Lebenszykluskonfiguration die `Expiration`-Aktion bereit, mit der Sie die Löschmarkierungen für abgelaufene Objekte entfernen können.

  

  ```
  <LifecycleConfiguration>
      <Rule>
         <ID>Rule 1</ID>
          <Filter>
            <Prefix>logs/</Prefix>
          </Filter>
          <Status>Enabled</Status>
          <Expiration>
             <ExpiredObjectDeleteMarker>true</ExpiredObjectDeleteMarker>
          </Expiration>
          <NoncurrentVersionExpiration>     
              <NewerNoncurrentVersions>10</NewerNoncurrentVersions>
              <NoncurrentDays>30</NoncurrentDays>    
          </NoncurrentVersionExpiration>
      </Rule>
  </LifecycleConfiguration>
  ```

Setzen Sie das `ExpiredObjectDeleteMarker`-Element in der `Expiration`-Aktion auf `true`, um Amazon S3 anzuweisen, Löschmarkierungen für abgelaufene Objekte zu entfernen.

**Anmerkung**  
Bei Verwendung der `ExpiredObjectDeleteMarker`-S3-Lebenszyklusaktion kann die Regel keinen Tag-basierten Filter angeben.

## Lebenszyklus-Konfigurationsregel für das Abbrechen mehrteiliger Uploads
<a name="lc-expire-mpu"></a>

Sie können die mehrteiligen Upload-REST-API-Operationen von Amazon S3 verwenden, um große Objekte in Teilen hochzuladen. Weitere Informationen über mehrteilige Uploads finden Sie unter [Hochladen und Kopieren von Objekten mit mehrteiligen Uploads in Amazon S3](mpuoverview.md). 

Mit Hilfe der S3-Lebenszykluskonfiguration können Sie Amazon S3 anweisen, unvollständige mehrteilige Uploads abzubrechen (identifiziert durch das Schlüsselnamenpräfix in der Regel), die nicht innerhalb einer bestimmten Anzahl an Tagen nach der Initiierung abgeschlossen wurden. Wenn Amazon S3 einen mehrteiligen Upload abbricht, werden alle diesem mehrteiligen Upload zugeordneten Teile gelöscht. Dieser Prozess hilft, Ihre Speicherkosten zu kontrollieren, indem Sie sicherstellen, dass Sie keine unvollständigen mehrteiligen Uploads mit Teilen haben, die in Amazon S3 gespeichert sind. 

**Anmerkung**  
Bei Verwendung der `AbortIncompleteMultipartUpload`-S3-Lebenszyklus-Aktion kann die Regel keinen Tag-basierten Filter angeben.

Das folgende Beispiel zeigt eine S3-Lebenszykluskonfiguration, die eine Regel mit der Aktion `AbortIncompleteMultipartUpload` spezifiziert. Diese Aktion leitet Amazon S3 dazu, unvollständige mehrteilige Uploads sieben Tage nach der Initiierung abzubrechen.

```
<LifecycleConfiguration>
    <Rule>
        <ID>sample-rule</ID>
        <Filter>
           <Prefix>SomeKeyPrefix/</Prefix>
        </Filter>
        <Status>rule-status</Status>
        <AbortIncompleteMultipartUpload>
          <DaysAfterInitiation>7</DaysAfterInitiation>
        </AbortIncompleteMultipartUpload>
    </Rule>
</LifecycleConfiguration>
```

## Ablauf von Objekten, die keine Daten enthalten
<a name="lc-size-rules"></a>

Sie können Regeln erstellen, die Objekte nur basierend auf ihrer Größe übergehen. Sie können eine Mindestgröße (`ObjectSizeGreaterThan`) oder eine Maximalgröße (`ObjectSizeLessThan`) angeben, oder Sie können einen Bereich von Objektgrößen in Bytes angeben. Wenn Sie mehr als einen Filter verwenden, z. B. ein Präfix und eine Größenregel, müssen Sie die Filter in ein `<And>`-Element umfassen.

```
<LifecycleConfiguration>
  <Rule>
    <ID>Transition with a prefix and based on size</ID>
    <Filter>
       <And>
          <Prefix>tax/</Prefix>
          <ObjectSizeGreaterThan>500</ObjectSizeGreaterThan>
       </And>   
    </Filter>
    <Status>Enabled</Status>
    <Transition>
      <Days>365</Days>
      <StorageClass>GLACIER</StorageClass>
    </Transition>
  </Rule>
</LifecycleConfiguration>
```

Wenn Sie einen Bereich mit den `ObjectSizeGreaterThan`- und `ObjectSizeLessThan`-Elementen angeben, muss die maximale Objektgröße größer als die minimale Objektgröße sein. Wenn Sie mehr als einen Filter verwenden, müssen Sie die Filter in ein `<And>`-Element packen. Im folgenden Beispiel wird gezeigt, wie Sie Objekte in einem Bereich zwischen 500 und 64.000 Byte angeben. Wenn Sie einen Bereich angeben, schließen die Filter `ObjectSizeGreaterThan` und `ObjectSizeLessThan` die festgelegten Werte aus. Weitere Informationen finden Sie unter [Filterelement](intro-lifecycle-rules.md#intro-lifecycle-rules-filter).

```
<LifecycleConfiguration>
    <Rule>
        ...
          <And>
             <ObjectSizeGreaterThan>500</ObjectSizeGreaterThan>
             <ObjectSizeLessThan>64000</ObjectSizeLessThan>
          </And>
    </Rule>
</LifecycleConfiguration>
```

Sie können auch Regeln erstellen, um nicht aktuelle Objekte, die keine Daten enthalten, ausdrücklich ablaufen zu lassen, einschließlich nicht aktueller Löschmarkierungsobjekte, die in einem Bucket mit aktivierter Versionsverwaltung erstellt wurden. Das folgende Beispiel verwendet die `NoncurrentVersionExpiration`-Aktion angibt, um nicht aktuelle Versionen 30 Tage, nachdem sie nicht mehr aktuell sind, zu entfernen und höchstens 10 nicht aktuelle Versionen beizubehalten, wie im folgenden Beispiel gezeigt. Außerdem wird das `ObjectSizeLessThan`-Element verwendet, um nur Objekte ohne Daten zu filtern. 

Beachten Sie die Tatsache, dass mehr als 10 neuere nicht aktuelle Versionen vorhanden sein müssen, damit Amazon S3 eine bestimmte Version ablaufen kann. Amazon S3 löscht alle zusätzlichen nicht aktuellen Versionen dauerhaft, die über die angegebene Anzahl hinaus beibehalten werden sollen. Damit der Löschvorgang durchgeführt werden kann, müssen `NoncurrentDays` sowohl der als auch der `NewerNoncurrentVersions` Wert überschritten werden. 

```
<LifecycleConfiguration>
  <Rule>
    <ID>Expire noncurrent with size less than 1 byte</ID>
    <Filter>
       <ObjectSizeLessThan>1</ObjectSizeLessThan>
    </Filter>
    <Status>Enabled</Status>
    <NoncurrentVersionExpiration>     
       <NewerNoncurrentVersions>10</NewerNoncurrentVersions>
       <NoncurrentDays>30</NoncurrentDays>
    </NoncurrentVersionExpiration>
  </Rule>
</LifecycleConfiguration>
```

## Beispiel: Zulassen der Übertragung von Objekten, die kleiner als 128 KB sind
<a name="lc-small-objects"></a>

Amazon S3 wendet ein Standardverhalten auf Ihre Lebenszykluskonfiguration an, das verhindert, dass Objekte, die kleiner als 128 KB sind, in eine beliebige Speicherklasse übertragen werden. Sie können die Übertragung kleinerer Objekte zulassen, indem Sie der Konfiguration einen Filter für die Mindestgröße (`ObjectSizeGreaterThan`) oder die maximale Größe (`ObjectSizeLessThan`) hinzufügen, der eine kleinere Größe festlegt. Im folgenden Beispiel wird für jedes Objekt, das kleiner als 128 KB ist, eine Übertragung auf die Speicherklasse S3 Glacier Instant Retrieval zugelassen:

```
<LifecycleConfiguration>
  <Rule>
    <ID>Allow small object transitions</ID>
    <Filter>
          <ObjectSizeGreaterThan>1</ObjectSizeGreaterThan>
    </Filter>
    <Status>Enabled</Status>
    <Transition>
      <Days>365</Days>
      <StorageClass>GLACIER_IR</StorageClass>
    </Transition>
  </Rule>
</LifecycleConfiguration>
```

**Anmerkung**  
Im September 2024 hat Amazon S3 das standardmäßige Übertragungsverhalten für kleine Objekte wie folgt geändert:  
**Neues Standard-Übertragungsverhalten** – Seit September 2024 verhindert das Standardverhalten, dass Objekte, die kleiner als 128 KB sind, in eine beliebige Speicherklasse übertragen werden.
**Bisheriges Standard-Übergangsverhalten** – Vor September 2024 ließ das Standardverhalten für Objekte, die kleiner als 128 KB waren, nur eine Übertragung in die Speicherklassen S3 Glacier und S3 Glacier Deep Archive zu.
Konfigurationen, die vor September 2024 erstellt wurden, behalten das vorherige Übertragungsverhalten bei, sofern Sie sie nicht ändern. Das heißt, wenn Sie Regeln erstellen, bearbeiten oder löschen, ändert sich das standardmäßige Übertragungsverhalten für Ihre Konfiguration in das neue Verhalten. Falls es Ihr Anwendungsfall erfordert, können Sie das standardmäßige Übertragungsverhalten so ändern, dass Objekte, die kleiner als 128 KB sind, auf S3 Glacier und S3 Glacier Deep Archive übertragen werden. Verwenden Sie dazu den optionalen `x-amz-transition-object-size-minimum-default` Header in einer [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLifecycleConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLifecycleConfiguration.html)-Anfrage.

Das folgende Beispiel zeigt, wie der Header `x-amz-transition-object-size-minimum-default` in einer [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLifecycleConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLifecycleConfiguration.html)-Anforderung verwendet wird, um das standardmäßige Übertragungsverhalten `varies_by_storage_class` auf eine S3-Lebenszykluskonfiguration anzuwenden. Durch dieses Verhalten können Objekte, die kleiner als 128 KB sind, auf die Speicherklassen S3 Glacier oder S3 Glacier Deep Archive übertragen werden. Standardmäßig verhindern alle anderen Speicherklassen Übertragungen von Objekten, die kleiner als 128 KB sind. Sie können weiterhin benutzerdefinierte Filter verwenden, um die minimale Übertragungsgröße für jede Speicherklasse zu ändern. Benutzerdefinierte Filter haben immer Vorrang vor dem standardmäßigen Übertragungsverhalten:

```
HTTP/1.1 200
x-amz-transition-object-size-minimum-default: varies_by_storage_class
<?xml version="1.0" encoding="UTF-8"?>
...
```

# Fehlerbehebung bei Problemen mit dem Amazon-S3-Lebenszyklus
<a name="troubleshoot-lifecycle"></a>

Die folgenden Informationen können Ihnen helfen, häufiger auftretende Probleme mit den Lebenszyklusregeln von Amazon S3 zu beheben.

**Topics**
+ [Ich habe eine Auflistungsoperation für meinen Bucket ausgeführt und es wurden Objekte angezeigt, von denen ich dachte, dass sie abgelaufen oder aufgrund einer Lebenszyklusregel übergeben worden waren.](#troubleshoot-lifecycle-1)
+ [Wie überwache ich die Maßnahmen, die im Rahmen meiner Lebenszyklusregeln ergriffen wurden?](#troubleshoot-lifecycle-2)
+ [Die Anzahl meiner S3-Objekte steigt weiterhin an, obwohl ich Lebenszyklusregeln für einen Bucket mit aktivierter Versionsverwaltung eingerichtet habe.](#troubleshoot-lifecycle-3)
+ [Wie leere ich meinen S3-Bucket mithilfe von Lebenszyklusregeln?](#troubleshoot-lifecycle-4)
+ [Meine Abrechnung für Amazon S3 weist nach der Übergabe von Objekten in eine kostengünstigere Speicherklasse höhere Kosten auf.](#troubleshoot-lifecycle-5)
+ [Ich habe meine Bucket-Richtlinie aktualisiert, meine S3-Objekte werden jedoch noch immer aufgrund abgelaufener Lebenszyklusregeln gelöscht.](#troubleshoot-lifecycle-6)
+ [Kann ich S3-Objekte wiederherstellen, die aufgrund von S3-Lebenszyklusregeln abgelaufen sind?](#troubleshoot-lifecycle-7)
+ [Warum werden meine Ablaufs- und Übergangslebenszyklusaktionen nicht ausgeführt?](#troubleshoot-lifecycle-failures)
+ [Wie kann ich ein Präfix aus meiner Lebenszyklusregel ausschließen?](#troubleshoot-lifecycle-8)
+ [Wie kann ich mehrere Präfixe in meine Lebenszyklusregel aufnehmen?](#troubleshoot-lifecycle-9)

## Ich habe eine Auflistungsoperation für meinen Bucket ausgeführt und es wurden Objekte angezeigt, von denen ich dachte, dass sie abgelaufen oder aufgrund einer Lebenszyklusregel übergeben worden waren.
<a name="troubleshoot-lifecycle-1"></a>

[Das Übergeben von Objekten](https://docs.aws.amazon.com/AmazonS3/latest/userguide/lifecycle-transition-general-considerations.html) und das [Ablaufen von Objekten](https://docs.aws.amazon.com/AmazonS3/latest/userguide/lifecycle-expire-general-considerations.html) in S3-Lebenszyklen sind asynchrone Operationen. Daher kann es zu einer Verzögerung zwischen dem Zeitpunkt kommen, zu dem die Objekte für ein Ablaufen oder eine Übergabe infrage kommen, und dem Zeitpunkt, zu dem sie tatsächlich übergeben werden oder ablaufen. Änderungen an der Abrechnung werden sofort nach Erfüllung der Lebenszyklusregel angewendet, auch wenn die Aktion noch nicht abgeschlossen ist. Eine Ausnahme von diesem Verhalten tritt auf, wenn Sie eine Lebenszyklusregel für die Übergabe in die Speicherklasse S3 Intelligent Tiering festgelegt haben. In diesem Fall treten Abrechnungsänderungen erst auf, wenn das Objekt in S3 Intelligent-Tiering übergeben worden ist. Weitere Informationen zu Änderungen der Abrechnung finden Sie unter [Festlegen der Lebenszyklus-Konfiguration für einen Bucket](https://docs.aws.amazon.com/AmazonS3/latest/userguide/how-to-set-lifecycle-configuration-intro.html).

**Anmerkung**  
Amazon S3 übergibt keine Objekte, die kleiner als 128 KB sind, von der Speicherklasse S3 Standard oder S3 Standard-IA in die Klassen S3 Intelligent-Tiering, S3 Standard-IA oder S3 One Zone-IA.

## Wie überwache ich die Maßnahmen, die im Rahmen meiner Lebenszyklusregeln ergriffen wurden?
<a name="troubleshoot-lifecycle-2"></a>

Sie können auch die folgenden Features verwenden, um die Aktionen Ihrer Lebenszyklusregeln zu überwachen: 
+ **S3-Ereignisbenachrichtigungen** – Sie können [S3-Ereignisbenachrichtigungen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/lifecycle-configure-notification.html) einrichten, um über alle Ablauf- und Übertragungsereignisse im S3 Lebenszyklus informiert zu werden.
+ **S3-Serverzugriffsprotokolle** – Sie können Serverzugriffsprotokolle für Ihre S3-Buckets aktivieren, um S3-Lebenszyklusaktionen zu erfassen, wie beispielsweise Objektübertragungen auf eine andere Speicherklasse oder das Ablaufen von Objekten. Weitere Informationen finden Sie unter [Lebenszyklus und Protokollieren](https://docs.aws.amazon.com/AmazonS3/latest/userguide/lifecycle-and-other-bucket-config.html#lifecycle-general-considerations-logging).

Um die Änderungen an Ihrem Speicher, die durch Lebenszyklusaktionen verursacht werden, täglich zu sehen, empfehlen wir, [S3 Storage Lens-Dashboards](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_basics_metrics_recommendations.html#storage_lens_basics_dashboards) zu verwenden, anstatt CloudWatch Amazon-Metriken zu verwenden. Über Ihr Storage-Lens-Dashboard können Sie die folgenden Metriken anzeigen, die die Anzahl oder Größe der Objekte überwachen:
+ **Aktuelle Versions-Bytes**
+ **Anzahl der Objekte der aktuellen Version**
+ **Nicht aktuelle Versions-Bytes**
+ **Anzahl nicht aktueller Versionsobjekte**
+ **Anzahl der Löschmarkierungsobjekte**
+ **Markierungsspeicherbytes löschen**
+ **Unvollständige Bytes für mehrteilige Uploads**
+ **Anzahl unvollständiger mehrteiliger Uploads**

## Die Anzahl meiner S3-Objekte steigt weiterhin an, obwohl ich Lebenszyklusregeln für einen Bucket mit aktivierter Versionsverwaltung eingerichtet habe.
<a name="troubleshoot-lifecycle-3"></a>

Wenn ein Objekt in einem [Bucket mit aktivierter Versionsverwaltung](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Versioning.html#versioning-states) abgelaufen ist, wird das Objekt nicht vollständig aus dem Bucket gelöscht. Stattdessen wird eine [Löschmarkierung](https://docs.aws.amazon.com/AmazonS3/latest/userguide/DeleteMarker.html) als neueste Version des Objekts erstellt. Löschmarkierungen werden weiterhin als Objekte gezählt. Wenn also die Lebenszyklusregel erstellt wird, dass nur die aktuellen Versionen ablaufen, erhöht sich die Anzahl der Objekte im S3-Bucket, anstatt zu sinken.

Nehmen wir beispielsweise an, dass für einen S3-Bucket mit 100 Objekten die Versionsverwaltung aktiviert und die Lebenszyklusregel festgelegt ist, dass aktuelle Versionen des Objekts nach 7 Tagen ablaufen. Nach dem siebten Tag erhöht sich die Anzahl der Objekte auf 200, da zusätzlich zu den 100 ursprünglichen Objekten, bei denen es sich jetzt um die nicht aktuellen Versionen handelt, 100 Löschmarkierungen erstellt werden. Weitere Informationen zu den Aktionen der S3-Lebenszyklus-Konfigurationsregel für Buckets mit aktivierter Versionsverwaltung finden Sie unter [Festlegen der Lebenszyklus-Konfiguration für einen Bucket](https://docs.aws.amazon.com/AmazonS3/latest/userguide/how-to-set-lifecycle-configuration-intro.html).

Um Objekte dauerhaft zu entfernen, fügen Sie eine zusätzliche Lebenszykluskonfiguration hinzu, um die vorherigen Versionen der Objekte, abgelaufene Löschmarkierungen und unvollständige mehrteilige Uploads zu löschen. Anweisungen zum Erstellen neuer Lebenszyklusregeln finden Sie unter [Festlegen der Lebenszyklus-Konfiguration für einen Bucket](https://docs.aws.amazon.com/AmazonS3/latest/userguide/how-to-set-lifecycle-configuration-intro.html).

**Anmerkung**  
Amazon S3 rundet das Übergabe- oder Ablaufdatum eines Objekts auf Mitternacht UTC am nächsten Tag auf.   
Bei der Bewertung von Objekten für Lebenszyklusaktionen verwendet Amazon S3 die Objekterstellungszeit in UTC. Gehen wir zum Beispiel von einen Bucket ohne Versionsverwaltung aus, dessen Lebenszyklusregel so konfiguriert ist, dass Objekte nach einem Tag ablaufen. Angenommen, ein Objekt wurde am 1. Januar um 17:05 Uhr PDT (Pacific Daylight Time) erstellt, was dem 2. Januar um 00:05 Uhr UTC entspricht. Das Objekt wird am 3. Januar um 00:05 Uhr UTC einen Tag alt, sodass es ablaufen kann, wenn S3-Lebenszyklus am 4. Januar um 00:00 Uhr UTC Objekte bewertet.  
Da Amazon-S3-Lebenszyklusaktionen asynchron ausgeführt werden, kann es zu Verzögerungen zwischen dem in der Lebenszyklusregel angegebenen Datum und der tatsächlichen physischen Übertragung des Objekts kommen. Weitere Informationen finden Sie unter [Verzögerung bei Übertragung oder Ablauf](how-to-set-lifecycle-configuration-intro.md#lifecycle-action-delay).  
Weitere Informationen finden Sie unter [Lebenszyklusregeln: Basierend auf dem Alter eines Objekts](https://docs.aws.amazon.com/AmazonS3/latest/dev/intro-lifecycle-rules.html#intro-lifecycle-rules-number-of-days).
Bei S3-Objekten, die durch die Objektsperre geschützt sind, werden aktuelle Versionen nicht dauerhaft gelöscht. Stattdessen wird den Objekten eine Löschmarkierung hinzugefügt, sodass sie nicht mehr aktuell sind. Nicht aktuelle Versionen werden dann beibehalten und laufen nicht dauerhaft ab.

## Wie leere ich meinen S3-Bucket mithilfe von Lebenszyklusregeln?
<a name="troubleshoot-lifecycle-4"></a>

S3-Lebenszyklusregeln sind ein effektives Tool zum [Leeren eines S3-Buckets](https://docs.aws.amazon.com/AmazonS3/latest/userguide/empty-bucket.html) mit Millionen von Objekten. Wenn Sie eine große Anzahl von Objekten aus Ihrem S3-Bucket löschen möchten, stellen Sie sicher, dass Sie diese zwei Paare von Lebenszyklusregeln verwenden:
+ **Aktuelle Objektversionen ablaufen lassen** und **Vorherige Versionen von Objekten dauerhaft löschen**
+ **Löschmarkierungen für abgelaufenes Objekt löschen** und **Unvollständige mehrteilige Uploads löschen**

Anweisungen zum Erstellen einer neuen Lebenszyklus-Konfigurationsregel finden Sie unter [Festlegen der Lebenszyklus-Konfiguration für einen Bucket](https://docs.aws.amazon.com/AmazonS3/latest/userguide/how-to-set-lifecycle-configuration-intro.html).

**Anmerkung**  
Bei S3-Objekten, die durch die Objektsperre geschützt sind, werden aktuelle Versionen nicht dauerhaft gelöscht. Stattdessen wird den Objekten eine Löschmarkierung hinzugefügt, sodass sie nicht mehr aktuell sind. Nicht aktuelle Versionen werden dann beibehalten und laufen nicht dauerhaft ab.

## Meine Abrechnung für Amazon S3 weist nach der Übergabe von Objekten in eine kostengünstigere Speicherklasse höhere Kosten auf.
<a name="troubleshoot-lifecycle-5"></a>

Es gibt mehrere Gründe, warum Ihre Abrechnung nach der Übergabe von Objekten in eine kostengünstigere Speicherklasse höhere Kosten aufweisen kann: 
+ S3-Glacier-Overheadgebühren für kleine Objekte

  Bei jedem Objekt, das an S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive übergeben wird, ist ein Gesamt-Overhead von 40 KB mit dieser Speicheraktualisierung verbunden. Im Rahmen des Overheads von 40 KB werden 8 KB zum Speichern der Metadaten und des Objektnamens verwendet. Diese 8 KB werden gemäß den S3-Standardgebühren berechnet. Die restlichen 32 KB werden für die Indexierung und die zugehörigen Metadaten verwendet. Diese 32 KB werden gemäß den Gebühren von S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive berechnet.

  Wenn Sie viele kleinere Objekte speichern, sollten Sie daher keine Lebenszyklusübergaben verwenden. Stattdessen sollten Sie viele kleinere Objekte zu einer kleineren Anzahl von großen Objekten zusammenzufassen, bevor Sie sie in Amazon S3 speichern, um so die Overheadgebühren zu reduzieren. Weitere Informationen zu den Kostenüberlegungen finden Sie unter [Übergang in die Speicherklassen S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive (Objektarchivierung)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/lifecycle-transition-general-considerations.html#before-deciding-to-archive-objects).
+ Mindestspeichergebühren

  Für einige S3-Speicherklassen gelten Mindestanforderungen an die Speicherdauer. Für Objekte, die vor Ablauf der Mindestdauer gelöscht, überschrieben oder aus diesen Klassen übergeben werden, wird eine anteilige Gebühr für die vorzeitige Übergabe oder das Löschen berechnet. Diese Mindestanforderungen an die Speicherdauer lauten wie folgt: 
  + S3 Standard-IA und S3 One Zone-IA – 30 Tage
  + S3 Glacier Flexible Retrieval und S3 Glacier Instant Retrieval – 90 Tage
  + S3 Glacier Deep Archive – 180 Tage

  Weitere Informationen zu diesen Anforderungen finden Sie im Abschnitt *Beschränkungen* unter [Übergang von Objekten mit S3-Lebenszyklus](https://docs.aws.amazon.com/AmazonS3/latest/userguide/lifecycle-transition-general-considerations.html). Allgemeine S3-Preisinformationen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/) und im [AWS Pricing Calculator](https://calculator.aws/#/addService/S3).
+ Kosten für die Lebenszyklusübergabe

  Immer wenn ein Objekt durch eine Lebenszyklusregel in eine andere Speicherklasse übergeben wird, zählt Amazon S3 diese Übergabe als eine Übergabeanforderung. Die Kosten für diese Übergabeanforderungen kommen zu den Kosten dieser Speicherklassen hinzu. Wenn Sie vorhaben, sehr viele Objekte zu übergeben, sollten Sie die Anforderungskosten für Übergaben in niedrigere Stufen berücksichtigen. Weitere Informationen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).

## Ich habe meine Bucket-Richtlinie aktualisiert, meine S3-Objekte werden jedoch noch immer aufgrund abgelaufener Lebenszyklusregeln gelöscht.
<a name="troubleshoot-lifecycle-6"></a>

`Deny`-Anweisungen in einer Bucket-Richtlinie verhindern den Ablauf der in einer Lebenszyklusregel definierten Objekte nicht. Lebenszyklusaktionen (wie Übergaben oder der Ablauf) verwenden die S3-Operation `DeleteObject` nicht. Stattdessen werden S3-Lebenszyklusaktionen mithilfe interner S3-Endpunkte ausgeführt. (Weitere Informationen finden Sie unter [Lebenszyklus und Protokollieren](https://docs.aws.amazon.com/AmazonS3/latest/userguide/lifecycle-and-other-bucket-config.html#lifecycle-general-considerations-logging).) 

Um zu verhindern, dass Ihre Lebenszyklusregel Aktionen ausführt, müssen Sie die Regel bearbeiten, löschen oder [deaktivieren](https://docs.aws.amazon.com/AmazonS3/latest/userguide/lifecycle-configuration-examples.html#lifecycle-config-conceptual-ex2).

## Kann ich S3-Objekte wiederherstellen, die aufgrund von S3-Lebenszyklusregeln abgelaufen sind?
<a name="troubleshoot-lifecycle-7"></a>

Die einzige Möglichkeit, aufgrund des S3-Lebenszyklus abgelaufene Objekte wiederherzustellen, besteht in der Versionsverwaltung. Diese muss vor dem Ablauf der Objekte aktiviert sein. Sie können die Ablaufoperationen, die durch Lebenszyklusregeln ausgeführt werden, nicht rückgängig machen. Wenn Objekte aufgrund der geltenden S3-Lebenszyklusregeln dauerhaft gelöscht werden, können Sie diese Objekte nicht wiederherstellen. Informationen zum Aktivieren der Versionsverwaltung für einen Bucket finden Sie unter [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md).

Wenn Sie die Versionsverwaltung auf den Bucket angewendet haben und die nicht aktuellen Versionen der Objekte noch intakt sind, können Sie [frühere Versionen der abgelaufenen Objekte wiederherstellen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/RestoringPreviousVersions.html). Weitere Informationen zum Verhalten der Aktionen von S3-Lebenszyklusregeln und zu Versionsverwaltungsstatus finden Sie in der Tabelle *Lebenszyklus-Aktionen und der Versioning-Status eines Buckets* in [Elemente, die Lebenszyklus-Aktionen beschreiben](https://docs.aws.amazon.com/AmazonS3/latest/userguide/intro-lifecycle-rules.html#non-current-days-calculations).

**Anmerkung**  
Wenn der S3-Bucket durch [AWS -Backups](https://docs.aws.amazon.com/aws-backup/latest/devguide/s3-backups.html) oder [S3 Replication](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication.html) geschützt ist, können Sie diese Funktionen möglicherweise auch verwenden, um Ihre abgelaufenen Objekte wiederherzustellen.

## Warum werden meine Ablaufs- und Übergangslebenszyklusaktionen nicht ausgeführt?
<a name="troubleshoot-lifecycle-failures"></a>

Bei einem Bucket mit aktivierter oder ausgesetzter Versionsverwaltung gelten die folgenden Überlegungen für die Handhabung der Ablaufaktion durch Amazon S3:
+ Die Objektablaufaktion wird nur auf die aktuelle Version eines Objekts angewendet (sie wirkt sich nicht auf nicht aktuelle Objektversionen aus).
+ Amazon S3 führt keine Aktion aus, wenn es eine oder mehrere Objektversionen gibt und die Löschmarkierung die aktuelle Version ist.
+ Amazon S3 ergreift keine Maßnahmen für nicht aktuelle Versionen von Objekten, auf die S3-Object-Lock angewendet wurde.
+ Bei Objekten mit dem `FAILED` Replikationsstatus `PENDING` oder ergreift Amazon S3 keine Maßnahmen für aktuelle oder nicht aktuelle Versionen von Objekten.

Für die Übertragung auf andere Lebenszyklusspeicherklassen gelten folgende Einschränkungen:
+ Standardmäßig werden Objekte, die kleiner als 128 KB sind, nicht in eine Speicherklasse übertragen.
+ Objekte müssen mindestens 30 Tage gespeichert werden, bevor sie auf S3 Standard-IA oder S3 One Zone-IA übertragen werden.
+ Bei Buckets mit aktivierter Versionierung oder angehaltener Versionierung können Objekte mit einem `FAILED` Replikationsstatus `PENDING` oder nicht übertragen werden.

## Wie kann ich ein Präfix aus meiner Lebenszyklusregel ausschließen?
<a name="troubleshoot-lifecycle-8"></a>

S3-Lebenszyklus unterstützt das Ausschließen von Präfixen in Ihren Regeln nicht. Verwenden Sie stattdessen Tags, um alle Objekte zu kennzeichnen, die Sie in die Regel aufnehmen möchten. Weitere Informationen über das Verwenden von Tags in Ihren Lebenszyklusregeln finden Sie unter [Archivieren aller Objekte innerhalb eines Tages nach der Erstellung](lifecycle-configuration-examples.md#lifecycle-config-ex1).

## Wie kann ich mehrere Präfixe in meine Lebenszyklusregel aufnehmen?
<a name="troubleshoot-lifecycle-9"></a>

S3-Lebenszyklus unterstützt die Aufnahme mehrerer Präfixe in Ihre Regeln nicht. Verwenden Sie stattdessen Tags, um alle Objekte zu kennzeichnen, die Sie in die Regel aufnehmen möchten. Weitere Informationen über das Verwenden von Tags in Ihren Lebenszyklusregeln finden Sie unter [Archivieren aller Objekte innerhalb eines Tages nach der Erstellung](lifecycle-configuration-examples.md#lifecycle-config-ex1).

Wenn Sie jedoch über ein oder mehrere Präfixe verfügen, die mit denselben Zeichen beginnen, können Sie all diese Präfixe in Ihre Regel aufnehmen, indem Sie im Filter ein Teilpräfix ohne abschließenden Schrägstrich (`/`) angeben. Angenommen, Sie haben folgende Präfixe:

```
sales1999/
sales2000/
sales2001/
```

Um alle drei Präfixe in Ihre Regel aufzunehmen, geben Sie `<Prefix>sales</Prefix>` in Ihrer Lebenszyklusregel an. 