

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Protokollierung und Überwachung in Amazon S3
<a name="monitoring-overview"></a>

Die Überwachung ist ein wichtiger Bestandteil der Aufrechterhaltung der Zuverlässigkeit, Verfügbarkeit und Leistung von Amazon S3 und Ihren AWS Lösungen. Wir empfehlen, Überwachungsdaten aus allen Teilen Ihrer AWS Lösung zu sammeln, damit Sie einen etwaigen Ausfall an mehreren Punkten leichter debuggen können. Bevor Sie mit der Überwachung von Amazon S3 beginnen, sollten Sie einen Überwachungsplan mit Antworten auf die folgenden Fragen erstellen:
+ Was sind Ihre Ziele bei der Überwachung?
+ Welche Ressourcen werden überwacht?
+ Wie oft werden diese Ressourcen überwacht?
+ Welche Überwachungstools werden verwendet?
+ Wer soll die Überwachungsaufgaben ausführen?
+ Wer soll benachrichtigt werden, wenn Fehler auftreten?

Weitere Informationen zur Protokollierung und Überwachung in Amazon S3 finden Sie in den folgenden Themen.

**Anmerkung**  
Weitere Informationen zur Verwendung der Speicherklasse Amazon S3 Express One Zone mit Verzeichnis-Buckets finden Sie unter [S3 Express One Zone](directory-bucket-high-performance.md#s3-express-one-zone) und [Arbeiten mit Verzeichnis-Buckets](directory-buckets-overview.md).

Die Überwachung ist ein wichtiger Bestandteil der Aufrechterhaltung der Zuverlässigkeit, Verfügbarkeit und Leistung von Amazon S3 und Ihren AWS Lösungen. Sie sollten Überwachungsdaten aus allen Teilen Ihrer AWS Lösung sammeln, damit Sie einen etwaigen Ausfall an mehreren Stellen leichter debuggen können. AWS bietet verschiedene Tools zur Überwachung Ihrer Amazon S3 S3-Ressourcen und zur Reaktion auf potenzielle Vorfälle.

** CloudWatch Amazon-Alarme**  
Mithilfe von CloudWatch Amazon-Alarmen beobachten Sie eine einzelne Metrik über einen von Ihnen angegebenen Zeitraum. Wenn die Metrik einen bestimmten Schwellenwert überschreitet, wird eine Benachrichtigung an ein Amazon SNS SNS-Thema oder eine AWS Auto Scaling Richtlinie gesendet. CloudWatch Alarme lösen keine Aktionen aus, da sie sich in einem bestimmten Status befinden. Der Status muss sich stattdessen geändert haben und für eine festgelegte Anzahl an Zeiträumen aufrechterhalten worden sein. Weitere Informationen finden Sie unter [Metriken mit Amazon überwachen CloudWatch](cloudwatch-monitoring.md).

**AWS CloudTrail Logs**  
CloudTrail bietet eine Aufzeichnung der Aktionen, die von einem Benutzer, einer Rolle oder einem AWS Service in Amazon S3 ausgeführt wurden. Anhand der von gesammelten Informationen können Sie die Anfrage CloudTrail, die an Amazon S3 gestellt wurde, die IP-Adresse, von der aus die Anfrage gestellt wurde, wer die Anfrage gestellt hat, wann sie gestellt wurde, und weitere Details ermitteln. Weitere Informationen finden Sie unter [Protokollieren Amazon S3 S3-API-Aufrufen mit AWS CloudTrail](cloudtrail-logging.md).

**Amazon GuardDuty**  
[Amazon GuardDuty](https://docs.aws.amazon.com/guardduty/latest/ug/what-is-guardduty.html) ist ein Service zur Bedrohungserkennung, der Ihre Konten, Container, Workloads und die Daten in Ihrer AWS Umgebung kontinuierlich überwacht, um potenzielle Bedrohungen oder Sicherheitsrisiken für Ihre S3-Buckets zu identifizieren. GuardDuty bietet außerdem umfangreiche Informationen zu den erkannten Bedrohungen. GuardDuty überwacht AWS CloudTrail Verwaltungsprotokolle auf Bedrohungen und veröffentlicht sicherheitsrelevante Informationen. Dazu gehören beispielsweise Faktoren einer API-Anfrage, wie der Benutzer, der die Anfrage gestellt hat, der Standort, von dem aus die Anfrage gestellt wurde, und die spezifische angeforderte API, die in Ihrer Umgebung ungewöhnlich sein könnten. GuardDuty [GuardDuty S3 Protection](https://docs.aws.amazon.com/guardduty/latest/ug/s3-protection.html) überwacht die von allen S3-Buckets in Ihrer Umgebung gesammelten S3-Datenereignisse CloudTrail und identifiziert potenziell anomales und bösartiges Verhalten.

**Amazon-S3-Zugriffsprotokolle**  
Server-Zugriffsprotokolle enthalten detaillierte Aufzeichnungen über die Anfragen, die an einen Bucket gestellt wurden. Server-Zugriffsprotokolle sind für viele Anwendungen nützlich. Beispielsweise können Zugriffsprotokoll-Informationen bei Sicherheits- und Zugriffsprüfungen nützlich sein. Weitere Informationen finden Sie unter [Protokollieren von Anfragen mit Server-Zugriffsprotokollierung](ServerLogs.md).

**AWS Trusted Advisor**  
Trusted Advisor stützt sich auf bewährte Verfahren, die wir bei der Betreuung von Hunderttausenden von Kunden gelernt haben. AWS Trusted Advisor untersucht Ihre AWS Umgebung und gibt dann Empfehlungen, wenn Möglichkeiten bestehen, Geld zu sparen, die Systemverfügbarkeit und -leistung zu verbessern oder Sicherheitslücken zu schließen. Alle AWS Kunden haben Zugriff auf fünf Trusted Advisor Schecks. Kunden mit einem Business- oder Enterprise-Supportplan können alle Trusted Advisor Schecks einsehen.   
Trusted Advisor hat die folgenden Amazon S3-bezogenen Prüfungen:  
+ Protokollierungskonfiguration von Amazon-S3-Buckets.
+ Sicherheitsprüfungen für Amazon-S3-Buckets mit offenen Zugriffsberechtigungen.
+ Fehlertoleranzprüfungen für Amazon-S3-Buckets, für die keine Versionsverwaltung aktiviert oder deren Versionsverwaltung ausgesetzt ist
Weitere Informationen finden Sie unter [AWS Trusted Advisor](https://docs.aws.amazon.com/awssupport/latest/user/getting-started.html#trusted-advisor) im *Support -Benutzerhandbuch*.

**Amazon S3 Storage Lens**  
Amazon S3 Storage Lens ist eine Cloud-Speicheranalysefunktion, mit der Sie unternehmensweite Einblicke in die Nutzung und Aktivität von Objektspeichern erhalten können. Sie können Metriken von S3 Storage Lens verwenden, um zusammenfassende Erkenntnisse zu gewinnen und z. B. herauszufinden, wie viel Speicher Sie in Ihrer gesamten Organisation haben oder welche Buckets und Präfixe am schnellsten wachsen. Außerdem können Sie anhand der Metriken von S3 Storage Lens umfassende Möglichkeiten zur Kostenoptimierung aufdecken, bewährte Methoden für den Datenschutz implementieren und die Leistung von Anwendungs-Workloads verbessern.  
S3 Storage Lens aggregiert Ihre Metriken und zeigt die Informationen im Abschnitt „Konto-Snapshot“ der Seite **Buckets** der Amazon-S3-Konsole an. S3 Storage Lens bietet außerdem ein interaktives Dashboard, mit dem Sie Erkenntnisse und Trends visualisieren, Ausreißer kennzeichnen und Empfehlungen zur Optimierung der Speicherkosten erhalten und bewährte Datenschutzmethoden anwenden können. Ihr Dashboard bietet Drilldown-Optionen zur Generierung und Visualisierung von Erkenntnissen auf Organisations-, Konto-, Speicherklassen- AWS-Region, Bucket-, Präfix- oder Storage Lens-Gruppenebene. Weitere Informationen finden Sie unter [Grundlegendes zu Amazon S3 Storage Lens](storage_lens_basics_metrics_recommendations.md).

**Amazon S3 Inventory**  
Amazon S3 Inventory generiert eine Liste von Objekten und Metadaten, mit denen Sie Ihre Objekte abfragen und verwalten können. Sie können diesen Inventarbericht verwenden, um detaillierte Daten wie Objektgröße, Datum der letzten Änderung, Verschlüsselungsstatus und andere Felder zu generieren. Diese Berichte sind täglich oder wöchentlich verfügbar und enthalten automatisch die neueste Liste.  
Verwenden Sie Amazon S3 Inventory für die Prüfung und Meldung des Replikations- und Verschlüsselungsstatus Ihrer Objekte für Unternehmens-, Compliance- und regulatorische Anforderungen. Sie können auch Amazon S3 Inventory verwenden, um Geschäftsabläufe und Big-Data-Jobs zu vereinfachen und zu beschleunigen. Es bietet eine geplante Alternative zu den synchronen `List`-API-Operationen in Amazon S3. Amazon S3 Inventory verwendet die `List`-API-Operationen nicht zur Überprüfung Ihrer Objekte und hat keinen Einfluss auf die Anforderungsrate Ihres Buckets. Weitere Informationen finden Sie unter [Katalogisieren und Analysieren Ihrer Daten mit S3 Inventory](storage-inventory.md).

**Amazon-S3-Ereignisbenachrichtigungen**  
Mit Amazon-S3-Ereignisbenachrichtigungen erhalten Sie Benachrichtigungen, wenn bestimmte Ereignisse in Ihrem S3-Bucket auftreten. Um Benachrichtigungen zu aktivieren, fügen Sie eine Benachrichtigungskonfiguration hinzu, die die Ereignisse angibt, die Amazon S3 veröffentlichen soll. Weitere Informationen finden Sie unter [Amazon-S3-Ereignisbenachrichtigungen](EventNotifications.md).

**Amazon S3 und AWS X-Ray**  
AWS X-Ray lässt sich in Amazon S3 integrieren, um Upstream-Anfragen zur Aktualisierung der S3-Buckets Ihrer Anwendung zu verfolgen. Wenn ein Dienst Anforderungen mithilfe des X-Ray SDK nachverfolgt, kann Amazon S3 die Tracing-Header an nachgelagerte Ereignisabonnenten wie Λ, Amazon SQS und Amazon SNS senden X-Ray aktiviert Trace-Nachrichten für Amazon-S3-Ereignisbenachrichtigungen. Sie können die X-Ray-Trace-Karte verwenden, um die Verbindungen zwischen Amazon S3 und anderen Diensten, die Ihre Anwendung nutzt, anzuzeigen. Weitere Informationen finden Sie unter [Amazon S3 und X-Ray](https://docs.aws.amazon.com/xray/latest/devguide/xray-services-s3.html).

Die folgenden bewährten Sicherheitsmethoden umfassen ebenfalls die Protokollierung und Überwachung:
+ [Identify and audit all your Amazon S3 buckets](security-best-practices.md#audit)
+ [Implement monitoring using Amazon Web Services monitoring tools](security-best-practices.md#tools)
+ [Aktivieren AWS Config](security-best-practices.md#config)
+ [Enable Amazon S3 server access logging](security-best-practices.md#serverlog)
+ [Use CloudTrail](security-best-practices.md#objectlog)
+ [Monitor Amazon Web Services security advisories](security-best-practices.md#advisories)

**Topics**
+ [Tools zur Überwachung](monitoring-automated-manual.md)
+ [Protokollierungsoptionen für Amazon S3](logging-with-S3.md)
+ [Protokollieren Amazon S3 S3-API-Aufrufen mit AWS CloudTrail](cloudtrail-logging.md)
+ [Protokollieren von Anfragen mit Server-Zugriffsprotokollierung](ServerLogs.md)
+ [Metriken mit Amazon überwachen CloudWatch](cloudwatch-monitoring.md)
+ [Amazon-S3-Ereignisbenachrichtigungen](EventNotifications.md)
+ [Überwachung Ihrer Speicheraktivität und -nutzung mit Amazon S3 Storage Lens](storage_lens.md)
+ [Katalogisieren und Analysieren Ihrer Daten mit S3 Inventory](storage-inventory.md)

# Tools zur Überwachung
<a name="monitoring-automated-manual"></a>

AWS bietet verschiedene Tools, mit denen Sie Amazon S3 überwachen können. Sie können einige dieser Tools so konfigurieren, dass diese die Überwachung für Sie übernehmen, während bei anderen Tools ein manuelles Eingreifen nötig ist. Wir empfehlen, dass Sie die Überwachungsaufgaben möglichst automatisieren.

## Automatisierte Überwachungstools
<a name="monitoring-automated_tools"></a>

Sie können die folgenden automatisierten Tools zur Überwachung von Amazon S3 verwenden und auftretende Probleme melden:
+ **Amazon CloudWatch Alarms** — Überwachen Sie eine einzelne Metrik über einen von Ihnen angegebenen Zeitraum und führen Sie eine oder mehrere Aktionen aus, die auf dem Wert der Metrik im Verhältnis zu einem bestimmten Schwellenwert über mehrere Zeiträume basieren. Die Aktion ist eine Benachrichtigung, die an ein Amazon Simple Notification Service (Amazon SNS) -Thema oder eine Amazon EC2 Auto Scaling Scaling-Richtlinie gesendet wird. CloudWatch Alarme lösen keine Aktionen aus, nur weil sie sich in einem bestimmten Status befinden. Der Status muss sich geändert haben und für eine festgelegte Anzahl an Zeiträumen aufrechterhalten worden sein. Weitere Informationen finden Sie unter [Metriken mit Amazon überwachen CloudWatch](cloudwatch-monitoring.md).
+ **AWS CloudTrail Protokollüberwachung** — Teilen Sie Protokolldateien zwischen Konten, überwachen CloudTrail Sie Protokolldateien in Echtzeit, indem Sie sie an CloudWatch Logs senden, schreiben Sie Protokollverarbeitungsanwendungen in Java und überprüfen Sie, ob sich Ihre Protokolldateien nach der Lieferung von CloudTrail nicht geändert haben. Weitere Informationen finden Sie unter [Protokollieren Amazon S3 S3-API-Aufrufen mit AWS CloudTrail](cloudtrail-logging.md).

## Manuelle Überwachungstools
<a name="monitoring-manual-tools"></a>

Ein weiterer wichtiger Teil der Überwachung von Amazon S3 ist die manuelle Überwachung der Elemente, die von den CloudWatch Alarmen nicht abgedeckt werden. Die Amazon S3, CloudWatch Trusted Advisor, und andere AWS-Managementkonsole Dashboards bieten einen at-a-glance Überblick über den Zustand Ihrer AWS Umgebung. Möglicherweise wollen Sie die *Server-Zugriffsprotokollierung* aktivieren, die Zugriffsanforderungen für den Bucket verfolgt. Jeder Zugriffsprotokolldatensatz enthält Details über eine Zugriffsanforderung, z. B. Auftraggeber, Bucket-Name, Anforderungszeit, Anforderungsaktion, Antwortstatus und Fehlercode, falls vorhanden. Weitere Informationen finden Sie unter [Protokollieren von Anfragen mit Server-Zugriffsprotokollierung](ServerLogs.md).
+ Auf dem Amazon-S3-Dashboard wird Folgendes angezeigt:
  + Ihre Buckets und die Eigenschaften und Objekte, die sie enthalten.
+ Auf der CloudWatch Startseite wird Folgendes angezeigt:
  + Aktuelle Alarme und Status
  + Diagramme mit Alarmen und Ressourcen
  + Servicestatus

  Darüber hinaus können CloudWatch Sie Folgendes verwenden: 
  + Erstellen von [benutzerdefinierten Dashboards](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html) zur Überwachung des gewünschten Services.
  + Aufzeichnen von Metrikdaten, um Probleme zu beheben und Trends zu erkennen.
  + Suchen und durchsuchen Sie alle Ihre AWS Ressourcenmetriken.
  + Erstellen und Bearbeiten von Alarmen, um über Probleme benachrichtigt zu werden.
+ AWS Trusted Advisor kann Ihnen helfen, Ihre AWS Ressourcen zu überwachen, um Leistung, Zuverlässigkeit, Sicherheit und Wirtschaftlichkeit zu verbessern. Vier Trusted Advisor -Prüfungen stehen allen Benutzern zur Verfügung; mehr als 50 Überprüfungen stehen Benutzern mit einem Business- oder Enterprise-Supportplan zur Verfügung. Weitere Informationen finden Sie unter [AWS Trusted Advisor](https://aws.amazon.com/premiumsupport/trustedadvisor/).

  Trusted Advisor hat diese Prüfungen, die sich auf Amazon S3 beziehen: 
  + Überprüfungen der Protokollierungskonfiguration von Amazon-S3-Buckets.
  + Sicherheitsprüfungen für Amazon-S3-Buckets mit offenen Zugriffsberechtigungen.
  + Fehlertoleranzprüfungen für Amazon-S3-Buckets, für die kein Versioning aktiviert oder deren Versioning ausgesetzt ist.

# Protokollierungsoptionen für Amazon S3
<a name="logging-with-S3"></a>

Sie können die Aktionen aufzeichnen, die von Benutzern, Rollen oder AWS-Services Amazon S3 S3-Ressourcen ausgeführt werden, und Protokollaufzeichnungen für Prüf- und Compliance-Zwecke verwalten. Dazu können Sie die Serverzugriffsprotokollierung, die AWS CloudTrail -Protokollierung oder eine Kombination aus beiden verwenden. Wir empfehlen Ihnen, CloudTrail für die Protokollierung von Aktionen auf Bucket- und Objektebene für Ihre Amazon S3 S3-Ressourcen zu verwenden. Weitere Informationen zu jeder Option finden Sie in folgenden Abschnitten:
+ [Protokollieren von Anfragen mit Server-Zugriffsprotokollierung](ServerLogs.md)
+ [Protokollieren Amazon S3 S3-API-Aufrufen mit AWS CloudTrail](cloudtrail-logging.md)

In der folgenden Tabelle sind die wichtigsten Eigenschaften von CloudTrail Protokollen und Amazon S3-Serverzugriffsprotokollen aufgeführt. Sehen Sie sich die Tabelle und die Hinweise an, um sicherzustellen, dass dies Ihren Sicherheitsanforderungen CloudTrail entspricht.


| Protokolleigenschaften | AWS CloudTrail | Amazon-S3-Serverprotokolle | 
| --- |--- |--- |
|  Kann an andere Systeme weitergeleitet werden (Amazon CloudWatch Logs, Amazon CloudWatch Events)  |  Ja  | Nein | 
|  Protokolle an mehreren Zielen bereitstellen (Beispiel: dieselben Protokolle an zwei verschiedene Buckets senden)  |  Ja  | Nein | 
|  Protokolle für eine Teilmenge von Objekten aktivieren (Präfix)  |  Ja  | Nein | 
|  Kontoübergreifende Protokollbereitstellung (Ziel- und Quell-Bucket in Besitz von verschiedenen Konten)  |  Ja  | Nein | 
|  Integritätsprüfung der Protokolldatei mit digitaler Signatur oder Hashing  |  Ja  | Nein | 
|  Standardeinstellung oder Auswahl der Verschlüsselung für Protokolldateien  |  Ja  | Nein | 
|  Objektoperationen (mithilfe von Amazon S3 APIs)  |  Ja  |  Ja  | 
|  Bucket-Operationen (mithilfe von Amazon S3 APIs)  |  Ja  |  Ja  | 
|  Durchsuchbare UI für Protokolle  |  Ja  | Nein | 
|  Felder für Objektsperrparameter, Amazon S3 Select-Eigenschaften für Protokolldatensätze  |  Ja  | Nein | 
|  Felder für `Object Size`, `Total Time`, `Turn-Around Time` und `HTTP Referer` für Protokolldatensätze  |  Nein  |  Ja  | 
|  Lebenszyklusübertragungen, Ablaufaktionen, Wiederherstellungen  |  Nein  |  Ja  | 
|  Protokollieren von Schlüsseln in einer Batch-Delete-Operation  |  Ja  |  Ja  | 
|  Authentifizierungsfehler1  |  Nein  |  Ja  | 
|  Konten, an die Protokolle geliefert werden  |  Bucket-Eigentümer2 und Auftraggeber  |  Nur Bucket-Eigentümer  | 
| **Performance and Cost** | **AWS CloudTrail** | **Amazon S3 Server Logs** | 
| --- |--- |--- |
|  Preis  |  Verwaltungsereignisse (erste Bereitstellung) sind kostenlos. Für Datenereignisse fällt zusätzlich zur Speicherung der Protokolle eine Gebühr an  |  Keine Zusatzkosten neben der Speicherung der Protokolle  | 
|  Geschwindigkeit der Protokollbereitstellung  |  Datenereignisse alle 5 Minuten; Verwaltungsereignisse alle 15 Minuten  |  Innerhalb weniger Stunden  | 
|  Protokollformat  |  JSON  |  Protokolldatei mit durch Leerzeichen getrennten, durch neue Zeilen getrennten Datensätzen  | 

**Hinweise**

1. CloudTrail liefert keine Protokolle für Anfragen, bei denen die Authentifizierung fehlschlägt (bei denen die angegebenen Anmeldeinformationen nicht gültig sind) oder die aufgrund einer Umleitung fehlschlagen (Fehlercode`301 Moved Permanently`). Es enthält jedoch Protokolle für Anforderungen, deren Authentifizierung fehlschlägt (`AccessDenied`), und Anforderungen, die von anonymen Benutzern gestellt werden.

1. Der Besitzer des S3-Buckets erhält CloudTrail Protokolle, wenn das Konto keinen vollen Zugriff auf das Objekt in der Anfrage hat. Weitere Informationen finden Sie unter [Amazon-S3-Aktionen auf Objektebene in kontoübergreifenden Szenarios](cloudtrail-logging-s3-info.md#cloudtrail-object-level-crossaccount). 

1. S3 unterstützt nicht die Übermittlung von CloudTrail Protokollen oder Serverzugriffsprotokollen an den Anforderer oder den Bucket-Besitzer für VPC-Endpunktanfragen, wenn die VPC-Endpunktrichtlinie sie ablehnt, oder für Anfragen, die fehlschlagen, bevor die VPC-Richtlinie ausgewertet wurde.

# Protokollieren Amazon S3 S3-API-Aufrufen mit AWS CloudTrail
<a name="cloudtrail-logging"></a>

[AWS CloudTrail](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-user-guide.html)ist ein Service, der eine Aufzeichnung der Aktionen bereitstellt, die von einem Benutzer, einer Rolle oder einem ausgeführt wurden AWS-Service. CloudTrail erfasst alle API-Aufrufe für Amazon S3 als Ereignisse. Zu den erfassten Aufrufen gehören Aufrufe von der Amazon-S3-Konsole und Code-Aufrufe der Amazon-S3-API-Operationen. Anhand der von gesammelten Informationen können Sie die Anfrage CloudTrail, die an Amazon S3 gestellt wurde, die IP-Adresse, von der aus die Anfrage gestellt wurde, den Zeitpunkt der Anfrage und weitere Details ermitteln.

Jeder Ereignis- oder Protokolleintrag enthält Informationen zu dem Benutzer, der die Anforderung generiert hat. Die Identitätsinformationen unterstützen Sie bei der Ermittlung der folgenden Punkte:
+ Ob die Anforderung mit Anmeldeinformationen des Root-Benutzers oder des Benutzers gestellt wurde.
+ Die Anforderung wurde im Namen eines IAM-Identity-Center-Benutzers erstellt.
+ Gibt an, ob die Anforderung mit temporären Sicherheitsanmeldeinformationen für eine Rolle oder einen Verbundbenutzer gesendet wurde.
+ Ob die Anforderung aus einem anderen AWS-Service gesendet wurde.

CloudTrail ist in Ihrem aktiv AWS-Konto , wenn Sie das Konto erstellen, und Sie haben automatisch Zugriff auf den CloudTrail **Event-Verlauf**. Der CloudTrail **Ereignisverlauf** bietet eine einsehbare, durchsuchbare, herunterladbare und unveränderliche Aufzeichnung der aufgezeichneten Verwaltungsereignisse der letzten 90 Tage in einem. AWS-Region Weitere Informationen finden Sie im *AWS CloudTrail Benutzerhandbuch* unter [Arbeiten mit dem CloudTrail Ereignisverlauf](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/view-cloudtrail-events.html). Für die Anzeige des **Eventverlaufs CloudTrail ** fallen keine Gebühren an.

Für eine fortlaufende Aufzeichnung der Ereignisse in AWS-Konto den letzten 90 Tagen erstellen Sie einen Trail- oder [CloudTrail Lake-Event-Datenspeicher](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-lake.html).

**CloudTrail Pfade**  
Ein *Trail* ermöglicht CloudTrail die Übermittlung von Protokolldateien an einen Amazon S3 S3-Bucket. Alle mit dem erstellten Pfade AWS-Managementkonsole sind regionsübergreifend. Sie können mithilfe von AWS CLI einen Einzel-Region- oder einen Multi-Region-Trail erstellen. Es wird empfohlen, einen Trail mit mehreren Regionen zu erstellen, da Sie alle Aktivitäten AWS-Regionen in Ihrem Konto erfassen. Wenn Sie einen Einzel-Region-Trail erstellen, können Sie nur die Ereignisse anzeigen, die im AWS-Region des Trails protokolliert wurden. Weitere Informationen zu Trails finden Sie unter [Erstellen eines Trails für Ihr AWS-Konto](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-create-and-update-a-trail.html) und [Erstellen eines Trails für eine Organisation](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/creating-trail-organization.html) im *AWS CloudTrail -Benutzerhandbuch*.  
Sie können eine Kopie Ihrer laufenden Verwaltungsereignisse kostenlos an Ihren Amazon S3 S3-Bucket senden, CloudTrail indem Sie einen Trail erstellen. Es fallen jedoch Amazon S3 S3-Speichergebühren an. Weitere Informationen zur CloudTrail Preisgestaltung finden Sie unter [AWS CloudTrail Preise](https://aws.amazon.com/cloudtrail/pricing/). Informationen zu Amazon-S3-Preisen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).

**CloudTrail Datenspeicher für Ereignisse in Lake**  
CloudTrail Mit *Lake* können Sie SQL-basierte Abfragen für Ihre Ereignisse ausführen. CloudTrail [Lake konvertiert bestehende Ereignisse im zeilenbasierten JSON-Format in das Apache ORC-Format.](https://orc.apache.org/) ORC ist ein spaltenförmiges Speicherformat, das für den schnellen Abruf von Daten optimiert ist. Die Ereignisse werden in *Ereignisdatenspeichern* zusammengefasst, bei denen es sich um unveränderliche Sammlungen von Ereignissen handelt, die auf Kriterien basieren, die Sie mit Hilfe von [erweiterten Ereignisselektoren](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-lake-concepts.html#adv-event-selectors) auswählen. Die Selektoren, die Sie auf einen Ereignisdatenspeicher anwenden, steuern, welche Ereignisse bestehen bleiben und für Sie zur Abfrage verfügbar sind. *Weitere Informationen zu CloudTrail Lake finden Sie unter [Arbeiten mit AWS CloudTrail Lake](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-lake.html) im AWS CloudTrail Benutzerhandbuch.*  
CloudTrail Für das Speichern und Abfragen von Ereignisdaten in Lake fallen Kosten an. Beim Erstellen eines Ereignisdatenspeichers wählen Sie die [Preisoption](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-lake-manage-costs.html#cloudtrail-lake-manage-costs-pricing-option) aus, die für den Ereignisdatenspeicher genutzt werden soll. Die Preisoption bestimmt die Kosten für die Erfassung und Speicherung von Ereignissen sowie die standardmäßige und maximale Aufbewahrungsdauer für den Ereignisdatenspeicher. Weitere Informationen zur CloudTrail Preisgestaltung finden Sie unter [AWS CloudTrail Preise](https://aws.amazon.com/cloudtrail/pricing/).

Sie können Ihre Protokolldateien beliebig lange im Bucket speichern. Sie können aber auch Amazon S3-Lebenszyklusregeln aufstellen, anhand derer die Protokolldateien automatisch archiviert oder gelöscht werden. Standardmäßig werden die Protokolldateien mit serverseitiger Amazon S3-Verschlüsselung (SSE) verschlüsselt.

## Verwenden von CloudTrail Protokollen mit Amazon S3 S3-Serverzugriffsprotokollen und CloudWatch Protokollen
<a name="cloudtrail-logging-vs-server-logs"></a>

AWS CloudTrail Protokolle enthalten eine Aufzeichnung der Aktionen, die von einem Benutzer, einer Rolle oder einem AWS Service in Amazon S3 ausgeführt wurden, während Amazon S3 S3-Serverzugriffsprotokolle detaillierte Aufzeichnungen über die Anfragen enthalten, die an einen S3-Bucket gestellt werden. Weitere Informationen zur Funktionsweise der unterschiedlichen Protokolle und ihren Eigenschaften, ihrer Leistung und ihrer Kosten finden Sie unter [Protokollierungsoptionen für Amazon S3](logging-with-S3.md). 

Sie können AWS CloudTrail Protokolle zusammen mit Serverzugriffsprotokollen für Amazon S3 verwenden. CloudTrail Protokolle bieten Ihnen detailliertes API-Tracking für Amazon S3 S3-Operationen auf Bucket- und Objektebene. Serverzugriffsprotokolle für Amazon S3 bieten Einblicke in Operationen auf Objektebene für Ihre Daten in Amazon S3. Weitere Informationen zu Server-Zugriffsprotokollen finden Sie unter [Protokollieren von Anfragen mit Server-Zugriffsprotokollierung](ServerLogs.md).

Sie können CloudTrail Protokolle auch zusammen mit Amazon CloudWatch für Amazon S3 verwenden. CloudTrail Die Integration mit CloudWatch Logs liefert API-Aktivitäten auf S3-Bucket-Ebene CloudTrail , die von einem CloudWatch Protokollstream in der von Ihnen angegebenen CloudWatch Protokollgruppe erfasst wurden. Sie können CloudWatch Alarme zur Überwachung bestimmter API-Aktivitäten erstellen und E-Mail-Benachrichtigungen erhalten, wenn die spezifische API-Aktivität auftritt. Weitere Informationen zu CloudWatch Alarmen zur Überwachung bestimmter API-Aktivitäten finden Sie im [AWS CloudTrail Benutzerhandbuch](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/). Weitere Informationen zur Verwendung CloudWatch mit Amazon S3 finden Sie unter[Metriken mit Amazon überwachen CloudWatch](cloudwatch-monitoring.md).

**Anmerkung**  
S3 unterstützt keine Übermittlung von CloudTrail Protokollen an den Anforderer oder den Bucket-Besitzer für VPC-Endpunktanfragen, wenn die VPC-Endpunktrichtlinie sie ablehnt.

## CloudTrail Nachverfolgung mit Amazon S3 S3-SOAP-API-Aufrufen
<a name="cloudtrail-s3-soap"></a>

CloudTrail verfolgt Amazon S3 S3-SOAP-API-Aufrufe. Die Amazon S3 SOAP-Unterstützung über HTTP ist veraltet, steht über HTTPS aber noch zur Verfügung. Weitere Informationen über die Amazon-S3-SOAP-Unterstützung finden Sie unter [Anhang: SOAP-API](https://docs.aws.amazon.com/AmazonS3/latest/API/APISoap.html) in der *Amazon-S3-API-Referenz*. 

**Wichtig**  
Neuere Amazon-S3-Funktionen werden unter SOAP nicht unterstützt. Wir empfehlen, dass Sie entweder die REST-API oder die verwenden AWS SDKs.

 Die folgende Tabelle zeigt Amazon S3 S3-SOAP-Aktionen, die durch CloudTrail Protokollierung verfolgt wurden. 


| SOAP API-Name | Im CloudTrail Protokoll verwendeter API-Ereignisname | 
| --- | --- | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPListAllMyBuckets.html](https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPListAllMyBuckets.html)  | ListBuckets | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPCreateBucket.html](https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPCreateBucket.html)  | CreateBucket | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPDeleteBucket.html](https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPDeleteBucket.html)  | DeleteBucket | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPGetBucketAccessControlPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPGetBucketAccessControlPolicy.html)  | GetBucketAcl | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPSetBucketAccessControlPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPSetBucketAccessControlPolicy.html)  | PutBucketAcl | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPGetBucketLoggingStatus.html](https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPGetBucketLoggingStatus.html)  | GetBucketLogging | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPSetBucketLoggingStatus.html](https://docs.aws.amazon.com/AmazonS3/latest/API/SOAPSetBucketLoggingStatus.html)  | PutBucketLogging | 

 Weitere Informationen zu Amazon S3 CloudTrail und Amazon S3 finden Sie in den folgenden Themen: 

**Topics**
+ [Verwenden von CloudTrail Protokollen mit Amazon S3 S3-Serverzugriffsprotokollen und CloudWatch Protokollen](#cloudtrail-logging-vs-server-logs)
+ [CloudTrail Nachverfolgung mit Amazon S3 S3-SOAP-API-Aufrufen](#cloudtrail-s3-soap)
+ [Amazon S3 CloudTrail S3-Ereignisse](cloudtrail-logging-s3-info.md)
+ [CloudTrail Protokolldateieinträge für Amazon S3 und S3 auf Outposts](cloudtrail-logging-understanding-s3-entries.md)
+ [Aktivieren der CloudTrail Ereignisprotokollierung für S3-Buckets und -Objekte](enable-cloudtrail-logging-for-s3.md)
+ [Identifizieren von Amazon S3 S3-Anfragen mithilfe von CloudTrail](cloudtrail-request-identification.md)

# Amazon S3 CloudTrail S3-Ereignisse
<a name="cloudtrail-logging-s3-info"></a>

**Wichtig**  
Amazon S3 wendet jetzt serverseitige Verschlüsselung mit von Amazon S3 verwalteten Verschlüsselungsschlüssel (SSE-S3) als Basisverschlüsselung für jeden Bucket in Amazon S3 an. Ab dem 5. Januar 2023 werden alle neuen Objekt-Uploads auf Amazon S3 ohne zusätzliche Kosten und ohne Auswirkungen auf die Leistung automatisch verschlüsselt. Der automatische Verschlüsselungsstatus für die Standardverschlüsselungskonfiguration des S3-Buckets und für das Hochladen neuer Objekte ist in den CloudTrail Protokollen, im S3-Inventar, in der S3-Speicherlinse, in der Amazon S3-Konsole und als zusätzlicher Amazon S3 S3-API-Antwortheader im AWS CLI und AWS SDKs verfügbar. Weitere Informationen finden Sie unter [Häufig gestellte Fragen zur Standardverschlüsselung](https://docs.aws.amazon.com/AmazonS3/latest/userguide/default-encryption-faq.html).

Dieser Abschnitt enthält Informationen zu den Ereignissen, die S3 protokolliert. CloudTrail

## Amazon S3 S3-Datenereignisse in CloudTrail
<a name="cloudtrail-data-events"></a>

[Datenereignisse](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/logging-data-events-with-cloudtrail.html#logging-data-events) liefern Informationen über die Ressourcenoperationen, die auf oder in einer Ressource ausgeführt werden (z. B. Lesen oder Schreiben in ein Amazon-S3-Objekt). Sie werden auch als Vorgänge auf Datenebene bezeichnet. Datenereignisse sind oft Aktivitäten mit hohem Volume. Protokolliert standardmäßig CloudTrail keine Datenereignisse. Der CloudTrail **Ereignisverlauf** zeichnet keine Datenereignisse auf.

Für Datenereignisse werden zusätzliche Gebühren fällig. Weitere Informationen zu CloudTrail-Preisen erhalten Sie unter [AWS CloudTrail – Preise](https://aws.amazon.com/cloudtrail/pricing/).

Sie können Datenereignisse für die Amazon S3 S3-Ressourcentypen mithilfe der CloudTrail Konsole oder CloudTrail API-Operationen protokollieren. AWS CLI Weitere Informationen zum Protokollieren von Datenereignissen finden Sie unter [Protokollieren von Datenereignissen mit dem AWS-Managementkonsole](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/logging-data-events-with-cloudtrail.html#logging-data-events-console) und [Protokollieren von Datenereignissen mit dem AWS Command Line Interface](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/logging-data-events-with-cloudtrail.html#creating-data-event-selectors-with-the-AWS-CLI) im *AWS CloudTrail -Benutzerhandbuch*.

In der folgenden Tabelle sind die Amazon-S3-Ressourcentypen aufgeführt, für die Sie Datenereignisse protokollieren können. In der Spalte **Datenereignistyp (Konsole)** wird der Wert angezeigt, den Sie aus der Liste **Datenereignistyp** auf der CloudTrail Konsole auswählen können. In der **Wertspalte resources.type wird** der `resources.type` Wert angezeigt, den Sie bei der Konfiguration erweiterter Event-Selektoren mithilfe von oder angeben würden. AWS CLI CloudTrail APIs In der CloudTrail Spalte ** APIs Protokollierte Daten werden** die API-Aufrufe angezeigt, die CloudTrail für den Ressourcentyp protokolliert wurden. 




| Typ des Datenereignisses (Konsole) | resources.type-Wert | Daten, die APIs protokolliert wurden CloudTrail | 
| --- | --- | --- | 
| S3 |  AWS::S3::Object  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/cloudtrail-logging-s3-info.html)  | 
| S3 Express One Zone |  AWS::S3Express::Object  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/cloudtrail-logging-s3-info.html)  | 
| S3-Zugangspunkt |  AWS::S3::Access Point  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/cloudtrail-logging-s3-info.html)  | 
| S3 Object Lambda |  AWS::S3ObjectLambda::AccessPoint  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/cloudtrail-logging-s3-info.html)  | 
| S3-Outposts |  AWS::S3Outposts::Object  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/cloudtrail-logging-s3-info.html)  | 

Sie können erweiterte Event-Selektoren so konfigurieren, dass sie nach den Feldern `eventName`, `readOnly` und `resources.ARN` filtern, sodass nur die Ereignisse protokolliert werden, die für Sie wichtig sind. Weitere Informationen zu diesen Kontingenten finden Sie unter [https://docs.aws.amazon.com/awscloudtrail/latest/APIReference/API_AdvancedFieldSelector.html](https://docs.aws.amazon.com/awscloudtrail/latest/APIReference/API_AdvancedFieldSelector.html) in der*AWS CloudTrail -API-Referenz*.

## Amazon S3 S3-Managementereignisse in CloudTrail
<a name="cloudtrail-management-events"></a>

Amazon S3 protokolliert alle Operationen auf der Steuerebene als Verwaltungsereignisse. Weitere Informationen zu S3-API-Operationen finden Sie in der [Amazon-S3-API-Referenz](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Operations.html).

## So werden Anfragen an Amazon S3 CloudTrail erfasst
<a name="cloudtrail-logging-s3-requests"></a>

Standardmäßig CloudTrail protokolliert S3-API-Aufrufe auf Bucket-Ebene, die in den letzten 90 Tagen getätigt wurden, protokolliert jedoch keine Anfragen an Objekte. Aufrufe auf Bucket-Ebene sind Ereignisse wie `CreateBucket`, `DeleteBucket`, `PutBucketLifecycle`, `PutBucketPolicy` usw. Sie können Ereignisse auf Bucket-Ebene auf der Konsole sehen. CloudTrail Sie können dort jedoch keine Datenereignisse (Amazon S3 S3-Aufrufe auf Objektebene) anzeigen — Sie müssen sie analysieren oder die Protokolle danach abfragen. CloudTrail 

Wenn Sie Datenaktivitäten mit protokollieren AWS CloudTrail, umfasst der Ereignisdatensatz für ein Amazon S3 `DeleteObjects` S3-Datenereignis sowohl das `DeleteObjects` Ereignis als auch ein `DeleteObject` Ereignis für jedes Objekt, das im Rahmen dieses Vorgangs gelöscht wurde. Sie können die zusätzliche Sichtbarkeit gelöschter Objekte aus dem Ereignisdatensatz ausschließen. Weitere Informationen finden Sie unter [AWS CLI Protokollieren von Datenereignissen für Trails](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/filtering-data-events.html#filtering-data-events-deleteobjects) im *AWS CloudTrail -Benutzerhandbuch.*

## Amazon S3 S3-Aktionen auf Kontoebene, die durch Protokollierung verfolgt werden CloudTrail
<a name="cloudtrail-account-level-tracking"></a>

CloudTrail protokolliert Aktionen auf Kontoebene. Amazon S3 S3-Datensätze werden zusammen mit anderen AWS-Service Datensätzen in eine Protokolldatei geschrieben. CloudTrail bestimmt anhand eines Zeitraums und der Dateigröße, wann eine neue Datei erstellt und in diese geschrieben werden soll. 

In den Tabellen in diesem Abschnitt sind die Amazon S3 S3-Aktionen auf Kontoebene aufgeführt, die für die Protokollierung von unterstützt werden. CloudTrail

API-Aktionen auf Amazon S3 S3-Kontoebene, die durch CloudTrail Protokollierung verfolgt werden, werden als die folgenden Ereignisnamen angezeigt. Die Namen der CloudTrail Ereignisse unterscheiden sich vom Namen der API-Aktion. Zum Beispiel DeletePublicAccessBlock ist DeleteAccountPublicAccessBlock.
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_DeletePublicAccessBlock.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_DeletePublicAccessBlock.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_GetPublicAccessBlock.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_GetPublicAccessBlock.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_PutPublicAccessBlock.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_PutPublicAccessBlock.html)

## Amazon S3 S3-Aktionen auf Bucket-Ebene, die durch Protokollierung verfolgt werden CloudTrail
<a name="cloudtrail-bucket-level-tracking"></a>

Standardmäßig werden Aktionen auf Bucket-Ebene für allgemeine Buckets CloudTrail protokolliert. Amazon S3 S3-Datensätze werden zusammen mit anderen AWS Serviceaufzeichnungen in eine Protokolldatei geschrieben. CloudTrail bestimmt anhand eines Zeitraums und der Dateigröße, wann eine neue Datei erstellt und in diese geschrieben werden soll. 

In diesem Abschnitt sind die Amazon S3 S3-Aktionen auf Bucket-Ebene aufgeführt, die für die Protokollierung von unterstützt werden. CloudTrail

API-Aktionen auf Amazon S3 S3-Bucket-Ebene, die durch CloudTrail Protokollierung verfolgt werden, werden als die folgenden Ereignisnamen angezeigt. In einigen Fällen unterscheidet sich der Name des CloudTrail Ereignisses vom Namen der API-Aktion. Zum Beispiel, `PutBucketLifecycleConfiguration` ist `PutBucketLifecycle`.
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateBucket.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateBucket.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateBucketMetadataConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateBucketMetadataConfiguration.html) (V2-API-Betrieb)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateBucketMetadataTableConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateBucketMetadataTableConfiguration.html) (V1-API-Betrieb)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucket.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucket.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketAnalyticsConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketAnalyticsConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketCors.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketCors.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketEncryption.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketEncryption.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketIntelligentTieringConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketIntelligentTieringConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketInventoryConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketInventoryConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketLifecycle.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketLifecycle.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketMetadataConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketMetadataConfiguration.html) (V2-API-Betrieb)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketMetadataTableConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketMetadataTableConfiguration.html) (V1-API-Betrieb)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketMetricsConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketMetricsConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketOwnershipControls.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketOwnershipControls.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketPolicy.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeletePublicAccessBlock.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeletePublicAccessBlock.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketReplication.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketReplication.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketTagging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketTagging.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketAccelerateConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketAccelerateConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketAcl.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketAcl.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketAnalyticsConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketAnalyticsConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketCors.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketCors.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketEncryption.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketEncryption.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketIntelligentTieringConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketIntelligentTieringConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketInventoryConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketInventoryConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketLifecycle.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketLifecycle.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketLocation.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketLocation.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketLogging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketLogging.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketMetadataConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketMetadataConfiguration.html) (V2-API-Betrieb)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketMetadataTableConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketMetadataTableConfiguration.html) (V1-API-Betrieb)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketMetricsConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketMetricsConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketNotification.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketNotification.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectLockConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectLockConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketOwnershipControls.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketOwnershipControls.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketPolicy.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketPolicyStatus.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketPolicyStatus.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetPublicAccessBlock.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetPublicAccessBlock.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketReplication.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketReplication.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketRequestPayment.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketRequestPayment.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketTagging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketTagging.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketVersioning.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketVersioning.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketWebsite.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketWebsite.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadBucket.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadBucket.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListBuckets.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListBuckets.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketAccelerateConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketAccelerateConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketAcl.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketAcl.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketAnalyticsConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketAnalyticsConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketCors.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketCors.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketEncryption.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketEncryption.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketIntelligentTieringConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketIntelligentTieringConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketInventoryConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketInventoryConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLifecycle.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLifecycle.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLogging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLogging.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketMetricsConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketMetricsConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketNotification.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketNotification.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLockConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLockConfiguration.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketOwnershipControls.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketOwnershipControls.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketPolicy.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutPublicAccessBlock.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutPublicAccessBlock.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketReplication.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketReplication.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketRequestPayment.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketRequestPayment.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketTagging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketTagging.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketVersioning.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketVersioning.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketWebsite.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketWebsite.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_UpdateBucketMetadataJournalTableConfiguratione.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UpdateBucketMetadataJournalTableConfiguratione.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_UpdateBucketMetadataInventoryTableConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UpdateBucketMetadataInventoryTableConfiguration.html)

Zusätzlich zu diesen API-Operationen können Sie auch die Objektebenenaktion [OPTIONS-Objekt](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTOPTIONSobject.html) verwenden. Diese Aktion wird bei der CloudTrail Protokollierung wie eine Aktion auf Bucket-Ebene behandelt, da die Aktion die CORS-Konfiguration eines Buckets überprüft.

**Anmerkung**  
Die HeadBucket API wird als Amazon S3 S3-Datenereignis in unterstützt CloudTrail. 

## Amazon S3 Express One Zone-Aktionen auf Bucket-Ebene (regionaler API-Endpunkt), die durch Protokollierung verfolgt werden CloudTrail
<a name="cloudtrail-bucket-level-tracking-s3express"></a>

Standardmäßig werden Aktionen auf Bucket-Ebene für Verzeichnis-Buckets als Verwaltungsereignisse CloudTrail protokolliert. Die `eventsource` für CloudTrail Verwaltungsereignisse für S3 Express One Zone ist. `s3express.amazonaws.com`

Die folgenden API-Operationen für regionale Endgeräte werden protokolliert CloudTrail.
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateBucket.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateBucket.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucket.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucket.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketPolicy.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketPolicy.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketPolicy.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListDirectoryBuckets.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListDirectoryBuckets.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketEncryption.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketEncryption.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketEncryption.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketEncryption.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketEncryption.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketEncryption.html)

Weitere Informationen finden Sie unter [Protokollierung mit AWS CloudTrail für S3 Express One Zone](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-one-zone-logging.html)

## Amazon-S3-Aktionen auf Objektebene in kontoübergreifenden Szenarios
<a name="cloudtrail-object-level-crossaccount"></a>

Im Folgenden finden Sie spezielle Anwendungsfälle, die API-Aufrufe auf Objektebene in kontenübergreifenden Szenarien und die Art und Weise, wie CloudTrail Protokolle gemeldet werden, betreffen. CloudTrail übermittelt Protokolle an den Anforderer (das Konto, das den API-Aufruf getätigt hat), außer in einigen Fällen, in denen der Zugriff verweigert wurde, in denen Protokolleinträge geschwärzt oder weggelassen werden. Bei der Einrichtung von kontoübergreifendem Zugriff sehen Sie sich die Beispiele in diesem Abschnitt an.

**Anmerkung**  
In den Beispielen wird davon ausgegangen, dass die CloudTrail Protokolle entsprechend konfiguriert sind. 

### Beispiel 1: CloudTrail Liefert Logs an den Bucket-Besitzer
<a name="cloudtrail-crossaccount-example1"></a>

CloudTrail übermittelt Protokolle an den Bucket-Besitzer, auch wenn der Bucket-Besitzer keine Berechtigungen für denselben Objekt-API-Vorgang hat. Sehen Sie sich das folgende kontenübergreifende Szenario vor:
+ Konto A ist Eigentümer des Buckets.
+ Konto B (Anforderer) versucht, auf ein Objekt in diesem Bucket zuzugreifen.
+ Konto C besitzt das Objekt. Konto C kann dasselbe Konto wie Konto A sein oder auch nicht.

**Anmerkung**  
CloudTrail übermittelt API-Logs auf Objektebene immer an den Anforderer (Konto B). Darüber hinaus werden dieselben Protokolle CloudTrail auch dann an den Bucket-Besitzer (Konto A) übermittelt, wenn der Bucket-Besitzer das Objekt (Konto C) nicht besitzt oder keine Berechtigungen für dieselben API-Operationen an diesem Objekt besitzt.

### Beispiel 2: E-Mail-Adressen, die bei der Objekteinstellung verwendet werden, werden CloudTrail nicht häufig verwendet ACLs
<a name="cloudtrail-crossaccount-example2"></a>

Sehen Sie sich das folgende kontenübergreifende Szenario vor:
+ Konto A ist Eigentümer des Buckets.
+  Konto B (Anforderer) sendet eine Anforderung, um eine ACL-Erteilung für ein Objekt unter Verwendung einer E-Mail-Adresse einzurichten. Weitere Informationen zu finden Sie ACLs unter[Zugriffskontrolllisten (ACL) – Übersicht](acl-overview.md).

Der Anforderer erhält die Protokolle zusammen mit der E-Mail-Information. Der Bucket-Besitzer erhält jedoch — sofern er berechtigt ist, Logs zu empfangen, wie in Beispiel 1 — das CloudTrail Protokoll, das das Ereignis meldet. Der Bucket-Eigentümer erhält jedoch keine Informationen über die ACL-Konfiguration, insbesondere die E-Mail des Empfängers und die Erteilung. Die einzige Information, die das Protokoll dem Bucket-Eigentümer mitteilt, ist, dass Konto B einen ACL-API-Aufruf vorgenommen hat.

# CloudTrail Protokolldateieinträge für Amazon S3 und S3 auf Outposts
<a name="cloudtrail-logging-understanding-s3-entries"></a>

**Wichtig**  
Amazon S3 wendet jetzt serverseitige Verschlüsselung mit von Amazon S3 verwalteten Verschlüsselungsschlüssel (SSE-S3) als Basisverschlüsselung für jeden Bucket in Amazon S3 an. Ab dem 5. Januar 2023 werden alle neuen Objekt-Uploads auf Amazon S3 ohne zusätzliche Kosten und ohne Auswirkungen auf die Leistung automatisch verschlüsselt. Der automatische Verschlüsselungsstatus für die Standardverschlüsselungskonfiguration des S3-Buckets und für das Hochladen neuer Objekte ist in den CloudTrail Protokollen, im S3-Inventar, in der S3-Speicherlinse, in der Amazon S3-Konsole und als zusätzlicher Amazon S3 S3-API-Antwortheader im AWS CLI und AWS SDKs verfügbar. Weitere Informationen finden Sie unter [Häufig gestellte Fragen zur Standardverschlüsselung](https://docs.aws.amazon.com/AmazonS3/latest/userguide/default-encryption-faq.html).

Ein Ereignis stellt eine einzelne Anfrage aus einer beliebigen Quelle dar und umfasst Informationen über den angeforderten API-Vorgang, Datum und Uhrzeit des Vorgangs, Anforderungsparameter usw. CloudTrail Protokolldateien sind kein geordneter Stack-Trace der öffentlichen API-Aufrufe, sodass Ereignisse nicht in einer bestimmten Reihenfolge angezeigt werden.

**Anmerkung**  
Beispiele für CloudTrail Protokolldateien für Amazon S3 Express One Zone finden Sie unter [Beispiele für CloudTrail Protokolldateien für S3 Express One Zone](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-log-files.html).

Weitere Informationen finden Sie in den folgenden Beispielen.

**Topics**
+ [Beispiel: CloudTrail Protokolldateieintrag für Amazon S3](#example-ct-log-s3)

## Beispiel: CloudTrail Protokolldateieintrag für Amazon S3
<a name="example-ct-log-s3"></a>

Das folgende Beispiel zeigt einen CloudTrail Protokolleintrag, der den [GETService [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTacl.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTacl.html)](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTServiceGET.html), und die [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETversioningStatus.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETversioningStatus.html)Aktionen demonstriert.

```
{
    "Records": [
    {
        "eventVersion": "1.03",
        "userIdentity": {
            "type": "IAMUser",
            "principalId": "111122223333",
            "arn": "arn:aws:iam::111122223333:user/myUserName",
            "accountId": "111122223333",
            "accessKeyId": "AKIAIOSFODNN7EXAMPLE",
            "userName": "myUserName"
        },
        "eventTime": "2019-02-01T03:18:19Z",
        "eventSource": "s3.amazonaws.com",
        "eventName": "ListBuckets",
        "awsRegion": "us-west-2",
        "sourceIPAddress": "127.0.0.1",
        "userAgent": "[]",
        "requestParameters": {
            "host": [
                "s3.us-west-2.amazonaws.com"
            ]
        },
        "responseElements": null,
        "additionalEventData": {
            "SignatureVersion": "SigV2",
            "AuthenticationMethod": "QueryString",
            "aclRequired": "Yes"
    },
        "requestID": "47B8E8D397DCE7A6",
        "eventID": "cdc4b7ed-e171-4cef-975a-ad829d4123e8",
        "eventType": "AwsApiCall",
        "recipientAccountId": "444455556666",
        "tlsDetails": {
            "tlsVersion": "TLSv1.2",
            "cipherSuite": "ECDHE-RSA-AES128-GCM-SHA256",
            "clientProvidedHostHeader": "s3.amazonaws.com"
    }      
    },
    {
       "eventVersion": "1.03",
       "userIdentity": {
            "type": "IAMUser",
            "principalId": "111122223333",
            "arn": "arn:aws:iam::111122223333:user/myUserName",
            "accountId": "111122223333",
            "accessKeyId": "AKIAIOSFODNN7EXAMPLE",
            "userName": "myUserName"
        },
      "eventTime": "2019-02-01T03:22:33Z",
      "eventSource": "s3.amazonaws.com",
      "eventName": "PutBucketAcl",
      "awsRegion": "us-west-2",
      "sourceIPAddress": "",
      "userAgent": "[]",
      "requestParameters": {
          "bucketName": "",
          "AccessControlPolicy": {
              "AccessControlList": {
                  "Grant": {
                      "Grantee": {
                          "xsi:type": "CanonicalUser",
                          "xmlns:xsi": "http://www.w3.org/2001/XMLSchema-instance",
                          "ID": "d25639fbe9c19cd30a4c0f43fbf00e2d3f96400a9aa8dabfbbebe1906Example"
                       },
                      "Permission": "FULL_CONTROL"
                   }
              },
              "xmlns": "http://s3.amazonaws.com/doc/2006-03-01/",
              "Owner": {
                  "ID": "d25639fbe9c19cd30a4c0f43fbf00e2d3f96400a9aa8dabfbbebe1906Example"
              }
          },
          "host": [
              "s3.us-west-2.amazonaws.com"
          ],
          "acl": [
              ""
          ]
      },
      "responseElements": null,
      "additionalEventData": {
          "SignatureVersion": "SigV4",
          "CipherSuite": "ECDHE-RSA-AES128-SHA",
          "AuthenticationMethod": "AuthHeader"
      },
      "requestID": "BD8798EACDD16751",
      "eventID": "607b9532-1423-41c7-b048-ec2641693c47",
      "eventType": "AwsApiCall",
      "recipientAccountId": "111122223333",
      "tlsDetails": {
            "tlsVersion": "TLSv1.2",
            "cipherSuite": "ECDHE-RSA-AES128-GCM-SHA256",
            "clientProvidedHostHeader": "s3.amazonaws.com"
    }              
    },
    {
      "eventVersion": "1.03",
      "userIdentity": {
          "type": "IAMUser",
          "principalId": "111122223333",
          "arn": "arn:aws:iam::111122223333:user/myUserName",
          "accountId": "111122223333",
          "accessKeyId": "AKIAIOSFODNN7EXAMPLE",
          "userName": "myUserName"
        },
      "eventTime": "2019-02-01T03:26:37Z",
      "eventSource": "s3.amazonaws.com",
      "eventName": "GetBucketVersioning",
      "awsRegion": "us-west-2",
      "sourceIPAddress": "",
      "userAgent": "[]",
      "requestParameters": {
          "host": [
              "s3.us-west-2.amazonaws.com"
          ],
          "bucketName": "amzn-s3-demo-bucket1",
          "versioning": [
              ""
          ]
      },
      "responseElements": null,
      "additionalEventData": {
          "SignatureVersion": "SigV4",
          "CipherSuite": "ECDHE-RSA-AES128-SHA",
          "AuthenticationMethod": "AuthHeader"
    },
      "requestID": "07D681279BD94AED",
      "eventID": "f2b287f3-0df1-4961-a2f4-c4bdfed47657",
      "eventType": "AwsApiCall",
      "recipientAccountId": "111122223333",
      "tlsDetails": {
            "tlsVersion": "TLSv1.2",
            "cipherSuite": "ECDHE-RSA-AES128-GCM-SHA256",
            "clientProvidedHostHeader": "s3.amazonaws.com"
    }                 
    }
  ]
}
```

# Aktivieren der CloudTrail Ereignisprotokollierung für S3-Buckets und -Objekte
<a name="enable-cloudtrail-logging-for-s3"></a>

Sie können CloudTrail Datenereignisse verwenden, um Informationen über Anfragen auf Bucket- und Objektebene in Amazon S3 abzurufen. Um CloudTrail Datenereignisse für alle Ihre Buckets oder für eine Liste bestimmter Buckets zu aktivieren, müssen Sie manuell [einen Trail in erstellen](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-create-a-trail-using-the-console-first-time.html). CloudTrail 

**Anmerkung**  
In der Standardeinstellung für CloudTrail werden nur Verwaltungsereignisse gesucht. Prüfen Sie, ob Datenereignisse für das Konto aktiviert wurden.
 Ein S3-Bucket mit hoher Workload kann in kurzer Zeit Tausende Protokolle generieren. Denken Sie daran, wie lange Sie CloudTrail Datenereignisse für einen stark frequentierten Bereich aktivieren möchten. 

 CloudTrail speichert Amazon S3 S3-Datenereignisprotokolle in einem S3-Bucket Ihrer Wahl. Erwägen Sie die Verwendung eines Buckets in einem separaten Bucket AWS-Konto , um Ereignisse aus mehreren Buckets, die Sie möglicherweise besitzen, besser an einem zentralen Ort zu organisieren, um Abfragen und Analysen zu vereinfachen. AWS Organizations hilft Ihnen dabei AWS-Konto , einen zu erstellen, der mit dem Konto verknüpft ist, dem der Bucket gehört, den Sie überwachen. Weitere Informationen finden Sie unter [Was ist AWS Organizations?](https://docs.aws.amazon.com/organizations/latest/userguide/orgs_introduction.html) im *AWS Organizations Benutzerhandbuch*.

Wenn Sie Datenereignisse für einen Trail in protokollieren, können Sie wählen CloudTrail, ob Sie erweiterte oder einfache Event-Selektoren verwenden möchten, um Datenereignisse für Objekte zu protokollieren, die in Allzweck-Buckets gespeichert sind. Zum Protokollieren von Datenereignissen für Objekte, die in Verzeichnis-Buckets gespeichert sind, müssen Sie erweiterte Ereignisauswahlen verwenden. Weitere Informationen finden Sie unter [Protokollierung mit AWS CloudTrail für S3 Express One Zone](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-express-one-zone-logging.html).

Wenn Sie in der CloudTrail Konsole mithilfe erweiterter Event-Selektoren einen Trail erstellen, können Sie im Bereich Datenereignisse die Option Alle Ereignisse protokollieren für die **Protokollauswahlvorlage auswählen, um alle Ereignisse** **auf Objektebene** zu protokollieren. Wenn Sie in der CloudTrail Konsole mithilfe einfacher Ereignisauswahlen einen Trail erstellen, können Sie im Bereich Datenereignisse das Kontrollkästchen **Alle S3-Buckets in Ihrem Konto auswählen aktivieren, um alle** Ereignisse auf Objektebene zu protokollieren. 

**Anmerkung**  
Eine bewährte Methode besteht darin, eine Lebenszykluskonfiguration für Ihren Datenereignis-Bucket in AWS CloudTrail zu erstellen. Konfigurieren Sie die Lebenszykluskonfiguration zum regelmäßigen Entfernen von Protokolldateien nach dem Zeitraum, der Ihres Erachtens für die Überprüfung erforderlich ist. Dadurch wird die Menge der Daten reduziert, die Athena in einer Abfrage analysiert. Weitere Informationen finden Sie unter [Einrichten einer S3-Lebenszykluskonfiguration für einen Bucket](how-to-set-lifecycle-configuration-intro.md).
Weitere Informationen zum Format der Protokolle finden Sie unter [Protokollieren Amazon S3 S3-API-Aufrufen mit AWS CloudTrail](cloudtrail-logging.md).
Beispiele für das Abfragen von CloudTrail Protokollen finden Sie im *AWS Big-Data-Blogbeitrag* [Analyze Security, Compliance, and Operational Activity Using AWS CloudTrail and Amazon Athena](https://aws.amazon.com/blogs/big-data/aws-cloudtrail-and-amazon-athena-dive-deep-to-analyze-security-compliance-and-operational-activity/). 

## Aktivieren der Protokollierung für Objekte in einem Bucket mit der Konsole
<a name="enable-cloudtrail-events"></a>

Sie können die AWS CloudTrail Konsole verwenden, um einen CloudTrail Trail zum Protokollieren von Datenereignissen für Objekte in einem S3-Bucket zu konfigurieren. CloudTrail unterstützt die Protokollierung von Amazon S3 S3-API-Vorgängen auf Objektebene wie `GetObject``DeleteObject`, und. `PutObject` Diese Ereignisse werden als *Datenereignisse* bezeichnet. 

Standardmäßig protokollieren CloudTrail Trails keine Datenereignisse, aber Sie können Trails so konfigurieren, dass Datenereignisse für von Ihnen angegebene S3-Buckets oder Datenereignisse für alle Amazon S3 S3-Buckets in Ihrem protokolliert werden. AWS-Konto Weitere Informationen finden Sie unter [Protokollieren Amazon S3 S3-API-Aufrufen mit AWS CloudTrail](cloudtrail-logging.md). 

CloudTrail fügt keine Datenereignisse in den CloudTrail Ereignisverlauf ein. Außerdem werden nicht alle Aktionen auf Bucket-Ebene in den CloudTrail Ereignisverlauf eingetragen. Weitere Informationen zu den Amazon S3 S3-API-Aktionen auf Bucket-Ebene, die durch CloudTrail Protokollierung verfolgt werden, finden Sie unter. [Amazon S3 S3-Aktionen auf Bucket-Ebene, die durch Protokollierung verfolgt werden CloudTrail](cloudtrail-logging-s3-info.md#cloudtrail-bucket-level-tracking) Weitere Informationen zum Abfragen von CloudTrail Protokollen finden Sie im AWS Knowledge Center-Artikel über die [Verwendung von Amazon CloudWatch Logs-Filtermustern und Amazon Athena zum Abfragen von CloudTrail Protokollen](https://aws.amazon.com/premiumsupport/knowledge-center/find-cloudtrail-object-level-events/).

**Anmerkung**  
Wenn Sie Datenaktivitäten mit protokollieren AWS CloudTrail, umfasst der Ereignisdatensatz für ein Amazon S3 `DeleteObjects` S3-Datenereignis sowohl das `DeleteObjects` Ereignis als auch ein `DeleteObject` Ereignis für jedes Objekt, das im Rahmen dieses Vorgangs gelöscht wurde. Sie können die zusätzliche Sichtbarkeit gelöschter Objekte aus dem Ereignisdatensatz ausschließen. Weitere Informationen finden Sie unter [AWS CLI Protokollieren von Datenereignissen für Trails](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/filtering-data-events.html#filtering-data-events-deleteobjects) im *AWS CloudTrail -Benutzerhandbuch.*

Informationen zum Aktivieren der Protokollierung von CloudTrail Datenereignissen für Objekte in einem S3-Allzweck-Bucket oder einem S3-Verzeichnis-Bucket finden Sie unter [Erstellen eines Trails mit der CloudTrail Konsole](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-create-a-trail-using-the-console-first-time) im *AWS CloudTrail Benutzerhandbuch*.

Weitere Informationen zum Protokollieren von Objekten in einem S3-Verzeichnis-Bucket finden Sie unter [Protokollierung mit AWS CloudTrail für Verzeichnis-Buckets](s3-express-one-zone-logging.md).

Informationen zur Verwendung der CloudTrail Konsole zur Konfiguration eines Trails zum Protokollieren von S3-Datenereignissen finden Sie unter [Protokollieren von Datenereignissen](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/logging-data-events-with-cloudtrail.html) im *AWS CloudTrail Benutzerhandbuch*. 

Informationen zum Deaktivieren der Protokollierung von CloudTrail Datenereignissen für Objekte in einem S3-Bucket finden Sie im *AWS CloudTrail Benutzerhandbuch* unter [Löschen eines Datenpfads mit der CloudTrail Konsole](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-delete-trails-console.html). 

**Wichtig**  
Für Datenereignisse werden zusätzliche Gebühren fällig. Weitere Informationen finden Sie unter [AWS CloudTrail – Preise](https://aws.amazon.com/cloudtrail/pricing/). 

Weitere Informationen zur CloudTrail Protokollierung mit S3-Buckets finden Sie in den folgenden Themen:
+ [Erstellen eines Allzweck-Buckets](create-bucket-overview.md)
+ [Anzeigen der Eigenschaften für einen S3-Allzweck-Bucket](view-bucket-properties.md)
+ [Protokollieren Amazon S3 S3-API-Aufrufen mit AWS CloudTrail](cloudtrail-logging.md)
+ [Arbeiten mit CloudTrail Protokolldateien](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-working-with-log-files.html) im *AWS CloudTrail Benutzerhandbuch*

# Identifizieren von Amazon S3 S3-Anfragen mithilfe von CloudTrail
<a name="cloudtrail-request-identification"></a>

In Amazon S3 können Sie Anfragen anhand eines AWS CloudTrail Ereignisprotokolls identifizieren. AWS CloudTrail ist die bevorzugte Methode zur Identifizierung von Amazon S3 S3-Anfragen. Wenn Sie jedoch Amazon S3 S3-Serverzugriffsprotokolle verwenden, finden Sie weitere Informationen unter[Verwenden von Amazon-S3-Serverzugriffsprotokollen zur Identifizierung von Anforderungen](using-s3-access-logs-to-identify-requests.md).

**Topics**
+ [Identifizieren von Anfragen an Amazon S3 in einem CloudTrail Protokoll](#identify-S3-requests-using-in-CTlog)
+ [Identifizieren von Amazon S3 Signature Version 2-Anfragen mithilfe von CloudTrail](#cloudtrail-identification-sigv2-requests)
+ [Identifizieren des Zugriffs auf S3-Objekte mithilfe von CloudTrail](#cloudtrail-identification-object-access)

## Identifizieren von Anfragen an Amazon S3 in einem CloudTrail Protokoll
<a name="identify-S3-requests-using-in-CTlog"></a>

Nachdem Sie die Bereitstellung von Ereignissen CloudTrail an einen Bucket eingerichtet haben, sollten Sie auf der Amazon S3 S3-Konsole sehen, dass Objekte an Ihren Ziel-Bucket gesendet werden. Diese sind folgendermaßen formatiert: 

`s3://amzn-s3-demo-bucket1/AWSLogs/111122223333/CloudTrail/Region/yyyy/mm/dd` 

Von protokollierte Ereignisse CloudTrail werden als komprimierte gzipped JSON-Objekte in Ihrem S3-Bucket gespeichert. Um Anfragen effizient zu finden, sollten Sie einen Dienst wie Amazon Athena verwenden, um die CloudTrail Protokolle zu indizieren und abzufragen. 

Weitere Informationen zu CloudTrail und Athena finden Sie unter [Erstellen der Tabelle für AWS CloudTrail Protokolle in Athena mithilfe der Partitionsprojektion](https://docs.aws.amazon.com/athena/latest/ug/cloudtrail-logs.html#create-cloudtrail-table-partition-projection) im *Amazon Athena Athena-Benutzerhandbuch*.

## Identifizieren von Amazon S3 Signature Version 2-Anfragen mithilfe von CloudTrail
<a name="cloudtrail-identification-sigv2-requests"></a>

Sie können ein CloudTrail Ereignisprotokoll verwenden, um zu ermitteln, welche API-Signaturversion zum Signieren einer Anfrage in Amazon S3 verwendet wurde. Diese Funktion ist wichtig, weil die Unterstützung für Signature Version 2 deaktiviert wird (veraltet). Danach akzeptiert Amazon S3 keine Anforderungen mit Signature Version 2 mehr, alle Anforderungen müssen also mit *Signature Version 4* signiert werden. 

Wir empfehlen *dringend*, dass Sie CloudTrail es verwenden, um festzustellen, ob einer Ihrer Workflows Signature Version 2-Signaturen verwendet. Korrigieren Sie diese Workflows, indem Sie die betreffenden Bibliotheken und den Code so aktualisieren, dass mittels Signature Version 4 signiert wird. Dadurch können Beeinträchtigungen der geschäftlichen Prozesse werden. 

Weitere Informationen finden Sie unter [Ankündigung: AWS CloudTrail Für Amazon S3 werden neue Felder für erweiterte Sicherheitsüberprüfungen hinzugefügt](https://forums.aws.amazon.com/ann.jspa?annID=6551) AWS re:Post.

**Anmerkung**  
CloudTrail Ereignisse für Amazon S3 enthalten die Signaturversion in den Anforderungsdetails unter dem Schlüsselnamen '`additionalEventData`. Um die Signaturversion von Anfragen für Objekte in Amazon S3 wie`GET`, `PUT` und `DELETE` Anfragen zu finden, müssen Sie CloudTrail Datenereignisse aktivieren. (Diese Option ist standardmäßig deaktiviert.)

AWS CloudTrail ist die bevorzugte Methode zur Identifizierung von Signature Version 2-Anfragen. Wenn Sie Zugriffsprotokolle von Amazon S3 Server verwenden, lesen Sie [Identifizieren von Signature-Version-2-Anforderungen mittels Amazon-S3-Zugriffsprotokollen](using-s3-access-logs-to-identify-requests.md#using-s3-access-logs-to-identify-sigv2-requests).

**Topics**
+ [Athena-Abfragebeispiele zum Identifizieren von Anforderungen zur Amazon S3 Signature Version 2](#ct-examples-identify-sigv2-requests)
+ [Partitionieren von Signature Version 2-Daten](#partitioning-sigv2-data)

### Athena-Abfragebeispiele zum Identifizieren von Anforderungen zur Amazon S3 Signature Version 2
<a name="ct-examples-identify-sigv2-requests"></a>

**Example – Wählen Sie alle Signature-Version-2-Ereignisse aus und drucken Sie nur `EventTime`, `S3_Action`, `Request_Parameters`, `Region`, `SourceIP` und `UserAgent`**  
Ersetzen Sie in der folgenden Athena-Abfrage *`s3_cloudtrail_events_db.cloudtrail_table`* durch Ihre Athena-Details und erhöhen oder entfernen Sie das Limit nach Bedarf.   

```
SELECT EventTime, EventName as S3_Action, requestParameters as Request_Parameters, awsregion as AWS_Region, sourceipaddress as Source_IP, useragent as User_Agent
FROM s3_cloudtrail_events_db.cloudtrail_table
WHERE eventsource='s3.amazonaws.com'
AND json_extract_scalar(additionalEventData, '$.SignatureVersion')='SigV2'
LIMIT 10;
```

**Example – Alle Anforderer auswählen, die Signature Version 2-Datenverkehr senden**  
   

```
SELECT useridentity.arn, Count(requestid) as RequestCount
FROM s3_cloudtrail_events_db.cloudtrail_table
WHERE eventsource='s3.amazonaws.com'
    and json_extract_scalar(additionalEventData, '$.SignatureVersion')='SigV2'
Group by useridentity.arn
```

### Partitionieren von Signature Version 2-Daten
<a name="partitioning-sigv2-data"></a>

Wenn Sie über eine große Datenmenge verfügen, die abgefragt werden muss, können Sie Kosten und Laufzeit für Athena reduzieren, indem Sie eine partitionierte Tabelle erstellen. 

Erstellen Sie zu diesem Zweck folgendermaßen eine neue Tabelle mit Partitionen.

```
   CREATE EXTERNAL TABLE s3_cloudtrail_events_db.cloudtrail_table_partitioned(
        eventversion STRING,
        userIdentity STRUCT<
            type:STRING,
            principalid:STRING,
            arn:STRING,
            accountid:STRING,
            invokedby:STRING,
            accesskeyid:STRING,
            userName:STRING,
         sessioncontext:STRUCT<
                    attributes:STRUCT< 
                    mfaauthenticated:STRING,
                    creationdate:STRING>,
                    sessionIssuer:STRUCT<
                    type:STRING,
                    principalId:STRING,
                    arn:STRING,
                    accountId:STRING,
                    userName:STRING>
                >
             >,
        eventTime STRING,
        eventSource STRING,
        eventName STRING,
        awsRegion STRING,
        sourceIpAddress STRING,
        userAgent STRING,
        errorCode STRING,
        errorMessage STRING,
        requestParameters STRING,
        responseElements STRING,
        additionalEventData STRING,
        requestId STRING,
        eventId STRING,
        resources ARRAY<STRUCT<ARN:STRING,accountId: STRING,type:STRING>>, 
        eventType STRING,
        apiVersion STRING,
        readOnly STRING,
        recipientAccountId STRING,
        serviceEventDetails STRING,
        sharedEventID STRING,
        vpcEndpointId STRING
    )   
    PARTITIONED BY (region string, year string, month string, day string)
    ROW FORMAT SERDE 'org.apache.hadoop.hive.ql.io.orc.OrcSerde' 
    STORED AS INPUTFORMAT 'org.apache.hadoop.hive.ql.io.SymlinkTextInputFormat'
    OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
    LOCATION 's3://amzn-s3-demo-bucket1/AWSLogs/111122223333/';
```

Erstellen Sie dann die einzelnen Partitionen. Sie können keine Resultate aus noch nicht erstellten Daten ermitteln. 

```
ALTER TABLE s3_cloudtrail_events_db.cloudtrail_table_partitioned ADD
    PARTITION (region= 'us-east-1', year= '2019', month= '02', day= '19') LOCATION 's3://amzn-s3-demo-bucket1/AWSLogs/111122223333/CloudTrail/us-east-1/2019/02/19/'
    PARTITION (region= 'us-west-1', year= '2019', month= '02', day= '19') LOCATION 's3://amzn-s3-demo-bucket1/AWSLogs/111122223333/CloudTrail/us-west-1/2019/02/19/'
    PARTITION (region= 'us-west-2', year= '2019', month= '02', day= '19') LOCATION 's3://amzn-s3-demo-bucket1/AWSLogs/111122223333/CloudTrail/us-west-2/2019/02/19/'
    PARTITION (region= 'ap-southeast-1', year= '2019', month= '02', day= '19') LOCATION 's3://amzn-s3-demo-bucket1/AWSLogs/111122223333/CloudTrail/ap-southeast-1/2019/02/19/'
    PARTITION (region= 'ap-southeast-2', year= '2019', month= '02', day= '19') LOCATION 's3://amzn-s3-demo-bucket1/AWSLogs/111122223333/CloudTrail/ap-southeast-2/2019/02/19/'
    PARTITION (region= 'ap-northeast-1', year= '2019', month= '02', day= '19') LOCATION 's3://amzn-s3-demo-bucket1/AWSLogs/111122223333/CloudTrail/ap-northeast-1/2019/02/19/'
    PARTITION (region= 'eu-west-1', year= '2019', month= '02', day= '19') LOCATION 's3://amzn-s3-demo-bucket1/AWSLogs/111122223333/CloudTrail/eu-west-1/2019/02/19/'
    PARTITION (region= 'sa-east-1', year= '2019', month= '02', day= '19') LOCATION 's3://amzn-s3-demo-bucket1/AWSLogs/111122223333/CloudTrail/sa-east-1/2019/02/19/';
```

Anschließend können Sie die Anforderung basierend auf diesen Partitionen erstellen und müssen nicht mehr den gesamten Bucket laden. 

```
SELECT useridentity.arn,
Count(requestid) AS RequestCount
FROM s3_cloudtrail_events_db.cloudtrail_table_partitioned
WHERE eventsource='s3.amazonaws.com'
AND json_extract_scalar(additionalEventData, '$.SignatureVersion')='SigV2'
AND region='us-east-1'
AND year='2019'
AND month='02'
AND day='19'
Group by useridentity.arn
```

## Identifizieren des Zugriffs auf S3-Objekte mithilfe von CloudTrail
<a name="cloudtrail-identification-object-access"></a>

Sie können Ihre AWS CloudTrail Ereignisprotokolle verwenden, um Amazon S3 S3-Objektzugriffsanforderungen für Datenereignisse wie `GetObject` `DeleteObject``PutObject`, und zu identifizieren und zusätzliche Informationen zu diesen Anfragen zu erhalten.

**Anmerkung**  
Wenn Sie Datenaktivitäten mit protokollieren AWS CloudTrail, umfasst der Ereignisdatensatz für ein Amazon S3 `DeleteObjects` S3-Datenereignis sowohl das `DeleteObjects` Ereignis als auch ein `DeleteObject` Ereignis für jedes Objekt, das im Rahmen dieses Vorgangs gelöscht wurde. Sie können die zusätzliche Sichtbarkeit gelöschter Objekte aus dem Ereignisdatensatz ausschließen. Weitere Informationen finden Sie unter [AWS CLI Protokollieren von Datenereignissen für Trails](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/filtering-data-events.html#filtering-data-events-deleteobjects) im *AWS CloudTrail -Benutzerhandbuch.*

Das folgende Beispiel zeigt, wie alle `PUT` Objektanforderungen für Amazon S3 aus einem AWS CloudTrail Ereignisprotokoll abgerufen werden. 

**Topics**
+ [Athena-Abfragebeispiele zur Identifizierung von Amazon-S3-Objektzugriffsanfragen](#ct-examples-identify-object-access-requests)

### Athena-Abfragebeispiele zur Identifizierung von Amazon-S3-Objektzugriffsanfragen
<a name="ct-examples-identify-object-access-requests"></a>

Ersetzen Sie in den folgenden Athena-Beispielabfragen *`s3_cloudtrail_events_db.cloudtrail_table`* durch Ihre Athena-Details und ändern Sie den Datumsbereich nach Bedarf. 

**Example – Wählen Sie alle Ereignisse aus, für die `PUT`-Objektzugriffsanforderungen vorliegen, und drucken Sie nur `EventTime`, `EventSource`, `SourceIP`, `UserAgent`, `BucketName`, `object` und `UserARN`**  

```
SELECT
  eventTime, 
  eventName, 
  eventSource, 
  sourceIpAddress, 
  userAgent, 
  json_extract_scalar(requestParameters, '$.bucketName') as bucketName, 
  json_extract_scalar(requestParameters, '$.key') as object,
  userIdentity.arn as userArn
FROM
  s3_cloudtrail_events_db.cloudtrail_table
WHERE
  eventName = 'PutObject'
  AND eventTime BETWEEN '2019-07-05T00:00:00Z' and '2019-07-06T00:00:00Z'
```

**Example – Wählen Sie alle Ereignisse aus, für die `GET`-Objektzugriffsanforderungen vorliegen, und drucken Sie nur `EventTime`, `EventSource`, `SourceIP`, `UserAgent`, `BucketName`, `object` und `UserARN`**  

```
SELECT
  eventTime, 
  eventName, 
  eventSource, 
  sourceIpAddress, 
  userAgent, 
  json_extract_scalar(requestParameters, '$.bucketName') as bucketName, 
  json_extract_scalar(requestParameters, '$.key') as object,
  userIdentity.arn as userArn
FROM
  s3_cloudtrail_events_db.cloudtrail_table
WHERE
  eventName = 'GetObject'
  AND eventTime BETWEEN '2019-07-05T00:00:00Z' and '2019-07-06T00:00:00Z'
```

**Example – Wählen Sie alle anonymen Anforderungsereignisse für einen Bucket in einem bestimmten Zeitraum aus und drucken Sie nur `EventTime`, `EventName`, `EventSource`, `SourceIP`, `UserAgent`, `BucketName`, `UserARN` und `AccountID`**  

```
SELECT
  eventTime, 
  eventName, 
  eventSource, 
  sourceIpAddress, 
  userAgent, 
  json_extract_scalar(requestParameters, '$.bucketName') as bucketName, 
  userIdentity.arn as userArn,
  userIdentity.accountId
FROM
  s3_cloudtrail_events_db.cloudtrail_table
WHERE
  userIdentity.accountId = 'anonymous'
  AND eventTime BETWEEN '2019-07-05T00:00:00Z' and '2019-07-06T00:00:00Z'
```

**Example – Identifizieren Sie alle Anforderungen, für die eine ACL zur Autorisierung erforderlich war**  
 Das folgende Amazon-Athena-Abfragebeispiel zeigt, wie alle Anforderungen für Ihre S3-Buckets identifiziert werden, für die eine Zugriffssteuerungsliste (ACL) zur Autorisierung erforderlich war. Wenn für die Anforderung eine ACL zur Autorisierung erforderlich war, lautet der `aclRequired`-Wert in `additionalEventData` `Yes`. Wenn keine erforderlich ACLs waren, `aclRequired` ist sie nicht vorhanden. Sie können diese Informationen verwenden, um diese ACL-Berechtigungen zu den entsprechenden Bucket-Richtlinien zu migrieren. Nachdem Sie diese Bucket-Richtlinien erstellt haben, können Sie sie ACLs für diese Buckets deaktivieren. Weitere Informationen zur Deaktivierung ACLs finden Sie unter. [Voraussetzungen für die Deaktivierung ACLs](object-ownership-migrating-acls-prerequisites.md)  

```
SELECT
  eventTime, 
  eventName, 
  eventSource, 
  sourceIpAddress, 
  userAgent, 
  userIdentity.arn as userArn,
  json_extract_scalar(requestParameters, '$.bucketName') as bucketName,
  json_extract_scalar(requestParameters, '$.key') as object,
  json_extract_scalar(additionalEventData, '$.aclRequired') as aclRequired
FROM 
  s3_cloudtrail_events_db.cloudtrail_table
WHERE
  json_extract_scalar(additionalEventData, '$.aclRequired') = 'Yes'
  AND eventTime BETWEEN '2022-05-10T00:00:00Z' and '2022-08-10T00:00:00Z'
```

**Anmerkung**  
Diese Abfragebeispiele können auch für die Sicherheitsüberwachung nützlich sein. Sie können die Ergebnisse auf `PutObject`- oder `GetObject`-Aufrufe von unerwarteten oder nicht autorisierten IP-Adressen oder Anforderern und zum Identifizieren anonymer Anforderungen an Ihre Buckets prüfen.
 Diese Abfrage ruft nur Informationen von der Zeit ab, zu der die Protokollierung aktiviert wurde. 

Wenn Sie Amazon-S3-Server-Zugriffsprotokolle verwenden, lesen Sie [Identifizieren von Objektzugriffsanforderungen mittels Amazon-S3-Zugriffsprotokollen](using-s3-access-logs-to-identify-requests.md#using-s3-access-logs-to-identify-objects-access).

# Protokollieren von Anfragen mit Server-Zugriffsprotokollierung
<a name="ServerLogs"></a>

Die Server-Zugriffsprotokollierung bietet detaillierte Aufzeichnungen über die Anforderungen, die an einen Bucket gestellt wurden. Server-Zugriffsprotokolle sind für viele Anwendungen nützlich. Beispielsweise können Zugriffsprotokoll-Informationen bei Sicherheits- und Zugriffsprüfungen nützlich sein. Diese Informationen können Ihnen auch helfen, mehr über Ihre Kundenbasis zu erfahren und Ihre Amazon-S3-Rechnung zu verstehen.

**Anmerkung**  
Serverzugriffsprotokolle protokollieren keine Informationen zu Fehlern wegen Umleitungen in falsche Regionen, die nach dem 20. März 2019 gestartet wurden. Fehler wegen Umleitungen in falsche Regionen treten auf, wenn eine Anforderung für ein Objekt oder einen Bucket außerhalb der Region gesendet wird, in der sich der Bucket befindet. 

## Wie aktiviere ich die Protokollzustellung?
<a name="server-access-logging-overview"></a>

Um die Protokollbereitstellung zu aktivieren, führen Sie die folgenden grundlegenden Schritte aus. Details hierzu finden Sie unter [Aktivieren Sie die Amazon-S3-Server-Zugriffsprotokollierung](enable-server-access-logging.md).

1. **Geben Sie den Namen des Ziel-Buckets an** (auch als *Target-Bucket* bezeichnet). In diesem Bucket soll Amazon S3 die Zugriffsprotokolle als Objekte speichern. Quell- und Ziel-Bucket müssen sich in derselben AWS-Region befinden und demselben Konto gehören. Der Ziel-Bucket darf keine S3-Object-Lock-Standardkonfiguration für die Aufbewahrungsdauer besitzen. Für den Ziel-Bucket darf außerdem die Option „Zahlung durch den Anforderer“ nicht aktiviert sein.

   Sie können Protokolle in jeden Bucket speichern lassen, der sich in der gleichen Region wie der Quell-Bucket befindet, einschließlich des Quell-Buckets selbst. Zur einfacheren Protokollverwaltung empfehlen wir jedoch, Zugriffsprotokolle in einem anderen Bucket zu speichern. 

   Wenn Quell- und Ziel-Bucket identisch sind, werden zusätzliche Protokolle für die Protokolle erstellt, die zum Bucket geschrieben werden. Hierdurch entsteht eine Endlosprotokollschleife. Diese Vorgehensweise wird nicht empfohlen, da sie zu einer geringfügigen Erhöhung der Speicherkosten führen könnte. Weiterhin könnten die zusätzlichen Protokolle über Protokolle das Auffinden des gesuchten Protokolls erschweren. 

   Wenn Sie Zugriffsprotokolle im Quell-Bucket speichern möchten, sollten Sie ein Zielpräfix (*Zielpräfix*) für alle Protokollobjektschlüssel angeben. Wenn Sie ein Präfix angeben, beginnen alle Protokollobjektnamen mit einer gemeinsamen Zeichenfolge. So können Sie die Protokollobjekte leichter identifizieren. 

1. **(Optional) Weisen Sie allen Amazon-S3-Protokollobjektschlüsseln ein Zielpräfix zu.** Das Zielpräfix (*Zielpräfix*) macht es einfacher für Sie, die Protokollobjekte zu finden. Wenn Sie beispielsweise den Präfixwert `logs/` angeben, beginnt jedes von Amazon S3 erstellte Protokollobjekt mit dem Präfix `logs/` im Schlüssel, z. B.:

   ```
   logs/2013-11-01-21-32-16-E568B2907131C0C0
   ```

   Wenn Sie den Präfixwert `logs` angeben, sieht das Protokollobjekt wie folgt aus:

   ```
   logs2013-11-01-21-32-16-E568B2907131C0C0
   ```

   [Präfixe](https://docs.aws.amazon.com/general/latest/gr/glos-chap.html#keyprefix) sind auch nützlich, um zwischen Quell-Buckets zu unterscheiden, wenn mehrere Buckets zum selben Ziel-Bucket protokolliert werden.

   Dieses Präfix ist auch beim Löschen der Protokolle nützlich. Beispielsweise können Sie eine Lebenszyklus-Konfigurationsregel für Amazon S3 festlegen, um Objekte mit einem bestimmten Präfix zu löschen. Weitere Informationen finden Sie unter [Löschen von Amazon-S3-Protokolldateien](deleting-log-files-lifecycle.md).

1. **(Optional) Legen Sie Berechtigungen fest, **um anderen Benutzern Zugriff auf die generierten Protokolle zu gewähren.** Standardmäßig hat nur der Bucket-Eigentümer stets vollen Zugriff auf die Protokollobjekte. Wenn Ihr Ziel-Bucket die vom Bucket-Besitzer erzwungene Einstellung für S3 Object Ownership verwendet, um Zugriffskontrolllisten (ACLs) zu deaktivieren, können Sie keine Berechtigungen für Zielzuschüsse (auch als *Zielzuschüsse* bezeichnet) gewähren, die ACLs Sie können jedoch Ihre Bucket-Richtlinie für den Ziel-Bucket aktualisieren, um anderen Benutzern Zugriff zu gewähren. Weitere Informationen erhalten Sie unter [Identitäts- und Zugriffsverwaltung für Amazon S3](security-iam.md) und [Berechtigungen für Protokollbereitstellung](enable-server-access-logging.md#grant-log-delivery-permissions-general). 

1. **(Optional) Legen Sie ein Protokollobjekt-Schlüsselformat für die Protokolldateien fest.** Es gibt zwei Optionen für das Protokollobjekt-Schlüsselformat (auch als *Zielobjekt-Schlüsselformat* bezeichnet): 
   + **Non-date-based Partitionierung** — Dies ist das ursprüngliche Schlüsselformat für Log-Objekte. Wenn Sie dieses Format wählen, sieht das Protokolldatei-Schlüsselformat wie folgt aus: 

     ```
     [DestinationPrefix][YYYY]-[MM]-[DD]-[hh]-[mm]-[ss]-[UniqueString]
     ```

     Wenn Sie beispielsweise `logs/` als Präfix angeben, werden Ihre Protokollobjekte wie folgt benannt: 

     ```
     logs/2013-11-01-21-32-16-E568B2907131C0C0
     ```
   + **Partitionierung mit Datum** – Wenn Sie die Partitionierung mit Datum wählen, können Sie die Ereignis- oder Bereitstellungszeit für die Protokolldatei als die Datumsquelle wählen, die im Protokollformat verwendet wird. Dieses Format vereinfacht das Abfragen der Protokolle.

     Wenn Sie die Partitionierung mit Datum wählen, sieht das Protokolldatei-Schlüsselformat wie folgt aus: 

     ```
     [DestinationPrefix][SourceAccountId]/[SourceRegion]/[SourceBucket]/[YYYY]/[MM]/[DD]/[YYYY]-[MM]-[DD]-[hh]-[mm]-[ss]-[UniqueString]
     ```

     Wenn Sie beispielsweise `logs/` als Zielpräfix angeben, werden Ihre Protokollobjekte wie folgt benannt:

     ```
     logs/123456789012/us-west-2/amzn-s3-demo-source-bucket/2023/03/01/2023-03-01-21-32-16-E568B2907131C0C0
     ```

     Bei der Bereitstellung nach Bereitstellungszeit entspricht die Zeit in den Namen der Protokolldateien der Bereitstellungszeit für die Protokolldateien. 

     Bei der Bereitstellung nach Ereigniszeit entsprechen die Angaben für Jahr, Monat und Tag dem Tag, an dem das Ereignis eingetreten ist. Stunde, Minuten und Sekunden sind im Schlüssel auf `00` festgelegt. Die in diesen Protokolldateien bereitgestellten Protokolle beziehen sich nur auf einen bestimmten Tag. 

   

   Wenn Sie Ihre Protokolle über die AWS Command Line Interface (AWS CLI) oder Amazon S3 S3-REST-API konfigurieren AWS SDKs, verwenden Sie diese Option, `TargetObjectKeyFormat` um das Schlüsselformat für das Protokollobjekt anzugeben. Um die non-date-based Partitionierung anzugeben, verwenden Sie`SimplePrefix`. Um eine Partitionierung mit Datum anzugeben, verwenden Sie `PartitionedPrefix`. Bei Verwendung von `PartitionedPrefix` verwenden Sie `PartitionDateSource`, um `EventTime` oder `DeliveryTime` anzugeben.

   Für `SimplePrefix` sieht das Protokolldatei-Schlüsselformat wie folgt aus:

   ```
   [TargetPrefix][YYYY]-[MM]-[DD]-[hh]-[mm]-[ss]-[UniqueString]
   ```

   Für `PartitionedPrefix` mit Ereignis- oder Bereitstellungszeit sieht das Protokolldatei-Schlüsselformat wie folgt aus:

   ```
   [TargetPrefix][SourceAccountId]/[SourceRegion]/[SourceBucket]/[YYYY]/[MM]/[DD]/[YYYY]-[MM]-[DD]-[hh]-[mm]-[ss]-[UniqueString]
   ```

## Protokollobjekt-Schlüsselformat
<a name="server-log-keyname-format"></a>

Amazon S3 verwendet die folgenden Objektschlüsselformate für die Protokollobjekte, die in den Ziel-Bucket hochgeladen werden:
+ **Non-date-based Partitionierung** — Dies ist das ursprüngliche Schlüsselformat für Protokollobjekte. Wenn Sie dieses Format wählen, sieht das Protokolldatei-Schlüsselformat wie folgt aus: 

  ```
  [DestinationPrefix][YYYY]-[MM]-[DD]-[hh]-[mm]-[ss]-[UniqueString]
  ```
+ **Partitionierung mit Datum** – Wenn Sie die Partitionierung mit Datum wählen, können Sie die Ereignis- oder Bereitstellungszeit für die Protokolldatei als die Datumsquelle wählen, die im Protokollformat verwendet wird. Dieses Format vereinfacht das Abfragen der Protokolle.

  Wenn Sie die Partitionierung mit Datum wählen, sieht das Protokolldatei-Schlüsselformat wie folgt aus: 

  ```
  [DestinationPrefix][SourceAccountId]/[SourceRegion]/[SourceBucket]/[YYYY]/[MM]/[DD]/[YYYY]-[MM]-[DD]-[hh]-[mm]-[ss]-[UniqueString]
  ```

Im Protokollobjektschlüssel sind `YYYY`, `MM`, `DD`, `hh`, `mm` und `ss` jeweils die Stellen für Jahr, Monat, Tag, Stunde, Minute und Sekunden. Datum und Uhrzeit entsprechen der Zeitzone UTC (Coordinated Universal Time). 

Eine Protokolldatei, die zu einem bestimmten Zeitpunkt bereitgestellt wurde, kann Datensätze enthalten, die an einem beliebigen Zeitpunkt davor geschrieben wurden. Es lässt sich nicht feststellen, ob alle Protokoll-Datensätze für ein bestimmtes Zeitintervall bereitgestellt wurden oder nicht. 

Die `UniqueString`-Komponente des Schlüssels verhindert, dass Dateien überschrieben werden. Sie hat keine Bedeutung und wird normalerweise von Protokollverarbeitungssoftware ignoriert. 

## Wie werden Protokolle ausgeliefert?
<a name="how-logs-delivered"></a>

Amazon S3 sammelt regelmäßig Zugriffsprotokoll-Datensätze, konsolidiert die Datensätze in Protokolldateien und lädt anschließend die Protokolldateien als Protokollobjekte zu Ihrem Ziel-Bucket hoch. Wenn Sie die Protokollierung für mehrere Quell-Buckets mit demselben Ziel-Bucket aktivieren, besitzt der Ziel-Bucket Zugriffsprotokolle für alle diese Quell-Buckets. Jedes Protokollobjekt gibt jedoch Zugriffsprotokoll-Datensätze für einen bestimmten Quell-Bucket aus. 

Amazon S3 verwendet ein spezielles Protokollbereitstellungskonto zum Schreiben der Server-Zugriffsprotokolle. Für diese Protokolle gelten die normalen Zugriffskontrollbeschränkungen. Wir empfehlen Ihnen, die Bucket-Richtlinie für den Ziel-Bucket zu aktualisieren, um Zugriff auf den Protokollservice-Prinzipal (`logging.s3.amazonaws.com`) zur Zugriffsprotokollbereitstellung zu gewähren. Sie können über Ihre Bucket-Zugriffssteuerungsliste (ACL) der S3-Protokollbereitstellungsgruppe auch Zugriff für die Zugriffsprotokollbereitstellung gewähren. Die Gewährung des Zugriffs für die S3-Protokollbereitstellungsgruppe über Ihre Bucket-ACL wird jedoch nicht empfohlen. 

Wenn Sie die Serverzugriffsprotokollierung über die Ziel-Bucket-Richtlinie aktivieren und Zugriff für die Zugriffsprotokollbereitstellung gewähren, müssen Sie die Richtlinie aktualisieren, um `s3:PutObject`-Zugriff für den Protokollierungsservice-Prinzipal zuzulassen. Wenn Sie die Serverzugriffsprotokollierung über die Amazon-S3-Konsole aktivieren, aktualisiert die Konsole die Ziel-Bucket-Richtlinie automatisch, um dem Protokollierungsservice-Prinzipal diese Berechtigungen zu gewähren. Weitere Informationen zum Erteilen von Berechtigungen für die Zustellung von Serverzugriffsprotokollen finden Sie unter [Berechtigungen für Protokollbereitstellung](enable-server-access-logging.md#grant-log-delivery-permissions-general). 

**Anmerkung**  
S3 unterstützt nicht die Übermittlung von CloudTrail Protokollen oder Serverzugriffsprotokollen an den Anforderer oder den Bucket-Besitzer für VPC-Endpunktanfragen, wenn die VPC-Endpunktrichtlinie sie ablehnt, oder für Anfragen, die fehlschlagen, bevor die VPC-Richtlinie ausgewertet wurde.

**Vom Bucket-Eigentümer erzwungene Einstellung für S3 Object Ownership**  
Wenn der Ziel-Bucket die erzwungene Einstellung für Object Ownership verwendet, ACLs sind sie deaktiviert und wirken sich nicht mehr auf die Berechtigungen aus. Sie müssen die Bucket-Richtlinie aktualisieren, damit der Ziel-Bucket Zugriff auf den Protokollierungsservice-Prinzipal gewähren kann. Informationen zu Object Ownership finden Sie unter [Gewähren von Zugriff auf die S3-Protokollbereitstellungsgruppe für die Protokollierung des Serverzugriffs](object-ownership-migrating-acls-prerequisites.md#object-ownership-server-access-logs).

## Best-Effort-Serverprotokollbereitstellung
<a name="LogDeliveryBestEffort"></a>

Serverzugriffsprotokoll-Datensätze werden auf Best-Effort-Grundlage bereitgestellt. Die meisten Anforderungen nach einem Bucket, der für die Protokollierung richtig konfiguriert ist, führen zu einem ausgelieferten Protokollsatz. Die meisten Protokollsätze werden innerhalb weniger Stunden nach der Aufnahme geliefert, können aber häufiger geliefert werden. 

Die Vollständigkeit und Aktualität der Serverprotokollierung wird nicht garantiert. Der Protokolldatensatz für eine bestimmte Anforderung wird möglicherweise viel später bereitgestellt, als die Anforderung tatsächlich verarbeitet wurde; es kann auch sein, *dass er gar nicht bereitgestellt wird*. Es ist möglich, dass Sie sogar ein Duplikat eines Protokolldatensatzes sehen. Der Zweck der Serverprotokolle besteht darin, Ihnen einen Überblick über die Art des Datenverkehrs zu und von Ihrem Bucket zu vermitteln. Auch wenn Protokolldatensätze selten verloren gehen oder dupliziert werden, sollten Sie wissen, dass die Serverprotokollierung nicht der vollständigen Erfassung aller Anforderungen dient.

Aufgrund der Best-Effort-Grundlage der Serverprotokollierung enthalten Ihre Nutzungsberichte möglicherweise eine oder mehrere Zugriffsanforderungen, die nicht in einem bereitgestellten Serverprotokoll angezeigt werden. Sie finden diese Nutzungsberichte unter **Kosten- und Nutzungsberichte** in der AWS Fakturierung und Kostenmanagement -Konsole.

## Statusänderungen in der Bucket-Protokollierung werden mit der Zeit wirksam
<a name="BucketLoggingStatusChanges"></a>

Änderungen am Protokollierungsstatus eines Buckets benötigen einige Zeit, bis sie sich auf die Bereitstellung von Protokolldateien auswirken. Wenn Sie die Protokollierung für einen Bucket aktivieren, werden in der folgenden Stunde möglicherweise einige Anforderungen protokolliert und andere nicht. Angenommen, Sie ändern den Ziel-Bucket für die Protokollierung von Bucket A in Bucket B. In der nächsten Stunde werden möglicherweise einige Protokolle in Bucket A bereitgestellt, während andere Protokolle im neuen Ziel-Bucket B bereitgestellt werden. In jedem Fall werden die neuen Einstellungen letztendlich ohne weiteres Eingreifen Ihrerseits wirksam. 

Weitere Informationen zu Protokollierungs- und Protokolldateien finden Sie in den folgenden Abschnitten:

**Topics**
+ [Wie aktiviere ich die Protokollzustellung?](#server-access-logging-overview)
+ [Protokollobjekt-Schlüsselformat](#server-log-keyname-format)
+ [Wie werden Protokolle ausgeliefert?](#how-logs-delivered)
+ [Best-Effort-Serverprotokollbereitstellung](#LogDeliveryBestEffort)
+ [Statusänderungen in der Bucket-Protokollierung werden mit der Zeit wirksam](#BucketLoggingStatusChanges)
+ [Aktivieren Sie die Amazon-S3-Server-Zugriffsprotokollierung](enable-server-access-logging.md)
+ [Amazon-S3-Server-Zugriffsprotokollformat](LogFormat.md)
+ [Löschen von Amazon-S3-Protokolldateien](deleting-log-files-lifecycle.md)
+ [Verwenden von Amazon-S3-Serverzugriffsprotokollen zur Identifizierung von Anforderungen](using-s3-access-logs-to-identify-requests.md)
+ [Behebung von Fehlern bei der Server-Zugriffsprotokollierung](troubleshooting-server-access-logging.md)

# Aktivieren Sie die Amazon-S3-Server-Zugriffsprotokollierung
<a name="enable-server-access-logging"></a>

Die Server-Zugriffsprotokollierung bietet detaillierte Aufzeichnungen über die Anfragen, die an einen Amazon-S3-Bucket gestellt wurden. Server-Zugriffsprotokolle sind für viele Anwendungen nützlich. Beispielsweise können Zugriffsprotokoll-Informationen bei Sicherheits- und Zugriffsprüfungen nützlich sein. Diese Informationen können Ihnen auch helfen, mehr über Ihre Kundenbasis zu erfahren und Ihre Amazon-S3-Rechnung zu verstehen.

Standardmäßig erfasst Amazon S3 keine Server-Zugriffsprotokolle. Wenn Sie die Protokollierung aktivieren, stellt Amazon S3 Zugriffsprotokolle für einen Quell-Bucket in einem von Ihnen ausgewählten Ziel-Bucket (*Ziel-Bucket*) bereit. Der Ziel-Bucket muss sich im selben AWS-Region und AWS-Konto wie der Quell-Bucket befinden. 

Ein Zugriffsprotokollsatz enthält Details über die Anforderungen, die an einen Bucket gestellt werden. Dabei kann es sich um den Anforderungstyp, die in der Anfrage angegebenen Ressourcen sowie Uhrzeit und Datum der Anfrageverarbeitung handeln. Weitere Informationen zu den Grundlagen der Protokollierung finden Sie unter [Protokollieren von Anfragen mit Server-Zugriffsprotokollierung](ServerLogs.md). 

**Wichtig**  
Für die Aktivierung der Server-Zugriffsprotokollierung auf einem Amazon-S3-Bucket fallen keine zusätzlichen Kosten an. Für die Speicherung der Protokolldateien, die das System an Sie überträgt, fallen allerdings die normalen Gebühren an. (Sie können die Protokolldateien jederzeit löschen.) Wir berechnen keine Datenübertragungskosten für die Bereitstellung von Protokolldateien. Für den Zugriff auf die Protokolldateien fallen jedoch die regulären Kosten für Datenübertragungen an.
Für Ihren Ziel-Bucket sollte keine Serverzugriffsprotokollierung aktiviert sein. Sie können Protokolle in jeden Bucket speichern lassen, der sich in der gleichen Region wie der Quell-Bucket befindet, einschließlich des Quell-Buckets selbst. Die Zustellung von Protokollen an den Quell-Bucket führt jedoch zu einer unendlichen Schleife von Protokollen und wird nicht empfohlen. Zur einfacheren Protokollverwaltung empfehlen wir, Zugriffsprotokolle in einem anderen Bucket zu speichern. Weitere Informationen finden Sie unter [Wie aktiviere ich die Protokollzustellung?](ServerLogs.md#server-access-logging-overview).
S3-Buckets, für die S3 Object Lock aktiviert ist, können nicht als Ziel-Buckets für Serverzugriffsprotokolle verwendet werden. Ihr Ziel-Bucket darf nicht für eine Standardaufbewahrungsdauer konfiguriert sein.
Für den Ziel-Bucket darf die Option „Zahlung durch den Anforderer“ nicht aktiviert sein.

Sie können die Serverzugriffsprotokollierung mithilfe der Amazon S3 S3-Konsole, der Amazon S3 S3-API, der AWS Command Line Interface (AWS CLI) oder aktivieren oder deaktivieren AWS SDKs. 

## Berechtigungen für Protokollbereitstellung
<a name="grant-log-delivery-permissions-general"></a>

Amazon S3 verwendet ein spezielles Protokollbereitstellungskonto zum Schreiben der Server-Zugriffsprotokolle. Für diese Protokolle gelten die normalen Zugriffskontrollbeschränkungen. Zur Bereitstellung von Zugriffsprotokollen müssen Sie dem Protokollierungsservice-Prinzipal (`logging.s3.amazonaws.com`) Zugriff auf den Ziel-Bucket gewähren.

Um Amazon S3 Berechtigungen für die Protokollzustellung zu gewähren, können Sie entweder eine Bucket-Richtlinie oder Bucket-Zugriffskontrolllisten (ACLs) verwenden, abhängig von den Einstellungen für den Besitz von S3-Objekten in Ihrem Ziel-Bucket. Wir empfehlen jedoch, stattdessen eine Bucket-Richtlinie zu verwenden ACLs. 

**Vom Bucket-Eigentümer erzwungene Einstellung für S3 Object Ownership**  
Wenn der Ziel-Bucket die erzwungene Einstellung für Object Ownership verwendet, ACLs sind sie deaktiviert und wirken sich nicht mehr auf die Berechtigungen aus. In diesem Fall müssen Sie die Bucket-Richtlinie für den Ziel-Bucket aktualisieren, um Zugriff auf den Protokollierungsservice-Prinzipal zu gewähren. Sie können Ihre Bucket-ACL nicht aktualisieren, um Zugriff auf die S3-Protokollbereitstellungsgruppe zu gewähren. Sie können auch keine Zielgewährungen (*Zielgewährungen*) in Ihre [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLogging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLogging.html)-Konfiguration einfügen. 

Informationen zur Migration eines vorhandenen Buckets ACLs für die Zugriffs-Log-Übermittlung zu einer Bucket-Richtlinie finden Sie unter. [Gewähren von Zugriff auf die S3-Protokollbereitstellungsgruppe für die Protokollierung des Serverzugriffs](object-ownership-migrating-acls-prerequisites.md#object-ownership-server-access-logs) Informationen zu Object Ownership finden Sie unter [Kontrolle des Besitzes von Objekten und Deaktivierung ACLs für Ihren Bucket](about-object-ownership.md). Wenn Sie neue Buckets erstellen, ACLs sind diese standardmäßig deaktiviert.

**Gewähren von Zugriff über eine Bucket-Richtlinie**  
Um über die Bucket-Richtlinie Zugriff auf den Ziel-Bucket zu gewähren, aktualisieren Sie die Bucket-Richtlinie so, dass sie die `s3:PutObject`-Berechtigung für den Protokollierungsservice-Prinzipal zulässt. Wenn Sie die Serverzugriffsprotokollierung über die Amazon-S3-Konsole aktivieren, aktualisiert die Konsole die Bucket-Richtlinie für den Ziel-Bucket automatisch, um dem Protokollierungsservice-Prinzipal diese Berechtigung zu gewähren. Wenn Sie die Serverzugriffsprotokollierung programmgesteuert aktivieren, müssen Sie die Bucket-Richtlinie für den Ziel-Bucket manuell aktualisieren, um Zugriff auf den Protokollierungsservice-Prinzipal zu gewähren. 

Ein Beispiel für eine Bucket-Richtlinie, die Zugriff auf den Protokollierungsservice-Prinzipal gewährt, finden Sie unter [Erteilen von Berechtigungen für den Prinzipal des Protokollierungsservices mithilfe einer Bucket-Richtlinie](#grant-log-delivery-permissions-bucket-policy).

**Zugriff mithilfe eines Buckets gewähren ACLs**  
Sie können auch Bucket verwenden, ACLs um Zugriff auf die Zugriffs-Log-Zustellung zu gewähren. Sie fügen der Bucket-ACL einen Erteilungseintrag hinzu, der `WRITE`-und `READ_ACP`-Berechtigungen für die S3-Protokollbereitstellungs-Gruppe gewährt. Es wird jedoch nicht empfohlen, mithilfe von Bucket ACLs Zugriff auf die S3-Protokollbereitstellungsgruppe zu gewähren. Weitere Informationen finden Sie unter [Kontrolle des Besitzes von Objekten und Deaktivierung ACLs für Ihren Bucket](about-object-ownership.md). Hinweise zur Migration eines vorhandenen Buckets ACLs für die Zugriffs-Log-Zustellung zu einer Bucket-Richtlinie finden Sie unter[Gewähren von Zugriff auf die S3-Protokollbereitstellungsgruppe für die Protokollierung des Serverzugriffs](object-ownership-migrating-acls-prerequisites.md#object-ownership-server-access-logs). Ein Beispiel für eine ACL, die Zugriff auf den Protokollierungsservice-Prinzipal gewährt, finden Sie unter [Erteilen von Berechtigungen für die Protokollbereitstellungsgruppe mithilfe einer Bucket-ACL](#grant-log-delivery-permissions-acl).

### Erteilen von Berechtigungen für den Prinzipal des Protokollierungsservices mithilfe einer Bucket-Richtlinie
<a name="grant-log-delivery-permissions-bucket-policy"></a>

Diese Bucket-Beispielrichtlinie gewährt dem Protokollierungsservice-Prinzipal (`logging.s3.amazonaws.com`) die `s3:PutObject`-Berechtigung. Wenn Sie diese Bucket-Richtlinie verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre eigenen Informationen. In der folgenden Richtlinie `amzn-s3-demo-destination-bucket` handelt es sich um den Ziel-Bucket, in den Serverzugriffsprotokolle übermittelt werden, und `amzn-s3-demo-source-bucket` um den Quell-Bucket. `EXAMPLE-LOGGING-PREFIX`ist das optionale Zielpräfix (auch als *Zielpräfix* bezeichnet), das Sie für Ihre Protokollobjekte verwenden möchten. `SOURCE-ACCOUNT-ID`ist der AWS-Konto , dem der Quell-Bucket gehört. 

**Anmerkung**  
Wenn Ihre Bucket-Richtlinie `Deny`-Anweisungen enthält, stellen Sie sicher, dass diese Anweisungen Amazon S3 nicht daran hindern, Zugriffsprotokolle bereitzustellen.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "S3ServerAccessLogsPolicy",
            "Effect": "Allow",
            "Principal": {
                "Service": "logging.s3.amazonaws.com"
            },
            "Action": [
                "s3:PutObject"
            ],
            "Resource": "arn:aws:s3:::amzn-s3-demo-destination-bucket/EXAMPLE-LOGGING-PREFIX*",
            "Condition": {
                "ArnLike": {
                    "aws:SourceArn": "arn:aws:s3:::amzn-s3-demo-source-bucket"
                },
                "StringEquals": {
                    "aws:SourceAccount": "SOURCE-ACCOUNT-ID"
                }
            }
        }
    ]
}
```

------

### Erteilen von Berechtigungen für die Protokollbereitstellungsgruppe mithilfe einer Bucket-ACL
<a name="grant-log-delivery-permissions-acl"></a>

**Anmerkung**  
Aus Sicherheitsgründen deaktiviert Amazon S3 die Zugriffskontrolllisten (ACLs) standardmäßig in allen neuen Buckets. Weitere Informationen zu ACL-Berechtigungen in der Amazon-S3-Konsole finden Sie unter [Konfiguration ACLs](managing-acls.md). 

Auch wenn wir diesen Ansatz nicht empfehlen, können Sie der Protokollbereitstellungsgruppe über eine Bucket-ACL Berechtigungen gewähren. Wenn der Ziel-Bucket jedoch die vom Bucket-Besitzer erzwungene Einstellung für Object Ownership verwendet, können Sie Bucket oder Objekt nicht festlegen. ACLs Sie können auch keine Zielgewährungen (*Zielgewährungen*) in Ihre [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLogging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLogging.html)-Konfiguration einfügen. Stattdessen müssen Sie eine Bucket-Richtlinie verwenden, um dem Prinzipal des Protokollierungsservices (`logging.s3.amazonaws.com`) Zugriff zu gewähren. Weitere Informationen finden Sie unter [Berechtigungen für Protokollbereitstellung](#grant-log-delivery-permissions-general).

In der Bucket-ACL wird die Protokollbereitstellungsgruppe durch die folgende URL dargestellt:

```
1. http://acs.amazonaws.com/groups/s3/LogDelivery
```

Um `WRITE`- und `READ_ACP`- (ACL-Read)-Berechtigungen zu gewähren, fügen Sie der Ziel-Bucket-ACL die folgenden Gewährungen hinzu:

```
 1. <Grant>
 2.     <Grantee xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"  xsi:type="Group">
 3.         <URI>http://acs.amazonaws.com/groups/s3/LogDelivery</URI> 
 4.     </Grantee>
 5.     <Permission>WRITE</Permission>
 6. </Grant>
 7. <Grant>
 8.     <Grantee xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"  xsi:type="Group">
 9.         <URI>http://acs.amazonaws.com/groups/s3/LogDelivery</URI> 
10.     </Grantee>
11.     <Permission>READ_ACP</Permission>
12. </Grant>
```

Beispiele zum Hinzufügen von programmgesteuerten ACL-Berechtigungen finden Sie unter [Konfiguration ACLs](managing-acls.md).

**Wichtig**  
Wenn Sie die Amazon S3 S3-Serverzugriffsprotokollierung mithilfe AWS CloudFormation eines Buckets aktivieren und Zugriff auf die S3-Protokollzustellungsgruppe gewähren möchten, müssen Sie Ihrer CloudFormation Vorlage auch "`AccessControl": "LogDeliveryWrite"`hinzufügen. ACLs Dies ist wichtig, da Sie diese Berechtigungen nur gewähren können, indem Sie eine ACL für den Bucket erstellen, aber Sie können keine benutzerdefinierte ACL ACLs für Buckets in CloudFormation erstellen. Sie können nur in Dosen ACLs mit CloudFormation verwenden.

## Vorgehensweise zum Aktivieren der Server-Zugriffsprotokollierung
<a name="enable-server-logging"></a>

Gehen Sie wie folgt vor, um die Serverzugriffsprotokollierung mithilfe der Amazon S3 S3-Konsole AWS SDKs, der Amazon S3-REST-API und AWS CLI zu aktivieren.

### Verwenden der S3-Konsole
<a name="server-access-logging"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus.

1. Wählen Sie in der Bucket-Liste den Namen des Buckets aus, für den Sie die Protokollierung des Serverzugriffs aktivieren möchten.

1. Wählen Sie **Properties (Eigenschaften)**.

1. Wählen Sie im Abschnitt **Server access logging (Server-Zugriffsprotokollierung)** die Option **Edit (Bearbeiten)** aus.

1. Wählen Sie unter **Serverzugriffsprotokollierung)** die Option **Aktivieren** aus. 

1. Geben Sie unter **Ziel-Bucket** einen Bucket und ein optionales Präfix an. Wenn Sie ein Präfix angeben, sollten Sie nach dem Präfix einen Schrägstrich (`/`) einfügen, damit Sie Ihre Protokolle leichter finden können. 
**Anmerkung**  
Wenn Sie ein Präfix mit einem Schrägstrich (`/`) angeben, können Sie die Protokollobjekte leichter finden. Wenn Sie beispielsweise den Präfixwert `logs/` angeben, beginnt jedes von Amazon S3 erstellte Protokollobjekt mit dem Präfix `logs/` im Schlüssel wie folgt:  

   ```
   logs/2013-11-01-21-32-16-E568B2907131C0C0
   ```
Wenn Sie den Präfixwert `logs` angeben, sieht das Protokollobjekt wie folgt aus:  

   ```
   logs2013-11-01-21-32-16-E568B2907131C0C0
   ```

1. Führen Sie unter **Protokollobjekt-Schlüsselformat** eine der folgenden Aktionen aus:
   + Um die non-date-based Partitionierung auszuwählen, wählen Sie **[DestinationPrefix] [YYYY] - [MM] - [DD] - [hh] - [mm] - [ss] - []**. UniqueString
   + Um die datumsbasierte Partitionierung auszuwählen, wählen Sie **[DestinationPrefixSourceAccountId] []/[SourceRegion]/[SourceBucket]/[YYYY]/[MM]/[DD]/[YYYY] - [MM] - [DD] - [hh] - [mm] - [ss] - [UniqueString]** und wählen Sie dann **S3 event time** oder **Log file delivery time**.

1. Wählen Sie **Änderungen speichern ** aus.

   Wenn Sie die Serverzugriffsprotokollierung für einen Bucket aktivieren, aktiviert die Konsole die Protokollierung für den Quell-Bucket und aktualisiert die Bucket-Richtlinie für den Ziel-Bucket, um dem Protokollierungsservice-Prinzipal (`logging.s3.amazonaws.com`) die `s3:PutObject`-Berechtigung zu gewähren. Weitere Informationen zu dieser Bucket-Richtlinie finden Sie unter [Erteilen von Berechtigungen für den Prinzipal des Protokollierungsservices mithilfe einer Bucket-Richtlinie](#grant-log-delivery-permissions-bucket-policy).

   Sie können die Protokolle im Ziel-Bucket anzeigen. Nachdem Sie die Server-Zugriffsprotokollierung aktiviert haben, kann es einige Stunden dauern, bis die Protokolle in den Ziel-Bucket geliefert werden. Weitere Informationen darüber, wie und wann Protokolle bereitgestellt werden, finden Sie unter [Wie werden Protokolle ausgeliefert?](ServerLogs.md#how-logs-delivered).

Weitere Informationen finden Sie unter [Anzeigen der Eigenschaften für einen S3-Allzweck-Bucket](view-bucket-properties.md).

### Verwenden der REST-API
<a name="enable-logging-rest"></a>

Zum Aktivieren der Protokollierung senden Sie eine [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTlogging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTlogging.html)-Anforderung, um die Protokollierungskonfiguration zum Quell-Bucket hinzuzufügen. Die Anforderung gibt den Ziel-Bucket (*Ziel-Bucket*) und optional das Präfix an, das für alle Protokollobjektschlüssel verwendet werden soll. 

Das folgende Beispiel gibt `amzn-s3-demo-destination-bucket` als Ziel-Bucket und *`logs/`* als Präfix an. 

```
1. <BucketLoggingStatus xmlns="http://doc.s3.amazonaws.com/2006-03-01">
2.   <LoggingEnabled>
3.     <TargetBucket>amzn-s3-demo-destination-bucket</TargetBucket>
4.     <TargetPrefix>logs/</TargetPrefix>
5.   </LoggingEnabled>
6. </BucketLoggingStatus>
```

Das folgende Beispiel gibt `amzn-s3-demo-destination-bucket` als Ziel-Bucket, *`logs/`* als Präfix und `EventTime` als Protokollobjekt-Schlüsselformat an. 

```
 1. <BucketLoggingStatus xmlns="http://doc.s3.amazonaws.com/2006-03-01">
 2.   <LoggingEnabled>
 3.     <TargetBucket>amzn-s3-demo-destination-bucket</TargetBucket>
 4.     <TargetPrefix>logs/</TargetPrefix>
 5.     <TargetObjectKeyFormat>
 6.       <PartitionedPrefix>
 7.          <PartitionDateSource>EventTime</PartitionDateSource>
 8.       </PartitionedPrefix>
 9.   </TargetObjectKeyFormat>
10.   </LoggingEnabled>
11. </BucketLoggingStatus>
```

Die Protokollobjekte werden vom S3-Protokollübermittlungskonto geschrieben und besitzen dessen Eigentümer, und der Bucket-Eigentümer erhält vollständige Berechtigungen für die Protokollobjekte. Sie können optional Zielgewährungen verwenden (*Zielgewährungen*), um anderen Benutzern Berechtigungen zu gewähren, damit diese auf die Protokolle zugreifen können. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTlogging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTlogging.html). 

**Anmerkung**  
Wenn der Ziel-Bucket die Einstellung „Von Bucket-Besitzer erzwungen“ für Object Ownership verwendet, können Sie keine Zielgewährungen verwenden, um anderen Benutzern Berechtigungen zu gewähren. Um anderen Benutzern Berechtigungen zu gewähren, können Sie die Bucket-Richtlinie für den Ziel-Bucket aktualisieren. Weitere Informationen finden Sie unter [Berechtigungen für Protokollbereitstellung](#grant-log-delivery-permissions-general). 

Zum Abruf der Protokollierungskonfiguration für einen Bucket verwenden Sie die API-Operation [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETlogging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETlogging.html). 

Um die Protokollierungskonfiguration zu löschen, senden Sie eine `PutBucketLogging`-Anforderung mit einem leeren `BucketLoggingStatus`: 

```
1. <BucketLoggingStatus xmlns="http://doc.s3.amazonaws.com/2006-03-01">
2. </BucketLoggingStatus>
```

Um die Protokollierung in einem Bucket zu aktivieren, können Sie entweder die Amazon S3 S3-API oder die AWS SDK-Wrapper-Bibliotheken verwenden.

### Mit dem AWS SDKs
<a name="enable-logging-sdk"></a>

In den folgenden Beispielen wird die Protokollierung für einen Bucket aktiviert. Sie müssen zwei Buckets erstellen, einen Quell-Bucket und einen Ziel-Bucket. In den Beispielen wird zuerst die Bucket-ACL für den Ziel-Bucket aktualisiert. Anschließend werden der Protokollbereitstellungsgruppe die notwendigen Berechtigungen für das Schreiben von Protokollen zum Ziel-Bucket gewährt, bevor die Protokollierung für den Quell-Bucket aktiviert wird. 

Diese Beispiele funktionieren nicht für Ziel-Buckets, die die Einstellung „Von Bucket-Besitzer erzwungen“ für Object Ownership verwenden.

Wenn der Ziel-Bucket (Ziel-Bucket) die vom Bucket-Besitzer erzwungene Einstellung für Objekteigentum verwendet, können Sie weder Bucket noch Objekt ACLs festlegen. Sie können auch keine Zielzuschüsse (Zielzuschüsse) in Ihre [PutBucketLogging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLogging.html)Konfiguration aufnehmen. Sie müssen eine Bucket-Richtlinie verwenden, um dem Protokollierungsserviceprinzipal (`logging.s3.amazonaws.com`) Zugriff zu gewähren. Weitere Informationen finden Sie unter [Berechtigungen für Protokollbereitstellung](#grant-log-delivery-permissions-general).

------
#### [ .NET ]

**SDK für .NET**  
 Es gibt noch mehr dazu GitHub. Hier finden Sie das vollständige Beispiel und erfahren, wie Sie das [AWS -Code-Beispiel-](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/dotnetv3/S3#code-examples) einrichten und ausführen. 

```
    using System;
    using System.IO;
    using System.Threading.Tasks;
    using Amazon.S3;
    using Amazon.S3.Model;
    using Microsoft.Extensions.Configuration;

    /// <summary>
    /// This example shows how to enable logging on an Amazon Simple Storage
    /// Service (Amazon S3) bucket. You need to have two Amazon S3 buckets for
    /// this example. The first is the bucket for which you wish to enable
    /// logging, and the second is the location where you want to store the
    /// logs.
    /// </summary>
    public class ServerAccessLogging
    {
        private static IConfiguration _configuration = null!;

        public static async Task Main()
        {
            LoadConfig();

            string bucketName = _configuration["BucketName"];
            string logBucketName = _configuration["LogBucketName"];
            string logObjectKeyPrefix = _configuration["LogObjectKeyPrefix"];
            string accountId = _configuration["AccountId"];

            // If the AWS Region defined for your default user is different
            // from the Region where your Amazon S3 bucket is located,
            // pass the Region name to the Amazon S3 client object's constructor.
            // For example: RegionEndpoint.USWest2 or RegionEndpoint.USEast2.
            IAmazonS3 client = new AmazonS3Client();

            try
            {
                // Update bucket policy for target bucket to allow delivery of logs to it.
                await SetBucketPolicyToAllowLogDelivery(
                    client,
                    bucketName,
                    logBucketName,
                    logObjectKeyPrefix,
                    accountId);

                // Enable logging on the source bucket.
                await EnableLoggingAsync(
                    client,
                    bucketName,
                    logBucketName,
                    logObjectKeyPrefix);
            }
            catch (AmazonS3Exception e)
            {
                Console.WriteLine($"Error: {e.Message}");
            }
        }

        /// <summary>
        /// This method grants appropriate permissions for logging to the
        /// Amazon S3 bucket where the logs will be stored.
        /// </summary>
        /// <param name="client">The initialized Amazon S3 client which will be used
        /// to apply the bucket policy.</param>
        /// <param name="sourceBucketName">The name of the source bucket.</param>
        /// <param name="logBucketName">The name of the bucket where logging
        /// information will be stored.</param>
        /// <param name="logPrefix">The logging prefix where the logs should be delivered.</param>
        /// <param name="accountId">The account id of the account where the source bucket exists.</param>
        /// <returns>Async task.</returns>
        public static async Task SetBucketPolicyToAllowLogDelivery(
            IAmazonS3 client,
            string sourceBucketName,
            string logBucketName,
            string logPrefix,
            string accountId)
        {
            var resourceArn = @"""arn:aws:s3:::" + logBucketName + "/" + logPrefix + @"*""";

            var newPolicy = @"{
                                ""Statement"":[{
                                ""Sid"": ""S3ServerAccessLogsPolicy"",
                                ""Effect"": ""Allow"",
                                ""Principal"": { ""Service"": ""logging.s3.amazonaws.com"" },
                                ""Action"": [""s3:PutObject""],
                                ""Resource"": [" + resourceArn + @"],
                                ""Condition"": {
                                ""ArnLike"": { ""aws:SourceArn"": ""arn:aws:s3:::" + sourceBucketName + @""" },
                                ""StringEquals"": { ""aws:SourceAccount"": """ + accountId + @""" }
                                        }
                                    }]
                                }";
            Console.WriteLine($"The policy to apply to bucket {logBucketName} to enable logging:");
            Console.WriteLine(newPolicy);

            PutBucketPolicyRequest putRequest = new PutBucketPolicyRequest
            {
                BucketName = logBucketName,
                Policy = newPolicy,
            };
            await client.PutBucketPolicyAsync(putRequest);
            Console.WriteLine("Policy applied.");
        }

        /// <summary>
        /// This method enables logging for an Amazon S3 bucket. Logs will be stored
        /// in the bucket you selected for logging. Selected prefix
        /// will be prepended to each log object.
        /// </summary>
        /// <param name="client">The initialized Amazon S3 client which will be used
        /// to configure and apply logging to the selected Amazon S3 bucket.</param>
        /// <param name="bucketName">The name of the Amazon S3 bucket for which you
        /// wish to enable logging.</param>
        /// <param name="logBucketName">The name of the Amazon S3 bucket where logging
        /// information will be stored.</param>
        /// <param name="logObjectKeyPrefix">The prefix to prepend to each
        /// object key.</param>
        /// <returns>Async task.</returns>
        public static async Task EnableLoggingAsync(
            IAmazonS3 client,
            string bucketName,
            string logBucketName,
            string logObjectKeyPrefix)
        {
            Console.WriteLine($"Enabling logging for bucket {bucketName}.");
            var loggingConfig = new S3BucketLoggingConfig
            {
                TargetBucketName = logBucketName,
                TargetPrefix = logObjectKeyPrefix,
            };

            var putBucketLoggingRequest = new PutBucketLoggingRequest
            {
                BucketName = bucketName,
                LoggingConfig = loggingConfig,
            };
            await client.PutBucketLoggingAsync(putBucketLoggingRequest);
            Console.WriteLine($"Logging enabled.");
        }

        /// <summary>
        /// Loads configuration from settings files.
        /// </summary>
        public static void LoadConfig()
        {
            _configuration = new ConfigurationBuilder()
                .SetBasePath(Directory.GetCurrentDirectory())
                .AddJsonFile("settings.json") // Load settings from .json file.
                .AddJsonFile("settings.local.json", true) // Optionally, load local settings.
                .Build();
        }
    }
```
+  Einzelheiten zur API finden Sie [PutBucketLogging](https://docs.aws.amazon.com/goto/DotNetSDKV3/s3-2006-03-01/PutBucketLogging)in der *AWS SDK für .NET API-Referenz*. 

------
#### [ Java ]

```
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3.S3Client;
import software.amazon.awssdk.services.s3.model.BucketLoggingStatus;
import software.amazon.awssdk.services.s3.model.LoggingEnabled;
import software.amazon.awssdk.services.s3.model.PartitionedPrefix;
import software.amazon.awssdk.services.s3.model.PutBucketLoggingRequest;
import software.amazon.awssdk.services.s3.model.TargetObjectKeyFormat;

// Class to set a bucket policy on a target S3 bucket and enable server access logging on a source S3 bucket.
public class ServerAccessLogging {
    private static S3Client s3Client;

    public static void main(String[] args) {
        String sourceBucketName = "SOURCE-BUCKET";
        String targetBucketName = "TARGET-BUCKET";
        String sourceAccountId = "123456789012";
        String targetPrefix = "logs/";

        // Create S3 Client.
        s3Client = S3Client.builder().
                region(Region.US_EAST_2)
                .build();

        // Set a bucket policy on the target S3 bucket to enable server access logging by granting the
        // logging.s3.amazonaws.com principal permission to use the PutObject operation.
        ServerAccessLogging serverAccessLogging = new ServerAccessLogging();
        serverAccessLogging.setTargetBucketPolicy(sourceAccountId, sourceBucketName, targetBucketName);

        // Enable server access logging on the source S3 bucket.
        serverAccessLogging.enableServerAccessLogging(sourceBucketName, targetBucketName,
                targetPrefix);

    }

    // Function to set a bucket policy on the target S3 bucket to enable server access logging by granting the
    // logging.s3.amazonaws.com principal permission to use the PutObject operation.
    public void setTargetBucketPolicy(String sourceAccountId, String sourceBucketName, String targetBucketName) {
        String policy = "{\n" +
                "    \"Version\": \"2012-10-17\",\n" +
                "    \"Statement\": [\n" +
                "        {\n" +
                "            \"Sid\": \"S3ServerAccessLogsPolicy\",\n" +
                "            \"Effect\": \"Allow\",\n" +
                "            \"Principal\": {\"Service\": \"logging.s3.amazonaws.com\"},\n" +
                "            \"Action\": [\n" +
                "                \"s3:PutObject\"\n" +
                "            ],\n" +
                "            \"Resource\": \"arn:aws:s3:::" + targetBucketName + "/*\",\n" +
                "            \"Condition\": {\n" +
                "                \"ArnLike\": {\n" +
                "                    \"aws:SourceArn\": \"arn:aws:s3:::" + sourceBucketName + "\"\n" +
                "                },\n" +
                "                \"StringEquals\": {\n" +
                "                    \"aws:SourceAccount\": \"" + sourceAccountId + "\"\n" +
                "                }\n" +
                "            }\n" +
                "        }\n" +
                "    ]\n" +
                "}";
        s3Client.putBucketPolicy(b -> b.bucket(targetBucketName).policy(policy));
    }

    // Function to enable server access logging on the source S3 bucket.
    public void enableServerAccessLogging(String sourceBucketName, String targetBucketName,
            String targetPrefix) {
        TargetObjectKeyFormat targetObjectKeyFormat = TargetObjectKeyFormat.builder()
                .partitionedPrefix(PartitionedPrefix.builder().partitionDateSource("EventTime").build())
                .build();
        LoggingEnabled loggingEnabled = LoggingEnabled.builder()
                .targetBucket(targetBucketName)
                .targetPrefix(targetPrefix)
                .targetObjectKeyFormat(targetObjectKeyFormat)
                .build();
        BucketLoggingStatus bucketLoggingStatus = BucketLoggingStatus.builder()
                .loggingEnabled(loggingEnabled)
                .build();
        s3Client.putBucketLogging(PutBucketLoggingRequest.builder()
                .bucket(sourceBucketName)
                .bucketLoggingStatus(bucketLoggingStatus)
                .build());
    }

}
```

------

### Unter Verwendung des AWS CLI
<a name="enabling-s3-access-logs-for-requests"></a>

Wir empfehlen, dass Sie in jedem, in dem Sie S3-Buckets haben AWS-Region , einen eigenen Logging-Bucket erstellen. Anschließend können Sie Ihre Amazon-S3-Zugriffsprotokolle in diesem S3-Bucket bereitstellen lassen. Weitere Informationen und Beispiele finden Sie unter [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-bucket-logging.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-bucket-logging.html) in der *AWS CLI -Referenz*.

Wenn der Ziel-Bucket (Ziel-Bucket) die erzwungene Einstellung Bucket Ownership für Object Ownership verwendet, können Sie weder Bucket noch Objekt festlegen. ACLs Sie können auch keine Zielzuschüsse (Zielzuschüsse) in Ihre [PutBucketLogging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLogging.html)Konfiguration aufnehmen. Sie müssen eine Bucket-Richtlinie verwenden, um dem Protokollierungsserviceprinzipal (`logging.s3.amazonaws.com`) Zugriff zu gewähren. Weitere Informationen finden Sie unter [Berechtigungen für Protokollbereitstellung](#grant-log-delivery-permissions-general).

**Example – Aktivieren von Zugriffsprotokollen für fünf Buckets in zwei Regionen**  
In diesem Beispiel werden die folgenden fünf Buckets verwendet:   
+ `amzn-s3-demo-source-bucket-us-east-1`
+ `amzn-s3-demo-source-bucket1-us-east-1`
+ `amzn-s3-demo-source-bucket2-us-east-1`
+ `amzn-s3-demo-bucket1-us-west-2`
+ `amzn-s3-demo-bucket2-us-west-2`
**Anmerkung**  
Der letzte Schritt im folgenden Verfahren enthält Bash-Beispielskripts, mit denen Sie Ihre Protokollierungs-Buckets erstellen und die Serverzugriffsprotokollierung für diese Buckets aktivieren können. Um diese Skripts verwenden zu können, müssen Sie die Dateien `policy.json` und `logging.json` erstellen wie im folgenden Verfahren beschrieben.

1. Erstellen Sie in den Regionen USA West (Oregon) und USA Ost (Nord-Virginia) zwei Ziel-Buckets für die Protokollierung mit den folgenden Namen:
   + `amzn-s3-demo-destination-bucket-logs-us-east-1`
   + `amzn-s3-demo-destination-bucket1-logs-us-west-2`

1. Später im Verfahren aktivieren Sie die Serverzugriffsprotokollierung wie folgt:
   + `amzn-s3-demo-source-bucket-us-east-1` protokolliert zum S3-Bucket `amzn-s3-demo-destination-bucket-logs-us-east-1` mit dem Präfix `amzn-s3-demo-source-bucket-us-east-1`
   + `amzn-s3-demo-source-bucket1-us-east-1` protokolliert zum S3-Bucket `amzn-s3-demo-destination-bucket-logs-us-east-1` mit dem Präfix `amzn-s3-demo-source-bucket1-us-east-1`
   + `amzn-s3-demo-source-bucket2-us-east-1` protokolliert zum S3-Bucket `amzn-s3-demo-destination-bucket-logs-us-east-1` mit dem Präfix `amzn-s3-demo-source-bucket2-us-east-1`
   + `amzn-s3-demo-bucket1-us-west-2` protokolliert zum S3-Bucket `amzn-s3-demo-destination-bucket1-logs-us-west-2` mit dem Präfix `amzn-s3-demo-bucket1-us-west-2`
   + `amzn-s3-demo-bucket2-us-west-2` protokolliert zum S3-Bucket `amzn-s3-demo-destination-bucket1-logs-us-west-2` mit dem Präfix `amzn-s3-demo-bucket2-us-west-2`

1. Gewähren Sie für jeden Ziel-Bucket über eine Bucket-ACL *oder* eine Bucket-Richtlinie Berechtigungen für die Serverzugriffsprotokoll-Bereitstellung:
   + **Aktualisieren Sie die Bucket-Richtlinie** (Empfohlen) – Verwenden Sie den folgenden `put-bucket-policy`-Befehl, um dem Prinzipal des Protokollierungsservices Berechtigungen zu erteilen. Ersetzen Sie `amzn-s3-demo-destination-bucket-logs` durch den Namen Ihres Ziel-Buckets.

     ```
     1. aws s3api put-bucket-policy --bucket amzn-s3-demo-destination-bucket-logs --policy file://policy.json
     ```

     `Policy.json` ist ein JSON-Dokument im aktuellen Ordner, das die folgende Bucket-Richtlinie enthält. Wenn Sie diese Bucket-Richtlinie verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre eigenen Informationen. In der folgenden Richtlinie ist *`amzn-s3-demo-destination-bucket-logs`* der Ziel-Bucket, in dem Serverzugriffsprotokolle bereitgestellt werden. `amzn-s3-demo-source-bucket` ist der Quell-Bucket. `SOURCE-ACCOUNT-ID` ist das AWS-Konto , das den Quell-Bucket besitzt.

------
#### [ JSON ]

****  

     ```
     {
         "Version":"2012-10-17",		 	 	 
         "Statement": [
             {
                 "Sid": "S3ServerAccessLogsPolicy",
                 "Effect": "Allow",
                 "Principal": {
                     "Service": "logging.s3.amazonaws.com"
                 },
                 "Action": [
                     "s3:PutObject"
                 ],
                 "Resource": "arn:aws:s3:::amzn-s3-demo-destination-bucket-logs/*",
                 "Condition": {
                     "ArnLike": {
                         "aws:SourceArn": "arn:aws:s3:::amzn-s3-demo-source-bucket"
                     },
                     "StringEquals": {
                         "aws:SourceAccount": "SOURCE-ACCOUNT-ID"
                     }
                 }
             }
         ]
     }
     ```

------
   + **Aktualisieren der Bucket-ACL** – Zum Erteilen von Berechtigungen für die S3-Protokollbereitstellungsgruppe verwenden Sie den folgenden `put-bucket-acl`-Befehl. Ersetzen Sie *`amzn-s3-demo-destination-bucket-logs`* durch den Namen Ihres Ziel-Buckets.

     ```
     1. aws s3api put-bucket-acl --bucket amzn-s3-demo-destination-bucket-logs  --grant-write URI=http://acs.amazonaws.com/groups/s3/LogDelivery --grant-read-acp URI=http://acs.amazonaws.com/groups/s3/LogDelivery 
     ```

1. Erstellen Sie dann eine `logging.json`-Datei, die Ihre Protokollierungskonfiguration enthält (basierend auf einem der drei folgenden Beispiele). Nach der Erstellung der `logging.json`-Datei können Sie mit dem folgenden `put-bucket-logging`-Befehl die Protokollierungskonfiguration anwenden. Ersetzen Sie *`amzn-s3-demo-destination-bucket-logs`* durch den Namen Ihres Ziel-Buckets.

   ```
   1. aws s3api put-bucket-logging --bucket amzn-s3-demo-destination-bucket-logs --bucket-logging-status file://logging.json 
   ```
**Anmerkung**  
Anstatt mit diesem diesen `put-bucket-logging`-Befehl die Protokollierungskonfiguration auf jeden einzelnen Ziel-Bucket anzuwenden, können Sie eines der im nächsten Schritt bereitgestellten Bash-Skripts verwenden. Um diese Skripts verwenden zu können, müssen Sie die Dateien `policy.json` und `logging.json` erstellen wie in diesem Verfahren beschrieben.

   Die `logging.json`-Datei ist ein JSON-Dokument im aktuellen Ordner, das die Protokollierungskonfiguration enthält. Wenn ein Ziel-Bucket die Einstellung „Von Bucket-Besitzer erzwungen“ für Object Ownership verwendet, kann Ihre Protokollierungskonfiguration keine Zielgewährungen enthalten. Weitere Informationen finden Sie unter [Berechtigungen für Protokollbereitstellung](#grant-log-delivery-permissions-general).  
**Example – `logging.json` ohne Zielgewährungen**  

   Die folgende `logging.json`-Beispieldatei enthält keine Zielgewährungen. Daher können Sie diese Konfiguration auf einen Ziel-Bucket anwenden, der die Einstellung „Von Bucket-Besitzer erzwungen“ für Objekt Ownership verwendet.

   ```
     {
         "LoggingEnabled": {
             "TargetBucket": "amzn-s3-demo-destination-bucket-logs",
             "TargetPrefix": "amzn-s3-demo-destination-bucket/"
          }
      }
   ```  
**Example – `logging.json` mit Zielgewährungen**  

   Die folgende `logging.json`-Beispieldatei enthält Zielgewährungen.

   Wenn der Ziel-Bucket die Einstellung „Von Bucket-Besitzer erzwungen“ für Object Ownership verwendet, können Sie keine Zielgewährungen in Ihre [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLogging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketLogging.html)-Konfiguration einfügen. Weitere Informationen finden Sie unter [Berechtigungen für Protokollbereitstellung](#grant-log-delivery-permissions-general).

   ```
     {
         "LoggingEnabled": {
             "TargetBucket": "amzn-s3-demo-destination-bucket-logs",
             "TargetPrefix": "amzn-s3-demo-destination-bucket/",
             "TargetGrants": [
                  {
                     "Grantee": {
                         "Type": "CanonicalUser",
                         "ID": "79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be"
                      },
                     "Permission": "FULL_CONTROL"
                  }
              ]
          }
      }
   ```

**Werte des Zuschussempfängers**  
Sie können die Person (Berechtigter), der Sie Zugriffsrechte zuweisen, auf folgende Weise angeben (mit Hilfe von Anfrageelementen):
   + Anhand des Personalausweises der Person:

     ```
     {
       "Grantee": {
         "Type": "CanonicalUser",
         "ID": "ID"
       }
     }
     ```
   + Durch URI:

     ```
     {
       "Grantee": {
         "Type": "Group",
         "URI": "http://acs.amazonaws.com/groups/global/AuthenticatedUsers"
       }
     }
     ```  
**Example – `logging.json` mit auf S3-Ereigniszeit festgelegtem Protokollobjekt-Schlüsselformat**  

   In der folgenden `logging.json`-Datei wird das Protokollobjekt-Schlüsselformat in S3-Ereigniszeit geändert. Weitere Informationen zum Einrichten des Protokollobjekt-Schlüsselformats finden Sie unter [Wie aktiviere ich die Protokollzustellung?](ServerLogs.md#server-access-logging-overview).

   ```
     { 
       "LoggingEnabled": {
           "TargetBucket": "amzn-s3-demo-destination-bucket-logs",
           "TargetPrefix": "amzn-s3-demo-destination-bucket/",
           "TargetObjectKeyFormat": { 
               "PartitionedPrefix": { 
                   "PartitionDateSource": "EventTime" 
               }
            }
       }
   }
   ```

1. Sie können eines der folgenden Bash-Skripts verwenden, um allen Buckets in Ihrem Konto Zugriffsprotokollierung hinzuzufügen. Ersetzen Sie *`amzn-s3-demo-destination-bucket-logs`* durch den Namen Ihres Ziel-Buckets (Ziel-Buckets) und `us-west-2` durch den Namen der Region, in der sich Ihre Buckets befinden.
**Anmerkung**  
Dieses Skript funktioniert nur, wenn sich alle Buckets in derselben Region befinden. Sind die Buckets auf mehrere Regionen verteilt, müssen Sie das Skript anpassen.   
**Example - Gewähren Sie Zugriff mit Bucket-Richtlinien und fügen Sie die Protokollierung für die Buckets in Ihrem Konto hinzu**  

   ```
     loggingBucket='amzn-s3-demo-destination-bucket-logs'
     region='us-west-2'
     
     
     # Create the logging bucket.
     aws s3 mb s3://$loggingBucket --region $region
     
     aws s3api put-bucket-policy --bucket $loggingBucket --policy file://policy.json
     
     # List the buckets in this account.
     buckets="$(aws s3 ls | awk '{print $3}')"
     
     # Put a bucket logging configuration on each bucket.
     for bucket in $buckets
         do 
           # This if statement excludes the logging bucket.
           if [ "$bucket" == "$loggingBucket" ] ; then
               continue;
           fi
           printf '{
             "LoggingEnabled": {
               "TargetBucket": "%s",
               "TargetPrefix": "%s/"
           }
         }' "$loggingBucket" "$bucket"  > logging.json
         aws s3api put-bucket-logging --bucket $bucket --bucket-logging-status file://logging.json
         echo "$bucket done"
     done
     
     rm logging.json
     
     echo "Complete"
   ```  
**Example — Gewähren Sie Zugriff mit einem Bucket ACLs und fügen Sie die Protokollierung für die Buckets in Ihrem Konto hinzu**  

   ```
     loggingBucket='amzn-s3-demo-destination-bucket-logs'
     region='us-west-2'
     
     
     # Create the logging bucket.
     aws s3 mb s3://$loggingBucket --region $region
     
     aws s3api put-bucket-acl --bucket $loggingBucket --grant-write URI=http://acs.amazonaws.com/groups/s3/LogDelivery --grant-read-acp URI=http://acs.amazonaws.com/groups/s3/LogDelivery
     
     # List the buckets in this account.
     buckets="$(aws s3 ls | awk '{print $3}')"
     
     # Put a bucket logging configuration on each bucket.
     for bucket in $buckets
         do 
           # This if statement excludes the logging bucket.
           if [ "$bucket" == "$loggingBucket" ] ; then
               continue;
           fi
           printf '{
             "LoggingEnabled": {
               "TargetBucket": "%s",
               "TargetPrefix": "%s/"
           }
         }' "$loggingBucket" "$bucket"  > logging.json
         aws s3api put-bucket-logging --bucket $bucket --bucket-logging-status file://logging.json
         echo "$bucket done"
     done
     
     rm logging.json
     
     echo "Complete"
   ```

## Überprüfen der Einrichtung Ihrer Serverzugriffsprotokolle
<a name="verify-access-logs"></a>

Führen Sie nach dem Aktivieren der Serverzugriffsprotokollierung die folgenden Schritte aus: 
+ Greifen Sie auf den Ziel-Bucket zu und überprüfen Sie, ob die Protokolldateien bereitgestellt werden. Nachdem die Zugriffsprotokolle eingerichtet wurden, fängt Amazon S3 sofort an, Anforderungen zu erfassen und zu protokollieren. Es kann jedoch einige Stunden dauern, bis die Protokolle an den Ziel-Bucket geliefert werden. Weitere Informationen erhalten Sie unter [Statusänderungen in der Bucket-Protokollierung werden mit der Zeit wirksam](ServerLogs.md#BucketLoggingStatusChanges) und [Best-Effort-Serverprotokollbereitstellung](ServerLogs.md#LogDeliveryBestEffort).

  Sie können die Protokollzustellung auch automatisch überprüfen, indem Sie Amazon S3 S3-Anforderungsmetriken verwenden und CloudWatch Amazon-Alarme für diese Metriken einrichten. Weitere Informationen finden Sie unter [Metriken mit Amazon überwachen CloudWatch](cloudwatch-monitoring.md).
+ Vergewissern Sie sich, dass Sie den Inhalt der Protokolldateien öffnen und lesen können.

Informationen zur Fehlerbehebung bei der Serverzugriffsprotokollierung finden Sie unter [Behebung von Fehlern bei der Server-Zugriffsprotokollierung](troubleshooting-server-access-logging.md).

# Amazon-S3-Server-Zugriffsprotokollformat
<a name="LogFormat"></a>

Die Server-Zugriffsprotokollierung bietet detaillierte Aufzeichnungen über die Anfragen, die an einen Amazon-S3-Bucket gestellt wurden. Sie können Serverzugriffsprotokolle für folgende Zwecke verwenden: 
+ Durchführung von Sicherheits- und Zugriffsprüfungen
+ Kennenlernen Ihres Kundenstamms
+ Nachvollziehen Ihrer Amazon-S3-Rechnung

Dieser Abschnitt beschreibt das Format und andere Details zu Amazon-S3-Serverzugriffprotokolldateien.

Die Server-Zugriffsprotokolldateien bestehen aus einer Reihe von durch Zeilenschaltungen voneinander getrennten Protokolldatensätzen. Jeder Protokolldatensatz stellt eine Anforderung dar und besteht aus durch Leerzeichen voneinander getrennter Felder.

Nachfolgend wird ein Beispielprotokoll mit sechs Protokolldatensätzen gezeigt.

**Anmerkung**  
Jedes Feld kann auf `-` gesetzt werden, um darauf hinzuweisen, dass die Daten unbekannt oder nicht verfügbar waren, oder dass das Feld für diese Anforderung nicht relevant war. 

```
79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be amzn-s3-demo-bucket1 [06/Feb/2019:00:00:38 +0000] 192.0.2.3 79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be 3E57427F3EXAMPLE REST.GET.VERSIONING - "GET /amzn-s3-demo-bucket1?versioning HTTP/1.1" 200 - 113 - 7 - "-" "S3Console/0.4" - s9lzHYrFp76ZVxRcpX9+5cjAnEH2ROuNkd2BHfIa6UkFVdtjf5mKR3/eTPFvsiP/XV/VLi31234= SigV4 ECDHE-RSA-AES128-GCM-SHA256 AuthHeader amzn-s3-demo-bucket1.s3.us-west-1.amazonaws.com TLSV1.2 arn:aws:s3:us-west-1:123456789012:accesspoint/example-AP Yes us-east-1
79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be amzn-s3-demo-bucket1 [06/Feb/2019:00:00:38 +0000] 192.0.2.3 79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be 891CE47D2EXAMPLE REST.GET.LOGGING_STATUS - "GET /amzn-s3-demo-bucket1?logging HTTP/1.1" 200 - 242 - 11 - "-" "S3Console/0.4" - 9vKBE6vMhrNiWHZmb2L0mXOcqPGzQOI5XLnCtZNPxev+Hf+7tpT6sxDwDty4LHBUOZJG96N1234= SigV4 ECDHE-RSA-AES128-GCM-SHA256 AuthHeader amzn-s3-demo-bucket1.s3.us-west-1.amazonaws.com TLSV1.2 - - us-east-1
79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be amzn-s3-demo-bucket1 [06/Feb/2019:00:00:38 +0000] 192.0.2.3 79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be A1206F460EXAMPLE REST.GET.BUCKETPOLICY - "GET /amzn-s3-demo-bucket1?policy HTTP/1.1" 404 NoSuchBucketPolicy 297 - 38 - "-" "S3Console/0.4" - BNaBsXZQQDbssi6xMBdBU2sLt+Yf5kZDmeBUP35sFoKa3sLLeMC78iwEIWxs99CRUrbS4n11234= SigV4 ECDHE-RSA-AES128-GCM-SHA256 AuthHeader amzn-s3-demo-bucket1.s3.us-west-1.amazonaws.com TLSV1.2 - Yes us-east-1
79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be amzn-s3-demo-bucket1 [06/Feb/2019:00:01:00 +0000] 192.0.2.3 79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be 7B4A0FABBEXAMPLE REST.GET.VERSIONING - "GET /amzn-s3-demo-bucket1?versioning HTTP/1.1" 200 - 113 - 33 - "-" "S3Console/0.4" - Ke1bUcazaN1jWuUlPJaxF64cQVpUEhoZKEG/hmy/gijN/I1DeWqDfFvnpybfEseEME/u7ME1234= SigV4 ECDHE-RSA-AES128-GCM-SHA256 AuthHeader amzn-s3-demo-bucket1.s3.us-west-1.amazonaws.com TLSV1.2 - - us-east-1
79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be amzn-s3-demo-bucket1 [06/Feb/2019:00:01:57 +0000] 192.0.2.3 79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be DD6CC733AEXAMPLE REST.PUT.OBJECT s3-dg.pdf "PUT /amzn-s3-demo-bucket1/s3-dg.pdf HTTP/1.1" 200 - - 4406583 41754 28 "-" "S3Console/0.4" - 10S62Zv81kBW7BB6SX4XJ48o6kpcl6LPwEoizZQQxJd5qDSCTLX0TgS37kYUBKQW3+bPdrg1234= SigV4 ECDHE-RSA-AES128-SHA AuthHeader amzn-s3-demo-bucket1.s3.us-west-1.amazonaws.com TLSV1.2 - Yes us-east-1
```

Es folgt ein Beispielprotokoll für den Vorgang **Prüfsumme berechnen**:

```
7cd47ef2be amzn-s3-demo-bucket [06/Feb/2019:00:00:38 +0000] - 79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be e5042925-b524-4b3b-a869-f3881e78ff3a S3.COMPUTE.OBJECT.CHECKSUM example-object - - - - 1048576 - - - - - bPf7qjG4XwYdPgDQTl72GW/uotRhdPz2UryEyAFLDSRmKrakUkJCYLtAw6fdANcrsUYc1M/kIulXM1u5vZQT5g== - - - - - - - -
```

**Topics**
+ [Protokolldatensatzfelder](#log-record-fields)
+ [Zusätzliche Protokollierung für KopierVorgänge](#AdditionalLoggingforCopyOperations)
+ [Benutzerdefinierte Zugriffsprotokollinformationen](#LogFormatCustom)
+ [Aspekte zur Programmierung des erweiterbaren Serverzugriff-Protokollformats](#LogFormatExtensible)

## Protokolldatensatzfelder
<a name="log-record-fields"></a>

In der folgenden Liste werden die wichtigsten Protokolldatensatzfelder beschrieben.

**Bucket-Eigentümer**  
Die kanonische Benutzer-ID des Eigentümer des Quell-Buckets. Die kanonische Benutzer-ID ist eine andere Form der AWS-Konto ID. Weitere Informationen zur kanonischen Benutzer-ID finden Sie unter [AWS-Konto -Kennungen](https://docs.aws.amazon.com/general/latest/gr/acct-identifiers.html) in der *Allgemeine AWS-Referenz*. Informationen darüber, wie Sie die kanonische Benutzer-ID für Ihr Konto finden, erhalten Sie unter [Die kanonische Benutzer-ID für Ihr AWS-Konto](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-identifiers.html#FindCanonicalId) finden.  
**Beispieleintrag**  

```
79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be
```

**Bucket**  
Der Name des Buckets, für den die Anforderung verarbeitet wurde. Wenn das System eine fehlerhaft aufgebaute Anforderung erhält und den Bucket nicht bestimmen kann, erscheint die Anforderung nicht in einem Server-Zugriffsprotokoll.  
**Beispieleintrag**  

```
amzn-s3-demo-bucket1
```

**Zeit**  
Die Uhrzeit, zu der die Anforderung empfangen wurde. Diese Datums- und Uhrzeitangaben entsprechen der Zeitzone UTC (Coordinated Universal Time). Das Format unter Verwendung der `strftime()`-Terminologie, nämlich: `[%d/%b/%Y:%H:%M:%S %z]`  
**Beispieleintrag**  

```
[06/Feb/2019:00:00:38 +0000]
```

**Remote-IP**  
Die offensichtliche IP-Adresse des Anforderers. Auf dem Weg vorhandene Proxy-Server und Firewalls könnten die tatsächliche IP-Adresse des Computers verbergen, der die Anforderung gestellt hat.  
**Beispieleintrag**  

```
192.0.2.3
```

**Auftraggeber**  
Die kanonische Benutzer-ID des Auftraggebers, oder `-` für nicht authentifizierte Anforderungen. Wenn der Anforderer ein IAM-Benutzer war, gibt dieses Feld den IAM-Benutzernamen des Anforderers zusammen mit dem Namen zurück AWS-Konto , zu dem der IAM-Benutzer gehört. Diese ID ist dieselbe, die für den Zugriff zu Kontrollzwecken verwendet wird.  
**Beispieleintrag**  

```
79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be
```
Wenn der Anforderer eine angenommene Rolle verwendet, gibt dieses Feld die angenommene IAM-Rolle zurück.  
**Beispieleintrag**  

```
arn:aws:sts::123456789012:assumed-role/roleName/test-role
```

**Anforderungs-ID**  
Eine von Amazon S3 generierte Zeichenfolge, die jede Anforderung eindeutig identifiziert. Bei Auftragsanforderungen zur **Berechnung der Prüfsumme** wird im Feld **Anforderungs-ID** die zugehörige Job-ID angezeigt. Weitere Informationen finden Sie unter [Berechnen von Prüfsummen](batch-ops-compute-checksums.md).  
**Beispieleintrag**  

```
3E57427F33A59F07
```

**Operation**  
Die hier aufgeführte Operation ist deklariert al `SOAP.operation`, `REST.HTTP_method.resource_type`, `WEBSITE.HTTP_method.resource_type` oder `BATCH.DELETE.OBJECT`, oder `S3.action.resource_type` für [S3-Lebenszyklus und Protokollieren](lifecycle-and-other-bucket-config.md#lifecycle-general-considerations-logging). Bei [https://docs.aws.amazon.com/AmazonS3/latest/userguide/batch-ops-compute-checksums.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/batch-ops-compute-checksums.html)-Auftragsanforderungen wird der Vorgang als `S3.COMPUTE.OBJECT.CHECKSUM` aufgeführt.  
**Beispieleintrag**  

```
REST.PUT.OBJECT
S3.COMPUTE.OBJECT.CHECKSUM
```

**Key (Schlüssel)**  
Der Schlüsselteil (Objektname) der Anfrage.  
**Beispieleintrag**  

```
/photos/2019/08/puppy.jpg
```

**Request-URI**  
Der `Request-URI`-Teil der HTTP-Anforderungsmeldung. Dieses Feld kann Anführungszeichen ohne Escape-Zeichen aus der Benutzereingabe enthalten.  
**Beispieleintrag**  

```
"GET /amzn-s3-demo-bucket1/photos/2019/08/puppy.jpg?x-foo=bar HTTP/1.1"
```

**HTTP-Status**  
Der numerische HTTP-Statuscode der Antwort.  
**Beispieleintrag**  

```
200
```

**Fehlercode**  
Die Amazon [S3-Fehlerantworten](https://docs.aws.amazon.com/AmazonS3/latest/API/ErrorResponses.html) oder `-`, wenn kein Fehler aufgetreten ist  
**Beispieleintrag**  

```
NoSuchBucket
```

**Gesendete Bytes**  
Die Anzahl der in der Antwort gesendeten Byte, ausgenommen HTTP-Protokoll-Overhead, oder `-`, falls null.  
**Beispieleintrag**  

```
2662992
```

**Objektgröße**  
Die Gesamtgröße des betreffenden Objekts.  
**Beispieleintrag**  

```
3462992
```

**Gesamtzeit**  
Die Anzahl der Millisekunden (ms), die die Anforderung aus Perspektive des Servers unterwegs war. Dieser Wert wird ab der Zeit gemessen, zu der Ihre Anforderung empfangen wurde, bis zu der Zeit, zu der das letzte Byte der Antwort gesendet wurde. Messungen aus der Perspektive des Clients dauern möglicherweise länger aufgrund der Netzwerklatenz.  
**Beispieleintrag**  

```
70
```

**Umschlagzeit**  
Die Anzahl der Millisekunden, die Amazon S3 gebraucht hat, Ihre Anfrage zu verarbeiten. Dieser Wert wird ab der Zeit gemessen, zu der das letzte Byte Ihrer Anforderung empfangen wurde, bis zu der Zeit, zu der das erste Byte der Antwort gesendet wurde.  
**Beispieleintrag**  

```
10
```

**Referer**  
Der Wert des HTTP-`Referer`-Headers, falls vorhanden. HTTP-Benutzeragenten (z. B. Browser) setzen diesen Header normalerweise auf die URL der verlinkenden oder einbettenden Seite, wenn eine Anforderung erfolgt. Dieses Feld kann Anführungszeichen ohne Escape-Zeichen aus der Benutzereingabe enthalten.  
**Beispieleintrag**  

```
"http://www.example.com/webservices"
```

**User-Agent**  
Der Wert des HTTP-`User-Agent`-Headers Dieses Feld kann Anführungszeichen ohne Escape-Zeichen aus der Benutzereingabe enthalten.  
**Beispieleintrag**  

```
"curl/7.15.1"
```

**Versions-ID**  
Die Versions-ID der Anforderung oder `-`, wenn die Operation keinen `versionId`-Parameter entgegennimmt.  
**Beispieleintrag**  

```
3HL4kqtJvjVBH40Nrjfkd
```

**Host-ID**  
Die erweiterte Anforderungs-ID für `x-amz-id-2` oder Amazon S3   
**Beispieleintrag**  

```
s9lzHYrFp76ZVxRcpX9+5cjAnEH2ROuNkd2BHfIa6UkFVdtjf5mKR3/eTPFvsiP/XV/VLi31234=
```

**Signatur-Version**  
Die Signaturversion, `SigV2` oder `SigV4`, die für die Authentifizierung der Anforderung verwendet wurde, bzw. ein `-` für nicht authentifizierte Anforderungen.  
**Beispieleintrag**  

```
SigV2
```

**Cipher Suite**  
Die Transport Layer Security (TLS) Chiffre, die für eine HTTPS-Anfrage oder eine `-` für HTTP ausgehandelt wurde.  
**Beispieleintrag**  

```
ECDHE-RSA-AES128-GCM-SHA256
```

**Authentifizierungstyp**  
Die Art der verwendeten Anforderungsauthentifizierung: `AuthHeader` für Authentifizierungs-Header, `QueryString` für die Anforderungszeichenfolge (vorsignierte URL) oder ein `-` für nicht authentifizierte Anforderungen.  
**Beispieleintrag**  

```
AuthHeader
```

**Host Header**  
Der für die Verbindung mit Amazon S3 verwendete Endpunkt.  
**Beispieleintrag**  

```
s3.us-west-2.amazonaws.com
```
Einige frühere Regionen unterstützen Legacy-Endpunkte. Möglicherweise finden Sie diese Endpunkte in Ihren Serverzugriffsprotokollen oder AWS CloudTrail -protokollen. Weitere Informationen finden Sie unter [Legacy-Endpunkte](VirtualHosting.md#s3-legacy-endpoints). Eine vollständige Liste der Amazon-S3-Regionen und -Endpunkte finden Sie unter [Endpunkte und Kontingente von Amazon S3](https://docs.aws.amazon.com/general/latest/gr/s3.html) in der *Allgemeine Amazon Web Services-Referenz*.

**TLS-Version**  
Die vom Client ausgehandelte Transport Layer Security(TLS)-Version. Einer der folgenden Werte: `TLSv1.1`, `TLSv1.2`, `TLSv1.3` oder `-`, wenn TLS nicht verwendet wurde.  
**Beispieleintrag**  

```
TLSv1.2
```

**Zugriffspunkt-ARN**  
Der Amazon-Ressourcenname (ARN) des Zugriffspunkts der Anforderung. Wenn der Zugriffspunkt-ARN fehlerhaft ist oder nicht verwendet wird, enthält das Feld ein `-`. Weitere Hinweise zu Zugangspunkten finden Sie unter [Verwenden von Amazon-S3-Zugangspunkten für Allzweck-Buckets](using-access-points.md). Weitere Informationen zu ARNs finden Sie unter [Amazon Resource Name (ARN)](https://docs.aws.amazon.com/general/latest/gr/aws-arns-and-namespaces.html) im *AWS Referenzhandbuch*.  
**Beispieleintrag**  

```
arn:aws:s3:us-east-1:123456789012:accesspoint/example-AP
```

**aclRequired**  
Eine Zeichenfolge, die angibt, ob für die Anforderung eine Zugriffssteuerungsliste (ACL) für die Autorisierung erforderlich war. Wenn für die Anforderung eine ACL zur Autorisierung erforderlich war, lautet die Zeichenfolge `Yes`. Wenn keine erforderlich ACLs waren, lautet die Zeichenfolge`-`. Weitere Informationen zu finden ACLs Sie unter[Zugriffskontrolllisten (ACL) – Übersicht](acl-overview.md). Weitere Informationen zur Verwendung des `aclRequired` Felds zum Deaktivieren ACLs finden Sie unter[Kontrolle des Besitzes von Objekten und Deaktivierung ACLs für Ihren Bucket](about-object-ownership.md).   
**Beispieleintrag**  

```
Yes
```

**Quellregion**  
Die AWS Region, aus der die Anfrage stammt. In diesem Feld wird ein Bindestrich (`-`) angezeigt, wenn die Ursprungsregion nicht bestimmt werden kann (z. B. PrivateLink Verbindungen, Direct Connect-Verbindungen, Bring Your Own IP-Adressen (BYOIP) oder AWS Nicht-IP-Adressen) oder wenn das Protokoll durch Vorgänge generiert wird, die auf vom Kunden festgelegten Richtlinien oder Aktionen wie Lebenszyklus und Prüfsumme basieren.  
**Beispieleintrag**  

```
us-east-1
```

## Zusätzliche Protokollierung für KopierVorgänge
<a name="AdditionalLoggingforCopyOperations"></a>

Eine Kopieroperation umfasst ein `GET` und ein `PUT`. Aus diesem Grund zeichnen wir für eine Kopieroperation zwei Datensätze auf. Der vorherige Abschnitt beschreibt die Felder für den `PUT`-Teil der Operation. Die folgende Liste beschreibt die Felder in dem Datensatz, die sich auf den `GET`-Teil der Kopieroperation beziehen.

**Bucket-Eigentümer**  
Die kanonische Benutzer-ID des Buckets, der das kopierte Objekt speichert. Die kanonische Benutzer-ID ist eine andere Form der ID. AWS-Konto Weitere Informationen zur kanonischen Benutzer-ID finden Sie unter [AWS-Konto -Kennungen](https://docs.aws.amazon.com/general/latest/gr/acct-identifiers.html) in der *Allgemeine AWS-Referenz*. Informationen darüber, wie Sie die kanonische Benutzer-ID für Ihr Konto finden, erhalten Sie unter [Die kanonische Benutzer-ID für Ihr AWS-Konto](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-identifiers.html#FindCanonicalId) finden.  
**Beispieleintrag**  

```
79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be
```

**Bucket**  
Der Name des Buckets, der das kopierte Objekt speichert.  
**Beispieleintrag**  

```
amzn-s3-demo-bucket1
```

**Zeit**  
Die Uhrzeit, zu der die Anforderung empfangen wurde. Diese Datums- und Uhrzeitangaben entsprechen der Zeitzone UTC (Coordinated Universal Time). Das Format unter Verwendung der `strftime()`-Terminologie, nämlich: `[%d/%B/%Y:%H:%M:%S %z]`  
**Beispieleintrag**  

```
[06/Feb/2019:00:00:38 +0000]
```

**Remote-IP**  
Die offensichtliche IP-Adresse des Anforderers. Auf dem Weg vorhandene Proxy-Server und Firewalls könnten die tatsächliche IP-Adresse des Computers verbergen, der die Anforderung gestellt hat.  
**Beispieleintrag**  

```
192.0.2.3
```

**Auftraggeber**  
Die kanonische Benutzer-ID des Auftraggebers, oder `-` für nicht authentifizierte Anforderungen. Wenn der Anforderer ein IAM-Benutzer war, gibt dieses Feld den IAM-Benutzernamen des Anfragenden zusammen mit dem Namen zurück Root-Benutzer des AWS-Kontos , zu dem der IAM-Benutzer gehört. Diese ID ist dieselbe, die für den Zugriff zu Kontrollzwecken verwendet wird.  
**Beispieleintrag**  

```
79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be
```
Wenn der Anforderer eine angenommene Rolle verwendet, gibt dieses Feld die angenommene IAM-Rolle zurück.  
**Beispieleintrag**  

```
arn:aws:sts::123456789012:assumed-role/roleName/test-role
```

**Anforderungs-ID**  
Eine von Amazon S3 generierte Zeichenfolge, die jede Anforderung eindeutig identifiziert. Bei Auftragsanforderungen zur **Berechnung der Prüfsumme** wird im Feld **Anforderungs-ID** die zugehörige Job-ID angezeigt. Weitere Informationen finden Sie unter [Berechnen von Prüfsummen](batch-ops-compute-checksums.md).  
**Beispieleintrag**  

```
3E57427F33A59F07
```

**Operation**  
Die hier aufgeführte Operation ist deklariert al `SOAP.operation`, `REST.HTTP_method.resource_type`, `WEBSITE.HTTP_method.resource_type` oder `BATCH.DELETE.OBJECT`.  
**Beispieleintrag**  

```
REST.COPY.OBJECT_GET
```

**Key (Schlüssel)**  
Der Schlüssel (Objektname) des kopierten Objekts oder `-`, wenn die Operation keinen Schlüsselparameter entgegennimmt.   
**Beispieleintrag**  

```
/photos/2019/08/puppy.jpg
```

**Request-URI**  
Der `Request-URI`-Teil der HTTP-Anforderungsmeldung. Dieses Feld kann Anführungszeichen ohne Escape-Zeichen aus der Benutzereingabe enthalten.  
**Beispieleintrag**  

```
"GET /amzn-s3-demo-bucket1/photos/2019/08/puppy.jpg?x-foo=bar"
```

**HTTP-Status**  
Der numerische HTTP-Statuscode des `GET`-Teils der Kopieroperation.  
**Beispieleintrag**  

```
200
```

**Fehlercode**  
Die Amazon-S3-[Fehlerantworten](https://docs.aws.amazon.com/AmazonS3/latest/API/ErrorResponses.html) des `GET`-Teils der Kopieroperation oder `-`, wenn kein Fehler aufgetreten ist.  
**Beispieleintrag**  

```
NoSuchBucket
```

**Gesendete Bytes**  
Die Anzahl der in der Antwort gesendeten Byte, ausgenommen HTTP-Protokoll-Overhead, oder `-`, falls null.  
**Beispieleintrag**  

```
2662992
```

**Objektgröße**  
Die Gesamtgröße des betreffenden Objekts.  
**Beispieleintrag**  

```
3462992
```

**Gesamtzeit**  
Die Anzahl der Millisekunden (ms), die die Anforderung aus Perspektive des Servers unterwegs war. Dieser Wert wird ab der Zeit gemessen, zu der Ihre Anforderung empfangen wurde, bis zu der Zeit, zu der das letzte Byte der Antwort gesendet wurde. Messungen aus der Perspektive des Clients dauern möglicherweise länger aufgrund der Netzwerklatenz.  
**Beispieleintrag**  

```
70
```

**Umschlagzeit**  
Die Anzahl der Millisekunden, die Amazon S3 gebraucht hat, Ihre Anfrage zu verarbeiten. Dieser Wert wird ab der Zeit gemessen, zu der das letzte Byte Ihrer Anforderung empfangen wurde, bis zu der Zeit, zu der das erste Byte der Antwort gesendet wurde.  
**Beispieleintrag**  

```
10
```

**Referer**  
Der Wert des HTTP-`Referer`-Headers, falls vorhanden. HTTP-Benutzeragenten (z. B. Browser) setzen diesen Header normalerweise auf die URL der verlinkenden oder einbettenden Seite, wenn eine Anforderung erfolgt. Dieses Feld kann Anführungszeichen ohne Escape-Zeichen aus der Benutzereingabe enthalten.  
**Beispieleintrag**  

```
"http://www.example.com/webservices"
```

**User-Agent**  
Der Wert des HTTP-`User-Agent`-Headers Dieses Feld kann Anführungszeichen ohne Escape-Zeichen aus der Benutzereingabe enthalten.  
**Beispieleintrag**  

```
"curl/7.15.1"
```

**Versions-ID**  
Die Version-ID des kopierten Objekts oder `-`, wenn der `x-amz-copy-source`-Header keinen `versionId`-Parameter als Teil der Kopierquelle angegeben hat.  
**Beispieleintrag**  

```
3HL4kqtJvjVBH40Nrjfkd
```

**Host-ID**  
Die erweiterte Anforderungs-ID für `x-amz-id-2` oder Amazon S3  
**Beispieleintrag**  

```
s9lzHYrFp76ZVxRcpX9+5cjAnEH2ROuNkd2BHfIa6UkFVdtjf5mKR3/eTPFvsiP/XV/VLi31234=
```

**Signatur-Version**  
Die Signaturversion, `SigV2` oder `SigV4`, die für die Authentifizierung der Anforderung verwendet wurde, bzw. ein `-` für nicht authentifizierte Anforderungen.  
**Beispieleintrag**  

```
SigV4
```

**Cipher Suite**  
Der Transport Layer Security (TLS) Cipher, der für eine HTTPS-Anfrage ausgehandelt wurde, oder ein `-` für HTTP.  
**Beispieleintrag**  

```
ECDHE-RSA-AES128-GCM-SHA256
```

**Authentifizierungstyp**  
Die Art der verwendeten Anforderungsauthentifizierung: `AuthHeader` für Authentifizierungs-Header, `QueryString` für Abfragezeichenfolgen (vorsigniert URLs) oder a `-` für nicht authentifizierte Anfragen.  
**Beispieleintrag**  

```
AuthHeader
```

**Host-Header**  
Der für die Verbindung mit Amazon S3 verwendete Endpunkt.  
**Beispieleintrag**  

```
s3.us-west-2.amazonaws.com
```
Einige frühere Regionen unterstützen Legacy-Endpunkte. Möglicherweise finden Sie diese Endpunkte in Ihren Serverzugriffsprotokollen oder -protokollen. AWS CloudTrail Weitere Informationen finden Sie unter [Legacy-Endpunkte](VirtualHosting.md#s3-legacy-endpoints). Eine vollständige Liste der Amazon-S3-Regionen und -Endpunkte finden Sie unter [Endpunkte und Kontingente von Amazon S3](https://docs.aws.amazon.com/general/latest/gr/s3.html) in der *Allgemeine Amazon Web Services-Referenz*.

**TLS-Version**  
Die vom Client ausgehandelte Transport Layer Security(TLS)-Version. Einer der folgenden Werte: `TLSv1.1`, `TLSv1.2`, `TLSv1.3` oder `-`, wenn TLS nicht verwendet wurde.  
**Beispieleintrag**  

```
TLSv1.2
```

**Zugriffspunkt-ARN**  
Der Amazon-Ressourcenname (ARN) des Zugriffspunkts der Anforderung. Wenn der Zugriffspunkt-ARN fehlerhaft ist oder nicht verwendet wird, enthält das Feld ein `-`. Weitere Hinweise zu Zugangspunkten finden Sie unter [Verwenden von Amazon-S3-Zugangspunkten für Allzweck-Buckets](using-access-points.md). Weitere Informationen zu ARNs finden Sie unter [Amazon Resource Name (ARN)](https://docs.aws.amazon.com/general/latest/gr/aws-arns-and-namespaces.html) im *AWS Referenzhandbuch*.  
**Beispieleintrag**  

```
arn:aws:s3:us-east-1:123456789012:accesspoint/example-AP
```

**aclRequired**  
Eine Zeichenfolge, die angibt, ob für die Anforderung eine Zugriffssteuerungsliste (ACL) für die Autorisierung erforderlich war. Wenn für die Anforderung eine ACL zur Autorisierung erforderlich war, lautet die Zeichenfolge `Yes`. Wenn keine erforderlich ACLs waren, lautet die Zeichenfolge`-`. Weitere Informationen zu finden ACLs Sie unter[Zugriffskontrolllisten (ACL) – Übersicht](acl-overview.md). Weitere Informationen zur Verwendung des `aclRequired` Felds zum Deaktivieren ACLs finden Sie unter[Kontrolle des Besitzes von Objekten und Deaktivierung ACLs für Ihren Bucket](about-object-ownership.md).   
**Beispieleintrag**  

```
Yes
```

**Quellregion**  
Die AWS Region, aus der die Anfrage stammt. In diesem Feld wird ein Bindestrich (`-`) angezeigt, wenn die Ursprungsregion nicht bestimmt werden kann (z. B. PrivateLink Verbindungen, Direct Connect-Verbindungen, Bring Your Own IP-Adressen (BYOIP) oder AWS Nicht-IP-Adressen) oder wenn das Protokoll durch Vorgänge generiert wird, die auf vom Kunden festgelegten Richtlinien oder Aktionen wie Lebenszyklus und Prüfsumme basieren.  
**Beispieleintrag**  

```
us-east-1
```

## Benutzerdefinierte Zugriffsprotokollinformationen
<a name="LogFormatCustom"></a>

Sie können benutzerdefinierte Informationen angeben, die im Zugriffsprotokolldatensatz für eine Anforderung gespeichert werden. Fügen Sie der URL für die Anforderung dazu einen benutzerdefinierten Abfragefolgenkettenparameter hinzu. Amazon S3 ignoriert Abfrage-Zeichenfolgenparameter, die mit `x-` beginnen, aber nimmt diese in den Zugriffsprotokoll-Datensatz für die Anforderung auf, als Teil des `Request-URI`-Felds des Protokolldatensatzes. 

Beispielsweise verhält sich die Anfrage `GET` für `"s3.amazonaws.com/amzn-s3-demo-bucket1/photos/2019/08/puppy.jpg?x-user=johndoe"` genauso wie die Anfrage für `"s3.amazonaws.com/amzn-s3-demo-bucket1/photos/2019/08/puppy.jpg"`, abgesehen davon, dass die Zeichenfolge `"x-user=johndoe"` in das Feld `Request-URI` des entsprechenden Protokolldatensatzes eingefügt wird. Diese Funktionalität steht nur auf der REST-Schnittstelle zur Verfügung.

## Aspekte zur Programmierung des erweiterbaren Serverzugriff-Protokollformats
<a name="LogFormatExtensible"></a>

Gelegentlich erweitern wir das Zugriffsprotokoll-Datensatzformat, indem wir am Ende jeder Zeile neue Felder hinzufügen. Daher sollten Sie sicherstellen, dass jeder Code, der Server-Zugriffsprotokolle analysiert, so geschrieben ist, dass er angefügte Felder verarbeiten kann, die er möglicherweise nicht versteht. 

# Löschen von Amazon-S3-Protokolldateien
<a name="deleting-log-files-lifecycle"></a>

Ein Amazon-S3-Bucket mit aktivierter Server-Zugriffsprotokollierung kann im Laufe der Zeit viele Server-Protokollobjekte ansammeln. Möglicherweise benötigt Ihre Anwendung diese Zugriffsprotokolle für einen bestimmten Zeitraum nachdem sie erstellt wurden und danach möchten Sie sie ggf. löschen. Sie können die Amazon-S3-Lebenszykluskonfiguration zum Erstellen von Regeln verwenden, sodass Amazon S3 diese Objekte am Ende ihres Lebenszyklus automatisch zum Löschen bereitstellt. 

Sie können mithilfe eines gemeinsamen Präfixes für eine Teilmenge der Objekte in Ihrem S3-Bucket eine Lebenszykluskonfiguration definieren. Wenn Sie in Ihrer Konfiguration für die Server-Zugriffsprotokollierung ein Präfix angegeben haben, können Sie eine Lebenszyklus-Konfigurationsregel festlegen, um Protokollobjekte mit diesem Präfix zu löschen. 

Angenommen, Ihre Protokollobjekte verwenden das Präfix `logs/`. Sie können dann über eine Lebenszyklus-Konfigurationsregel alle Objekte mit dem Präfix `logs/` im Bucket nach einem bestimmten Zeitraum löschen. 

Weitere Informationen zur Lebenszyklus-Konfiguration finden Sie unter [Verwalten des Lebenszyklus von Objekten](object-lifecycle-mgmt.md).

Allgemeine Informationen zu Server-Zugriffsprotokollen finden Sie unter [Protokollieren von Anfragen mit Server-Zugriffsprotokollierung](ServerLogs.md).

# Verwenden von Amazon-S3-Serverzugriffsprotokollen zur Identifizierung von Anforderungen
<a name="using-s3-access-logs-to-identify-requests"></a>

Sie können mittels Amazon-S3-Serverzugriffsprotokollen Amazon-S3-Anforderungen identifizieren. 

**Anmerkung**  
Um Amazon S3 S3-Anfragen zu identifizieren, empfehlen wir, AWS CloudTrail Datenereignisse anstelle von Amazon S3 S3-Serverzugriffsprotokollen zu verwenden. CloudTrail Datenereignisse sind einfacher einzurichten und enthalten mehr Informationen. Weitere Informationen finden Sie unter [Identifizieren von Amazon S3 S3-Anfragen mithilfe von CloudTrail](cloudtrail-request-identification.md).
Je nachdem, wie viele Zugriffsanfragen Sie erhalten, erfordert die Analyse Ihrer Protokolle möglicherweise mehr Ressourcen oder Zeit als die Verwendung von CloudTrail Datenereignissen.

**Topics**
+ [Abfragen von Zugriffsprotokollen für Anforderungen über Amazon Athena](#querying-s3-access-logs-for-requests)
+ [Identifizieren von Signature-Version-2-Anforderungen mittels Amazon-S3-Zugriffsprotokollen](#using-s3-access-logs-to-identify-sigv2-requests)
+ [Identifizieren von Objektzugriffsanforderungen mittels Amazon-S3-Zugriffsprotokollen](#using-s3-access-logs-to-identify-objects-access)

## Abfragen von Zugriffsprotokollen für Anforderungen über Amazon Athena
<a name="querying-s3-access-logs-for-requests"></a>

Sie können Amazon-S3-Anforderungen mit Amazon-S3-Zugriffsprotokollen mithilfe von Amazon Athena identifizieren. 

Amazon S3 speichert Server-Zugriffsprotokolle als Objekte in einem S3-Bucket. Es ist oft einfacher, ein Tool zu verwenden, mit dem die Protokolle in Amazon S3 analysiert werden können. Athena unterstützt die Analyse von S3-Objekten und kann zur Abfrage von Amazon-S3-Zugriffsprotokollen verwendet werden.

**Example**  
Das folgende Beispiel zeigt, wie Sie Amazon-S3-Server-Zugriffsprotokolle in Amazon Athena abfragen können. Ersetzen Sie die `user input placeholders` in den folgenden Beispielen durch eigene Daten.  
Zur Angabe eines Amazon-S3-Speicherorts in einer Athena-Abfrage müssen Sie einen S3-URI für den Ziel-Bucket bereitstellen, in dem Ihre Protokolle bereitgestellt werden. Dieser URI muss den Bucket-Namen und das Präfix im folgenden Format enthalten: `s3://amzn-s3-demo-bucket1-logs/prefix/` 

1. Öffnen Sie die Athena-Konsole unter [https://console.aws.amazon.com/athena/](https://console.aws.amazon.com/athena/home).

1. Führen Sie im Abfrage-Editor einen Befehl wie den folgenden aus. Ersetzen Sie `s3_access_logs_db` durch den Namen, den Sie Ihrer Datenbank geben möchten. 

   ```
   CREATE DATABASE s3_access_logs_db
   ```
**Anmerkung**  
Es hat sich bewährt, die Datenbank in derselben Datenbank AWS-Region wie Ihren S3-Bucket zu erstellen. 

1. Führen Sie im Abfrage-Editor einen Befehl wie den folgenden aus, um in der in Schritt 2 erstellten Datenbank ein Tabellenschema zu erstellen. Ersetzen Sie `s3_access_logs_db.mybucket_logs` durch den Namen, den Sie Ihrer Tabelle geben möchten. Die Datentypwerte `STRING` und `BIGINT` sind die Zugriffsprotokolleigenschaften. Sie können diese Eigenschaften in Athena abfragen. Geben Sie für `LOCATION` wie oben erwähnt den Pfad von S3-Bucket und Präfix ein.

------
#### [ Date-based partitioning ]

   ```
   CREATE EXTERNAL TABLE s3_access_logs_db.mybucket_logs( 
    `bucketowner` STRING, 
    `bucket_name` STRING, 
    `requestdatetime` STRING, 
    `remoteip` STRING, 
    `requester` STRING, 
    `requestid` STRING, 
    `operation` STRING, 
    `key` STRING, 
    `request_uri` STRING, 
    `httpstatus` STRING, 
    `errorcode` STRING, 
    `bytessent` BIGINT, 
    `objectsize` BIGINT, 
    `totaltime` STRING, 
    `turnaroundtime` STRING, 
    `referrer` STRING, 
    `useragent` STRING, 
    `versionid` STRING, 
    `hostid` STRING, 
    `sigv` STRING, 
    `ciphersuite` STRING, 
    `authtype` STRING, 
    `endpoint` STRING, 
    `tlsversion` STRING,
    `accesspointarn` STRING,
    `aclrequired` STRING,
    `sourceregion` STRING)
    PARTITIONED BY (
      `timestamp` string)
   ROW FORMAT SERDE 
    'org.apache.hadoop.hive.serde2.RegexSerDe' 
   WITH SERDEPROPERTIES ( 
    'input.regex'='([^ ]*) ([^ ]*) \\[(.*?)\\] ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) (\"[^\"]*\"|-) (-|[0-9]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) (\"[^\"]*\"|-) ([^ ]*)(?: ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*))?.*$') 
   STORED AS INPUTFORMAT 
    'org.apache.hadoop.mapred.TextInputFormat' 
   OUTPUTFORMAT 
    'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
   LOCATION
    's3://bucket-name/prefix-name/account-id/region/source-bucket-name/'
    TBLPROPERTIES (
     'projection.enabled'='true', 
     'projection.timestamp.format'='yyyy/MM/dd', 
     'projection.timestamp.interval'='1', 
     'projection.timestamp.interval.unit'='DAYS', 
     'projection.timestamp.range'='2024/01/01,NOW', 
     'projection.timestamp.type'='date', 
     'storage.location.template'='s3://bucket-name/prefix-name/account-id/region/source-bucket-name/${timestamp}')
   ```

------
#### [ Non-date-based partitioning ]

   ```
   CREATE EXTERNAL TABLE `s3_access_logs_db.mybucket_logs`(
     `bucketowner` STRING, 
     `bucket_name` STRING, 
     `requestdatetime` STRING, 
     `remoteip` STRING, 
     `requester` STRING, 
     `requestid` STRING, 
     `operation` STRING, 
     `key` STRING, 
     `request_uri` STRING, 
     `httpstatus` STRING, 
     `errorcode` STRING, 
     `bytessent` BIGINT, 
     `objectsize` BIGINT, 
     `totaltime` STRING, 
     `turnaroundtime` STRING, 
     `referrer` STRING, 
     `useragent` STRING, 
     `versionid` STRING, 
     `hostid` STRING, 
     `sigv` STRING, 
     `ciphersuite` STRING, 
     `authtype` STRING, 
     `endpoint` STRING, 
     `tlsversion` STRING,
     `accesspointarn` STRING,
     `aclrequired` STRING,
     `sourceregion` STRING)
   ROW FORMAT SERDE 
     'org.apache.hadoop.hive.serde2.RegexSerDe' 
   WITH SERDEPROPERTIES ( 
     'input.regex'='([^ ]*) ([^ ]*) \\[(.*?)\\] ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) (\"[^\"]*\"|-) (-|[0-9]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) (\"[^\"]*\"|-) ([^ ]*)(?: ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*) ([^ ]*))?.*$') 
   STORED AS INPUTFORMAT 
     'org.apache.hadoop.mapred.TextInputFormat' 
   OUTPUTFORMAT 
     'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
   LOCATION
     's3://amzn-s3-demo-bucket1-logs/prefix/'
   ```

------

1. Wählen Sie im Navigationsbereich unter **Database (Datenbank)** die Datenbank aus.

1. Wählen Sie unter **Tables (Tabellen)**neben dem Namen der Tabelle **Preview table (Tabellenvorschau)** aus.

   Im Fensterbereich **Results (Ergebnisse)** sollten Daten aus den Server-Zugriffsprotokollen angezeigt werden, also `bucketowner`, `bucket`, `requestdatetime` usw. Dies bedeutet, dass die Athena-Tabelle erfolgreich erstellt wurde. Sie können jetzt die Amazon-S3-Server-Zugriffsprotokolle abfragen.

**Example – Anzeigen, wer ein Objekt um welche Uhrzeit (Zeitstempel, IP-Adresse und IAM-Benutzer) gelöscht hat**  

```
SELECT requestdatetime, remoteip, requester, key 
FROM s3_access_logs_db.mybucket_logs 
WHERE key = 'images/picture.jpg' AND operation like '%DELETE%';
```

**Example – Anzeigen aller Vorgänge, die von einem IAM-Benutzer ausgeführt wurden**  

```
SELECT * 
FROM s3_access_logs_db.mybucket_logs 
WHERE requester='arn:aws:iam::123456789123:user/user_name';
```

**Example – Anzeigen aller Vorgänge, die in einem bestimmten Zeitraum für ein Objekt ausgeführt wurden**  

```
SELECT *
FROM s3_access_logs_db.mybucket_logs
WHERE Key='prefix/images/picture.jpg' 
AND parse_datetime(requestdatetime,'dd/MMM/yyyy:HH:mm:ss Z')
BETWEEN parse_datetime('2017-02-18:07:00:00','yyyy-MM-dd:HH:mm:ss')
AND parse_datetime('2017-02-18:08:00:00','yyyy-MM-dd:HH:mm:ss');
```

**Example – Anzeigen der Menge der in einem festgelegten Zeitraum an eine bestimmten IP-Adresse übertragenen Daten**  

```
SELECT coalesce(SUM(bytessent), 0) AS bytessenttotal
FROM s3_access_logs_db.mybucket_logs
WHERE remoteip='192.0.2.1'
AND parse_datetime(requestdatetime,'dd/MMM/yyyy:HH:mm:ss Z')
BETWEEN parse_datetime('2022-06-01','yyyy-MM-dd')
AND parse_datetime('2022-07-01','yyyy-MM-dd');
```

**Example — Suchen Sie IDs nach Anfragen für HTTP 5xx-Fehler in einem bestimmten Zeitraum**  

```
SELECT requestdatetime, key, httpstatus, errorcode, requestid, hostid 
FROM s3_access_logs_db.mybucket_logs
WHERE httpstatus like '5%' AND timestamp
BETWEEN '2024/01/29'
AND '2024/01/30'
```

**Anmerkung**  
Zur Reduzierung der Beibehaltungsdauer Ihrer Protokolle können Sie für Ihren Serverzugriffsprotokoll-Bucket eine S3-Lebenszykluskonfiguration erstellen. Erstellen Sie Lebenszykluskonfigurationsregeln, um Protokolldateien regelmäßig zu entfernen. Dadurch wird die Menge der Daten reduziert, die Athena in einer Abfrage analysiert. Weitere Informationen finden Sie unter [Einrichten einer S3-Lebenszykluskonfiguration für einen Bucket](how-to-set-lifecycle-configuration-intro.md).

## Identifizieren von Signature-Version-2-Anforderungen mittels Amazon-S3-Zugriffsprotokollen
<a name="using-s3-access-logs-to-identify-sigv2-requests"></a>

Die Amazon-S3-Unterstützung für Signature Version 2 wird deaktiviert (veraltet). Danach akzeptiert Amazon S3 keine Anforderungen mit Signature Version 2 mehr, alle Anforderungen müssen also mit *Signature Version 4* signiert werden. Sie können Signature-Version-2-Zugriffsanforderungen mittels Amazon-S3-Zugriffsprotokollen identifizieren. 

**Anmerkung**  
Um Signature Version 2-Anfragen zu identifizieren, empfehlen wir, AWS CloudTrail Datenereignisse anstelle von Amazon S3 S3-Serverzugriffsprotokollen zu verwenden. CloudTrail Datenereignisse sind einfacher einzurichten und enthalten mehr Informationen als Serverzugriffsprotokolle. Weitere Informationen finden Sie unter [Identifizieren von Amazon S3 Signature Version 2-Anfragen mithilfe von CloudTrail](cloudtrail-request-identification.md#cloudtrail-identification-sigv2-requests).

**Example – Anzeigen aller Anforderer, die Signature Version 2-Datenverkehr senden**  

```
SELECT requester, sigv, Count(sigv) as sigcount 
FROM s3_access_logs_db.mybucket_logs
GROUP BY requester, sigv;
```

## Identifizieren von Objektzugriffsanforderungen mittels Amazon-S3-Zugriffsprotokollen
<a name="using-s3-access-logs-to-identify-objects-access"></a>

Sie können Abfragen an Amazon-S3-Server-Zugriffsprotokolle verwenden, um Amazon-S3-Objektzugriffsanforderungen für Vorgänge zu identifizieren, wie etwa `GET`, `PUT` und `DELETE`, und weitere Informationen über diese Anforderungen zu entdecken.

Das folgende Amazon-Athena-Abfragebeispiel zeigt, wie Sie alle `PUT`-Objektanforderungen für Amazon S3 aus einem Serverzugriffsprotokoll abrufen können. 

**Example – Anzeigen aller Anforderer, die `PUT`-Objektanforderungen in einem bestimmten Zeitraum senden**  

```
SELECT bucket_name, requester, remoteip, key, httpstatus, errorcode, requestdatetime
FROM s3_access_logs_db.mybucket_logs
WHERE operation='REST.PUT.OBJECT' 
AND parse_datetime(requestdatetime,'dd/MMM/yyyy:HH:mm:ss Z') 
BETWEEN parse_datetime('2019-07-01:00:42:42',yyyy-MM-dd:HH:mm:ss')
AND parse_datetime('2019-07-02:00:42:42','yyyy-MM-dd:HH:mm:ss')
```

Das folgende Amazon Athena-Abfragebeispiel zeigt, wie alle `GET`-Objektanfragen für Amazon S3 aus dem Server-Zugriffsprotokoll abgerufen werden. 

**Example – Anzeigen aller Anforderer, die `GET`-Objektanforderungen in einem bestimmten Zeitraum senden**  

```
SELECT bucket_name, requester, remoteip, key, httpstatus, errorcode, requestdatetime
FROM s3_access_logs_db.mybucket_logs
WHERE operation='REST.GET.OBJECT' 
AND parse_datetime(requestdatetime,'dd/MMM/yyyy:HH:mm:ss Z') 
BETWEEN parse_datetime('2019-07-01:00:42:42','yyyy-MM-dd:HH:mm:ss')
AND parse_datetime('2019-07-02:00:42:42','yyyy-MM-dd:HH:mm:ss')
```

Das folgende Amazon Athena-Abfragebeispiel zeigt, wie alle anonymen Anforderungen aus dem Server-Zugriffsprotokoll in Ihre S3-Buckets gelangen. 

**Example – Anzeigen aller anonymen Anforderer, die in einem bestimmten Zeitraum Anforderungen an einen Bucket richten**  

```
SELECT bucket_name, requester, remoteip, key, httpstatus, errorcode, requestdatetime
FROM s3_access_logs_db.mybucket_logs
WHERE requester IS NULL 
AND parse_datetime(requestdatetime,'dd/MMM/yyyy:HH:mm:ss Z') 
BETWEEN parse_datetime('2019-07-01:00:42:42','yyyy-MM-dd:HH:mm:ss')
AND parse_datetime('2019-07-02:00:42:42','yyyy-MM-dd:HH:mm:ss')
```

Die folgende Amazon-Athena-Abfrage zeigt, wie alle Anforderungen für Ihre S3-Buckets identifiziert werden, für die eine Zugriffssteuerungsliste (ACL) zur Autorisierung erforderlich war. Sie können diese Informationen verwenden, um diese ACL-Berechtigungen in die entsprechenden Bucket-Richtlinien zu migrieren und zu deaktivieren ACLs. Nachdem Sie diese Bucket-Richtlinien erstellt haben, können Sie sie ACLs für diese Buckets deaktivieren. Weitere Informationen zur Deaktivierung ACLs finden Sie unter. [Voraussetzungen für die Deaktivierung ACLs](object-ownership-migrating-acls-prerequisites.md) 

**Example – Identifizieren Sie alle Anforderungen, für die eine ACL zur Autorisierung erforderlich war**  

```
SELECT bucket_name, requester, key, operation, aclrequired, requestdatetime
FROM s3_access_logs_db.mybucket_logs
WHERE aclrequired = 'Yes' 
AND parse_datetime(requestdatetime,'dd/MMM/yyyy:HH:mm:ss Z')
BETWEEN parse_datetime('2022-05-10:00:00:00','yyyy-MM-dd:HH:mm:ss')
AND parse_datetime('2022-08-10:00:00:00','yyyy-MM-dd:HH:mm:ss')
```

**Anmerkung**  
Sie können den Datumsbereich nach Belieben an Ihre Anforderungen anpassen.
Diese Abfragebeispiele können auch für die Sicherheitsüberwachung nützlich sein. Sie können die Ergebnisse auf `PutObject`- oder `GetObject`-Aufrufe von unerwarteten oder nicht autorisierten IP-Adressen oder Anforderern und zum Identifizieren anonymer Anforderungen an Ihre Buckets prüfen.
Diese Abfrage ruft nur Informationen von der Zeit ab, zu der die Protokollierung aktiviert wurde. 
Wenn Sie AWS CloudTrail Protokolle verwenden, finden Sie weitere Informationen unter[Identifizieren des Zugriffs auf S3-Objekte mithilfe von CloudTrail](cloudtrail-request-identification.md#cloudtrail-identification-object-access). 

# Behebung von Fehlern bei der Server-Zugriffsprotokollierung
<a name="troubleshooting-server-access-logging"></a>

Die folgenden Themen können Ihnen bei der Behebung von Problemen helfen, die beim Einrichten der Protokollierung mit Amazon S3 auftreten können.

**Topics**
+ [Häufige Fehlermeldungen beim Einrichten der Protokollierung](#common-errors)
+ [Behebung von Bereitstellungsfehlern](#delivery-failures)

## Häufige Fehlermeldungen beim Einrichten der Protokollierung
<a name="common-errors"></a>

Die folgenden häufigen Fehlermeldungen können auftreten, wenn Sie die Protokollierung über AWS Command Line Interface (AWS CLI) und aktivieren AWS SDKs: 

Fehler: S3-standortübergreifende Protokollierung nicht zulässig

Wenn sich der *Ziel-Bucket* in einer anderen Region als der Quell-Bucket befindet, tritt der Fehler S3-standortübergreifende Protokollierung nicht zulässig auf. Um diesen Fehler zu beheben, stellen Sie sicher, dass sich der Ziel-Bucket, der für den Empfang der Zugriffs-Logs konfiguriert ist, im selben AWS-Region und AWS-Konto wie der Quell-Bucket befindet.

Fehler: Die Eigentümer des zu protokollierenden Buckets und des Ziel-Buckets müssen identisch sein

Wenn Sie die Server-Zugriffsprotokollierung aktivieren, tritt dieser Fehler auf, wenn der angegebene Ziel-Bucket zu einem anderen Konto gehört. Um diesen Fehler zu beheben, stellen Sie sicher, dass sich der Ziel-Bucket im selben AWS-Konto wie der Quell-Bucket befindet.

**Anmerkung**  
Wir empfehlen, einen anderen Ziel-Bucket als den Quell-Bucket auszuwählen. Wenn Quell-Bucket und Ziel-Bucket identisch sind, werden für die Protokolle, die in den Bucket geschrieben werden, zusätzliche Protokolle erstellt, wodurch die Speicherkosten steigen können. Diese zusätzlichen Protokolle zu den Protokollen können es zudem schwierig machen, die gesuchten Protokolle zu finden. Zur einfacheren Protokollverwaltung empfehlen wir, Zugriffsprotokolle in einem anderen Bucket zu speichern. Weitere Informationen finden Sie unter [Wie aktiviere ich die Protokollzustellung?](ServerLogs.md#server-access-logging-overview).

Fehler: Der Ziel-Bucket für die Protokollierung ist nicht vorhanden

Der Ziel-Bucket muss vorhanden sein, bevor die Konfiguration festgelegt wird. Dieser Fehler weist darauf hin, dass der Ziel-Bucket nicht vorhanden ist oder nicht gefunden werden kann. Vergewissern Sie sich, dass der Bucket-Name richtig geschrieben ist, und wiederholen Sie den Vorgang.

Fehler: Ziel-Erteilungen sind für Buckets mit „Bucket-Eigentümer erzwungen“ nicht zulässig

Dieser Fehler weist darauf hin, dass der Ziel-Bucket die Einstellung „Vom Bucket-Eigentümer erzwungen“ für die S3-Objekt-Eigentümerschaft verwendet. Die Einstellung „Vom Bucket-Eigentümer erzwungen“ unterstützt keine Ziel-Erteilungen. Weitere Informationen finden Sie unter [Berechtigungen für Protokollbereitstellung](enable-server-access-logging.md#grant-log-delivery-permissions-general).

## Behebung von Bereitstellungsfehlern
<a name="delivery-failures"></a>

Halten Sie sich an die folgenden bewährten Methoden, um Probleme mit der Server-Zugriffsprotokollierung zu vermeiden:
+ **Die S3-Protokollbereitstellungsgruppe hat Schreibzugriff auf den Ziel-Bucket** – Die S3-Protokollbereitstellungsgruppe liefert Serverzugriffsprotokolle an den Ziel-Bucket. Es kann eine Bucket-Richtlinie oder eine Bucket-Zugriffssteuerungsliste (ACL) verwendet werden, um Schreibzugriff auf den Ziel-Bucket zu gewähren. Wir empfehlen jedoch, eine Bucket-Richtlinie anstelle einer ACL zu verwenden. Weitere Informationen zum Gewähren von Schreibzugriff für Ihren Ziel-Bucket finden Sie unter [Berechtigungen für Protokollbereitstellung](enable-server-access-logging.md#grant-log-delivery-permissions-general).
**Anmerkung**  
Wenn der Ziel-Bucket die Einstellung „Vom Bucket-Eigentümer erzwungen“ für die Objekt-Eigentümerschaft verwendet, beachten Sie Folgendes:   
ACLs sind deaktiviert und wirken sich nicht mehr auf die Berechtigungen aus. Somit können Sie Ihre Bucket-ACL nicht aktualisieren, um Zugriff auf die S3-Protokollbereitstellungsgruppe zu gewähren. Sie müssen vielmehr die Bucket-Richtlinie für den Ziel-Bucket aktualisieren, um Zugriff auf den Prinzipal des Protokollierungsservices zu gewähren. 
Sie können keine Ziel-Erteilungen in Ihre `PutBucketLogging`-Konfiguration einschließen. 
+ **Die Bucket-Richtlinie für den Ziel-Bucket lässt den Zugriff auf die Protokolle zu** – Überprüfen Sie die Bucket-Richtlinie des Ziel-Buckets. Suchen Sie in der Bucket-Richtlinie nach allen Anweisungen, die `"Effect": "Deny"` enthalten. Stellen Sie anschließend sicher, dass die `Deny`-Anweisung das Schreiben von Zugriffsprotokollen in den Bucket nicht verhindert.
+ **S3 Object Lock ist auf dem Ziel-Bucket nicht aktiviert** – Prüfen Sie, ob Object Lock für den Ziel-Bucket aktiviert ist. Die Objektsperre blockiert die Bereitstellung von Server-Zugriffsprotokollen. Sie müssen einen Ziel-Bucket auswählen, für den Object Lock nicht aktiviert ist.
+ **Von Amazon S3 verwaltete Schlüssel (SSE-S3) sind ausgewählt, wenn die Standardverschlüsselung auf dem Ziel-Bucket aktiviert ist** – Sie können die Bucket-Standardverschlüsselung nur für den Ziel-Bucket verwenden, wenn Sie die serverseitige Verschlüsselung mit von Amazon S3 verwalteten Schlüsseln (SSE-S3) verwenden. Die serverseitige Standardverschlüsselung mit AWS Key Management Service (AWS KMS) -Schlüsseln (SSE-KMS) wird für Ziel-Buckets zur Serverzugriffsprotokollierung nicht unterstützt. Weitere Informationen zum Aktivieren der Standardverschlüsselung finden Sie unter [Konfigurieren der Standardverschlüsselung](default-bucket-encryption.md).
+ **Für den Ziel-Bucket ist „Zahlung durch den Anforderer“ nicht aktiviert** – Die Verwendung eines Buckets mit „Zahlung durch den Anforderer“ als Ziel-Bucket für die Server-Zugriffsprotokollierung wird nicht unterstützt. Um die Bereitstellung von Serverzugriffsprotokollen zu ermöglichen, deaktivieren Sie die Option „Zahlung durch den Anforderer“ im Ziel-Bucket.
+ **Überprüfen Sie Ihre AWS Organizations Service Control Policies (SCPs) und Resource Control Policies (RCPs)** — Überprüfen Sie bei der Nutzung die Service Control Policies und Resource Control Policies AWS Organizations, um sicherzustellen, dass der Amazon S3 S3-Zugriff erlaubt ist. Diese Richtlinien geben die maximalen Berechtigungen für Prinzipale und Ressourcen in den betroffenen Konten an. Suchen Sie in den Richtlinien nach Anweisungen, die `"Effect": "Deny"` enthalten, und stellen Sie sicher, dass `Deny`-Anweisungen das Schreiben von Zugriffsprotokollen in den Bucket nicht verhindern. Weitere Informationen finden Sie unter [Autorisierungsrichtlinien in AWS Organizations](https://docs.aws.amazon.com/organizations/latest/userguide/orgs_manage_policies_authorization_policies.html) im *AWS Organizations -Benutzerhandbuch*.
+ **Eine gewisse Zeit warten, bis die letzten Änderungen an der Protokollierungskonfiguration wirksam werden** – Die erstmalige Aktivierung der Server-Zugriffsprotokollierung oder die Änderung des Ziel-Buckets für Protokolle wird erst nach einer gewissen Zeit vollständig wirksam. Es kann über eine Stunde dauern, bis alle Anforderungen ordnungsgemäß protokolliert und übermittelt wurden. 

  Um nach Protokollzustellungsfehlern zu suchen, aktivieren Sie Anforderungsmetriken in Amazon CloudWatch. Wenn die Protokolle nicht innerhalb weniger Stunden bereitgestellt werden, suchen Sie nach der Metrik `4xxErrors`, die auf Protokollbereitstellungsfehler hinweisen kann. Weitere Informationen zur Aktivierung von Anforderungsmetriken finden Sie unter [Erstellen einer CloudWatch Metrikkonfiguration für alle Objekte in Ihrem Bucket](configure-request-metrics-bucket.md).

# Metriken mit Amazon überwachen CloudWatch
<a name="cloudwatch-monitoring"></a>

 CloudWatch Amazon-Metriken für Amazon S3 können Ihnen helfen, die Leistung von Anwendungen, die Amazon S3 verwenden, zu verstehen und zu verbessern. Es gibt mehrere Möglichkeiten, die Sie CloudWatch mit Amazon S3 verwenden können.

**Tägliche Speichermetriken für Buckets**  
Überwachen Sie den Bucket-Speicher mithilfe CloudWatch, der Speicherdaten von Amazon S3 sammelt und zu lesbaren, täglichen Messwerten verarbeitet. Diese Speichermetriken für Amazon S3 werden einmal pro Tag gemeldet und allen Kunden ohne zusätzliche Kosten zur Verfügung gestellt.

**Anforderungsmetriken**   
Überwachen von Amazon-S3-Anforderungen, um Probleme bei der Ausführung schnell zu identifizieren und zu beheben. Die Metriken stehen in 1-Minuten-Intervallen nach einer gewissen Latenz für die Verarbeitung zur Verfügung. Diese CloudWatch Metriken werden zum gleichen Tarif wie die CloudWatch benutzerdefinierten Amazon-Metriken in Rechnung gestellt. CloudWatch Preisinformationen finden Sie unter [ CloudWatch Amazon-Preise](https://aws.amazon.com/cloudwatch/pricing/). Weitere Informationen zum optionalen Erhalt dieser Metriken finden Sie unter [CloudWatch Metriken, Konfigurationen](metrics-configurations.md).  
Wenn die Anforderungsmetriken aktiviert sind, werden sie für alle Objekt-Vorgänge gemeldet. Standardmäßig stehen diese 1-Minuten-Metriken auf Ebene der Amazon-S3-Buckets zur Verfügung. Sie können auch einen Filter für die Metriken definieren, die mit einem gemeinsamen Präfix oder Objekt-Tag oder Zugriffspunkt erfasst wurden.  
+ **Zugriffspunkt** – Zugriffspunkte sind benannte Netzwerkendpunkte, die Buckets zugeordnet sind und vereinfachen die skalierbare Verwaltung des Datenzugriffs auf freigegebene Datensätze in S3. Mit dem Zugriffspunkt-Filter erhalten Sie Erkenntnisse in Ihre Zugriffspunkt-Nutzung. Weitere Hinweise zu Zugangspunkten finden Sie unter [Überwachen und Protokollieren von Zugriffspunkten](access-points-monitoring-logging.md).
+ **Präfix** – Obwohl das Amazon-S3-Datenmodell eine flache Struktur aufweist, können Sie die Hierarchie durch die Verwendung eines Präfixes inferieren. Ein Präfix ähnelt einem Verzeichnisnamen, mit dem Sie ähnliche Objekte in einem Bucket gruppieren können. Die S3-Konsole unterstützt Präfixe mit dem Ordnerkonzept. Wenn Sie nach dem Präfix filtern, werden Objekte mit demselben Präfix in die Metrik-Konfiguration aufgenommen. Weitere Informationen zu Präfixen finden Sie unter [Organisieren von Objekten mit Präfixen](using-prefixes.md). 
+ **Tag** – Tags sind Schlüssel-Wert-Namenspaare, die Sie Objekten hinzufügen können. Mit Markierungen können Sie Objekte einfacher finden und organisieren. Tags können auch als Filter für Metrikkonfigurationen verwendet werden, sodass nur Objekte mit diesen Tags in die Metrikkonfiguration aufgenommen werden. Weitere Informationen über Objekt-Markierungen finden Sie unter [Kategorisierung Ihrer Objekte mit Hilfe von Tags](object-tagging.md). 
Um diese Metriken an bestimmten Geschäftsanwendungen, Workflows oder internen Organisationen auszurichten, können Sie nach einem freigegebenen Präfix, einem Objekt-Tag oder einem Zugriffspunkt filtern. 

**Replikationsmetriken**  
Überwachen der Gesamtzahl der S3-API-Operationen mit ausstehender Replikation, der Gesamtgröße der Objekte mit ausstehender Replikation, der maximalen Replikationszeit in der Ziel- AWS-Region und der Gesamtzahl der Operationen, deren Replikation fehlgeschlagen ist. Replikationsregeln, bei denen S3-Replikationszeitkontrolle (S3 RTC) oder S3-Replikationsmetriken aktiviert sind, veröffentlichen Replikationsmetriken.   
Für weitere Informationen siehe [Überwachen der Replikation mit Metriken, Ereignisbenachrichtigungen und Status](replication-metrics.md) oder [Erfüllen der Compliance-Anforderungen durch eine Begrenzung der S3-Replikationszeit (S3 RTC)](replication-time-control.md).

**Metriken von Amazon S3 Storage Lens**  
Sie können die Nutzungs- und Aktivitätsmetriken von S3 Storage Lens CloudWatch auf Amazon veröffentlichen, um eine einheitliche Ansicht Ihres Betriebszustands in CloudWatch [Dashboards](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html) zu erstellen. S3-Storage-Lens-Metriken sind im `AWS/S3/Storage-Lens`-Namespace verfügbar. Die CloudWatch Veröffentlichungsoption ist für S3 Storage Lens-Dashboards verfügbar, die auf *erweiterte Metriken und* Empfehlungen aktualisiert wurden. Sie können die CloudWatch Veröffentlichungsoption für eine neue oder bestehende Dashboard-Konfiguration in S3 Storage Lens aktivieren.  
Weitere Informationen finden Sie unter [Überwachen Sie die Metriken von S3 Storage Lens in CloudWatch](storage_lens_view_metrics_cloudwatch.md).

Alle CloudWatch Statistiken werden für einen Zeitraum von 15 Monaten aufbewahrt, sodass Sie auf historische Informationen zugreifen und sich einen besseren Überblick über die Leistung Ihrer Webanwendung oder Ihres Dienstes verschaffen können. Weitere Informationen zu CloudWatch finden Sie unter [Was ist Amazon CloudWatch?](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) im * CloudWatch Amazon-Benutzerhandbuch*. Abhängig von Ihren Anwendungsfällen benötigen Sie möglicherweise einige zusätzliche Konfigurationen für Ihre CloudWatch Alarme. Sie können beispielsweise einen mathematischen Metrik-Ausdruck verwenden, um einen Alarm zu erzeugen. Weitere Informationen finden Sie unter [Verwenden von CloudWatch Metriken](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/working_with_metrics.html), [Verwenden von metrischen Berechnungen](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/using-metric-math.html), [Verwenden von CloudWatch Amazon-Alarmen](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/AlarmThatSendsEmail.html) und [Erstellen eines CloudWatch Alarms auf der Grundlage eines metrischen mathematischen Ausdrucks](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/AlarmThatSendsEmail.html) im * CloudWatch Amazon-Benutzerhandbuch*.

**Bereitstellung von CloudWatch Kennzahlen nach bestem Wissen**  
 CloudWatch Die Metriken werden nach bestem Wissen und Gewissen bereitgestellt. Die meisten Anfragen für ein Amazon S3 S3-Objekt mit Anforderungsmetriken führen dazu, dass ein Datenpunkt an gesendet wird CloudWatch.

Die Vollständigkeit und Rechtzeitigkeit der Metriken ist nicht garantiert. Der Datenpunkt für eine bestimmte Anforderung wird möglicherweise mit einem Zeitstempel zurückgegeben, der nach der tatsächlichen Anforderungsverarbeitung liegt. Der Datenpunkt kann sich um eine Minute verzögern, bevor er verfügbar ist CloudWatch, oder er wird möglicherweise gar nicht zugestellt. CloudWatch Anhand von Anforderungsmetriken erhalten Sie nahezu in Echtzeit eine Vorstellung von der Art des Datenverkehrs in Ihrem Bucket. Sie sind nicht als vollständige Abrechnung aller Anforderungen vorgesehen.

Aufgrund der Best-Effort-Natur dieser Funktion enthalten die im [Fakturierungs- und Kostenverwaltungs-Dashboard](https://console.aws.amazon.com/billing/home?#/) verfügbaren Berichte möglicherweise eine oder mehrere Zugriffsanforderungen, die nicht in den Bucket-Metriken angezeigt werden.

Weitere Informationen finden Sie unter den folgenden Themen.

**Topics**
+ [Metriken und Dimensionen](metrics-dimensions.md)
+ [Zugriff auf CloudWatch Metriken](cloudwatch-monitoring-accessing.md)
+ [CloudWatch Metriken, Konfigurationen](metrics-configurations.md)

# Metriken und Dimensionen
<a name="metrics-dimensions"></a>

Die Speichermetriken und Dimensionen, die Amazon S3 an Amazon sendet, CloudWatch sind in den folgenden Tabellen aufgeführt.

**Bereitstellung von CloudWatch Kennzahlen nach bestem Wissen**  
 CloudWatch Die Metriken werden nach bestem Wissen und Gewissen bereitgestellt. Die meisten Anfragen für ein Amazon S3 S3-Objekt mit Anforderungsmetriken führen dazu, dass ein Datenpunkt an gesendet wird CloudWatch.

Die Vollständigkeit und Rechtzeitigkeit der Metriken ist nicht garantiert. Der Datenpunkt für eine bestimmte Anforderung wird möglicherweise mit einem Zeitstempel zurückgegeben, der nach der tatsächlichen Anforderungsverarbeitung liegt. Der Datenpunkt kann sich um eine Minute verzögern, bevor er verfügbar ist CloudWatch, oder er wird möglicherweise gar nicht zugestellt. CloudWatch Anhand von Anforderungsmetriken erhalten Sie nahezu in Echtzeit eine Vorstellung von der Art des Datenverkehrs in Ihrem Bucket. Sie sind nicht als vollständige Abrechnung aller Anforderungen vorgesehen.

Aufgrund der Best-Effort-Natur dieser Funktion enthalten die im [Fakturierungs- und Kostenverwaltungs-Dashboard](https://console.aws.amazon.com/billing/home?#/) verfügbaren Berichte möglicherweise eine oder mehrere Zugriffsanforderungen, die nicht in den Bucket-Metriken angezeigt werden.

**Topics**
+ [Tägliche Amazon S3 S3-Speichermetriken für Buckets in CloudWatch](#s3-cloudwatch-metrics)
+ [Amazon S3 S3-Anforderungsmetriken in CloudWatch](#s3-request-cloudwatch-metrics)
+ [S3-Replikationsmetriken in CloudWatch](#s3-cloudwatch-replication-metrics)
+ [S3 Storage Lens-Metriken in CloudWatch](#storage-lens-metrics-cloudwatch-publish)
+ [Lambda-Anforderungsmetriken für S3-Objekte in CloudWatch](#olap-cloudwatch-metrics)
+ [Amazon S3 S3-Abmessungen in CloudWatch](#s3-cloudwatch-dimensions)
+ [Abmessungen der S3-Replikation in CloudWatch](#s3-replication-dimensions)
+ [Abmessungen der S3-Speicherlinse in CloudWatch](#storage-lens-dimensions)
+ [Abmessungen der Lambda-Anforderung von S3 Object in CloudWatch](#olap-dimensions)
+ [Amazon-S3-Nutzungsmetriken](#s3-service-quota-metrics)

## Tägliche Amazon S3 S3-Speichermetriken für Buckets in CloudWatch
<a name="s3-cloudwatch-metrics"></a>

Der `AWS/S3`-Namespace enthält die folgenden täglichen Speichermetriken für Buckets.


| Metrik | Description | 
| --- | --- | 
| BucketSizeBytes |  Die Datenmenge in Byte, die in einem Bucket in den folgenden Speicherklassen gespeichert wird:  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/metrics-dimensions.html) Dieser Wert wird berechnet, indem die Größe aller Objekte und Metadaten (wie Bucket-Namen) im Bucket (sowohl aktuelle als auch nicht aktuelle Objekte) summiert wird, einschließlich der Größe aller Teile für alle unvollständigen mehrteiligen Uploads in den Bucket   Die Speicherklasse S3 Express One Zone ist nur für Verzeichnis-Buckets verfügbar.  Gültige Speichertypfilter (siehe `StorageType`-Dimension):  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/metrics-dimensions.html) Einheiten: Byte Gültige Statistiken: Durchschnitt Weitere Informationen zu `StorageType`-Dimensionen finden Sie unter [Amazon S3 S3-Abmessungen in CloudWatch](#s3-cloudwatch-dimensions).  | 
| NumberOfObjects |  Die Gesamtzahl der Objekte für alle Speicherklassen, die in einem Bucket für allgemeine Zwecke gespeichert sind. Zur Berechnung dieses Werts werden alle aktuellen und nicht aktuellen Objekte im Bucket, alle Löschmarkierungen sowie die Gesamtanzahl der Teile sämtlicher unvollständiger mehrteiliger Uploads in den Bucket gezählt. Bei Verzeichnis-Buckets mit Objekten in der Speicherklasse S3 Express One Zone wird dieser Wert durch Zählen aller Objekte im Bucket berechnet, wobei unvollständige Multipart-Uploads in den Bucket nicht berücksichtigt werden. Gültige Speichertypfilter: nur `AllStorageTypes` (siehe `StorageType`-Dimension) Einheiten: Anzahl Gültige Statistiken: Durchschnitt  | 

## Amazon S3 S3-Anforderungsmetriken in CloudWatch
<a name="s3-request-cloudwatch-metrics"></a>

Der `AWS/S3`-Namespace enthält die folgenden Anforderungsmetriken. Zu diesen Metriken gehören nicht abrechnungsfähige Anforderungen (bei `GET`-Anforderungen von `CopyObject` und Replikation).


| Metrik | Beschreibung | 
| --- | --- | 
| AllRequests |  Die Gesamtanzahl von HTTP-Anfragen an einen Amazon-S3-Bucket, unabhängig vom Typ. Wenn Sie eine Metrikkonfiguration mit einem Filter verwenden, gibt diese Metrik nur die HTTP-Anfragen zurück, die den Filteranforderungen entsprechen. Einheiten: Anzahl Gültige Statistiken: Summe  | 
| GetRequests |  Die Gesamtanzahl von HTTP `GET`-Anforderungen an Objekte in einem Amazon-S3-Bucket. Das Auflisten von Vorgängen ist hierin nicht inbegriffen. Diese Metrik wird für die Quelle jeder `CopyObject`-Anforderung erhöht. Einheiten: Anzahl Gültige Statistiken: Summe  Paginierte, listenorientierte Anfragen, wie [https://docs.aws.amazon.com/AmazonS3/latest/API/mpUploadListMPUpload.html](https://docs.aws.amazon.com/AmazonS3/latest/API/mpUploadListMPUpload.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/mpUploadListParts.html](https://docs.aws.amazon.com/AmazonS3/latest/API/mpUploadListParts.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETVersion.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETVersion.html) und andere, werden in dieser Metrik nicht berücksichtigt.   | 
| PutRequests |  Die Gesamtanzahl von HTTP `PUT`-Anforderungen an Objekte in einem Amazon-S3-Bucket. Diese Metrik wird für das Ziel jeder `CopyObject`-Anforderung erhöht. Einheiten: Anzahl Gültige Statistiken: Summe  | 
| DeleteRequests |  Die Gesamtanzahl von HTTP `DELETE`-Anforderungen an Objekte in einem Amazon-S3-Bucket. Diese Metrik umfasst auch [https://docs.aws.amazon.com/AmazonS3/latest/API/multiobjectdeleteapi.html](https://docs.aws.amazon.com/AmazonS3/latest/API/multiobjectdeleteapi.html)-Anforderungen. Diese Metrik zeigt die Anzahl der gestellten Anfragen, nicht die Anzahl der gelöschten Objekte an. Einheiten: Anzahl Gültige Statistiken: Summe  | 
| HeadRequests |  Die Gesamtanzahl von HTTP `HEAD`-Anfragen an einen Amazon-S3-Bucket. Einheiten: Anzahl Gültige Statistiken: Summe  | 
| PostRequests |  Die Gesamtanzahl von HTTP `POST`-Anfragen an einen Amazon-S3-Bucket. Einheiten: Anzahl Gültige Statistiken: Summe  [https://docs.aws.amazon.com/AmazonS3/latest/API/multiobjectdeleteapi.html](https://docs.aws.amazon.com/AmazonS3/latest/API/multiobjectdeleteapi.html)- und [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectSELECTContent.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectSELECTContent.html)-Anforderungen sind in dieser Metrik nicht enthalten.    | 
| SelectRequests |  Die Gesamtanzahl von [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectSELECTContent.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectSELECTContent.html)-Amazon-S3-Anforderungen an Objekte in einem Amazon-S3-Bucket.  Einheiten: Anzahl Gültige Statistiken: Summe  | 
| SelectBytesScanned |  Die Anzahl der mit [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectSELECTContent.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectSELECTContent.html)-Amazon-S3-Anforderungen gescannten Daten in einem Amazon-S3-Bucket.   Einheiten: Byte  Gültige Statistiken: Durchschnitt (Byte pro Anforderung), Summe (Byte pro Zeitraum), Stichprobenanzahl, Min, Max (entspricht p100), beliebiges Perzentil zwischen p0,0 und p99,9  | 
| SelectBytesReturned |  Die Anzahl der mit [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectSELECTContent.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectSELECTContent.html)-Amazon-S3-Anforderungen in einem Amazon-S3-Bucket zurückgegebenen Daten.   Einheiten: Byte  Gültige Statistiken: Durchschnitt (Byte pro Anforderung), Summe (Byte pro Zeitraum), Stichprobenanzahl, Min, Max (entspricht p100), beliebiges Perzentil zwischen p0,0 und p99,9  | 
| ListRequests |  Die Gesamtanzahl von HTTP-Anforderungen zum Auflisten der Inhalte eines Buckets. Einheiten: Anzahl Gültige Statistiken: Summe  | 
| BytesDownloaded |  Anzahl der heruntergeladenen Bytes für Anfragen an einen Amazon-S3-Bucket, wobei die Antwort einen Textkörper enthält. Einheiten: Byte Gültige Statistiken: Durchschnitt (Byte pro Anforderung), Summe (Byte pro Zeitraum), Stichprobenanzahl, Min, Max (entspricht p100), beliebiges Perzentil zwischen p0,0 und p99,9  | 
| BytesUploaded |  Anzahl der hochgeladenen Bytes für Anfragen an einen Amazon-S3-Bucket, wobei die Antwort einen Textkörper enthält. Einheiten: Byte Gültige Statistiken: Durchschnitt (Byte pro Anforderung), Summe (Byte pro Zeitraum), Stichprobenanzahl, Min, Max (entspricht p100), beliebiges Perzentil zwischen p0,0 und p99,9  | 
| 4xxErrors |  Anzahl der HTTP-4*xx*-Client-Fehlerstatuscode-Anfragen an einen Amazon-S3-Bucket mit einem Wert von 0 oder 1. Die Durchschnittsstatistik zeigt die Fehlerrate und die Summenstatistik die Anzahl dieses Fehlertyps für den jeweiligen Zeitraum an. Einheiten: Anzahl Gültige Statistiken: Durchschnitt (Berichte pro Anforderung), Summe (Berichte pro Zeitraum), Min, Max, Stichprobenanzahl  | 
| 5xxErrors |  Anzahl der HTTP-5*xx*-Server-Fehlerstatuscode-Anfragen an einen Amazon-S3-Bucket mit einem Wert von 0 oder 1. Die Durchschnittsstatistik zeigt die Fehlerrate und die Summenstatistik die Anzahl dieses Fehlertyps für den jeweiligen Zeitraum an. Einheiten: Anzahl Gültige Statistiken: Durchschnitt (Berichte pro Anforderung), Summe (Berichte pro Zeitraum), Min, Max, Stichprobenanzahl  | 
| FirstByteLatency |  Zeit pro Anforderung vom Zeitpunkt des Eingangs der vollständigen Anfragen bei einem Amazon-S3-Bucket bis das Zurückgeben der Antwort beginnt. Einheiten: Millisekunden Gültige Statistiken: Durchschnitt, Summe, Min, Max (entspricht p100), Stichprobenanzahl, beliebiges Perzentil zwischen p0,0 und p100  | 
| TotalRequestLatency |  Zeit pro Anforderung vom Zeitpunkt des Eingangs des ersten Bytes bei einem Amazon-S3-Bucket bis zum Senden des letzten Bytes. Diese Metrik umfasst die erforderliche Zeit, um den Textkörper zu erhalten und den Antworttextkörper zu senden, welche nicht in `FirstByteLatency` enthalten ist. Einheiten: Millisekunden Gültige Statistiken: Durchschnitt, Summe, Min, Max (entspricht p100), Stichprobenanzahl, beliebiges Perzentil zwischen p0,0 und p100  | 

## S3-Replikationsmetriken in CloudWatch
<a name="s3-cloudwatch-replication-metrics"></a>

Sie können den Fortschritt der Replikation mit S3-Replikationsmetriken überwachen, indem Sie ausstehende Bytes, ausstehende Operationen und die Replikationslatenz nachverfolgen. Weitere Informationen finden Sie unter [Überwachen des Fortschritts mit Replikationsmetriken](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-metrics.html).

**Anmerkung**  
Sie können Alarme für Ihre Replikationsmetriken in Amazon aktivieren CloudWatch. Wenn Sie Alarme für Ihre Replikationsmetriken einrichten, stellen Sie das Feld **Missing data treatment (Behandlung fehlender Daten)** auf **Treat missing data as ignore (maintain the alarm state) (Fehlende Daten ignorieren) (Alarmstatus beibehalten)** ein.


| Metrik | Description | 
| --- | --- | 
| ReplicationLatency |  Die maximale Anzahl von Sekunden, um die das Replikationsziel hinter der Quelle AWS-Region für eine bestimmte Replikationsregel AWS-Region liegt.  Einheiten: Sekunden Gültige Statistiken: Max  | 
| BytesPendingReplication |  Die Gesamtanzahl der Bytes von Objekten, die für eine bestimmte Replikationsregel ausstehen. Einheiten: Byte Gültige Statistiken: Max  | 
| OperationsPendingReplication |  Die Anzahl der Vorgänge mit ausstehender Replikation für eine bestimmte Replikationsregel. Einheiten: Anzahl Gültige Statistiken: Max  | 
| OperationsFailedReplication |  Die Anzahl der Operationen, deren Replikation für eine bestimmte Replikationsregel fehlgeschlagen ist. Einheiten: Anzahl  Gültige Statistiken: Summe (Gesamtzahl der fehlgeschlagenen Operationen), Durchschnitt (Fehlerrate), Stichprobenanzahl (Gesamtzahl der Replikationsoperationen)  | 

## S3 Storage Lens-Metriken in CloudWatch
<a name="storage-lens-metrics-cloudwatch-publish"></a>

Sie können die Nutzungs- und Aktivitätsmetriken von S3 Storage Lens CloudWatch auf Amazon veröffentlichen, um eine einheitliche Ansicht Ihres Betriebszustands in [CloudWatchDashboards](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html) zu erstellen. S3 Storage Lens-Metriken werden im `AWS/S3/Storage-Lens` Namespace in veröffentlicht. CloudWatch Die CloudWatch Veröffentlichungsoption ist für S3 Storage Lens-Dashboards verfügbar, die auf erweiterte Metriken und Empfehlungen aktualisiert wurden.

Eine Liste der S3 Storage Lens-Metriken, die veröffentlicht wurden CloudWatch, finden Sie unter[Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md). Eine vollständige Liste der Dimensionen finden Sie unter [Dimensionen](storage-lens-cloudwatch-metrics-dimensions.md#storage-lens-cloudwatch-dimensions).

## Lambda-Anforderungsmetriken für S3-Objekte in CloudWatch
<a name="olap-cloudwatch-metrics"></a>

S3 Objekt Lambda enthält die folgenden Anforderungsmetriken.


| Metrik | Description | 
| --- | --- | 
| AllRequests |  Die Gesamtanzahl von HTTP-Anforderungen an einen Amazon-S3-Bucket mithilfe eines Object Lambda Access Point. Einheiten: Anzahl Gültige Statistiken: Summe  | 
| GetRequests |  Die Gesamtanzahl von HTTP-`GET`-Anforderungen für Objekte mithilfe eines Object Lambda Access Point. Diese Metrik umfasst keine Operationen zum Auflisten. Einheiten: Anzahl Gültige Statistiken: Summe  | 
| BytesUploaded |  Die Anzahl von Bytes, die mithilfe eines Object Lambda Access Point in einen Amazon-S3-Bucket hochgeladen wurden, wobei die Anforderung einen Textkörper enthält. Einheiten: Byte Gültige Statistiken: Durchschnitt (Byte pro Anforderung), Summe (Byte pro Zeitraum), Stichprobenanzahl, Min, Max (entspricht p100), beliebiges Perzentil zwischen p0,0 und p99,9  | 
| PostRequests |  Die Gesamtanzahl von HTTP-`POST`-Anfragen an einen Amazon-S3-Bucket mithilfe eines Object Lambda Access Point. Einheiten: Anzahl Gültige Statistiken: Summe  | 
| PutRequests |  Die Gesamtanzahl von HTTP-`PUT`-Anfragen für Objekte in einem Amazon-S3-Bucket mithilfe eines Object Lambda Access Point.  Einheiten: Anzahl  Gültige Statistiken: Summe  | 
| DeleteRequests |  Die Gesamtanzahl von HTTP-`DELETE`-Anfragen für Objekte in einem Amazon-S3-Bucket mithilfe eines Object Lambda Access Point. Diese Metrik beinhaltet [https://docs.aws.amazon.com/AmazonS3/latest/API/multiobjectdeleteapi.html](https://docs.aws.amazon.com/AmazonS3/latest/API/multiobjectdeleteapi.html)-Anfragen. Diese Metrik zeigt die Anzahl der gestellten Anfragen, nicht die Anzahl der gelöschten Objekte an. Einheiten: Anzahl Gültige Statistiken: Summe  | 
| BytesDownloaded |  Die Anzahl der heruntergeladenen Bytes für Anforderungen an einen Amazon-S3-Bucket mithilfe eines Object Lambda Access Point, wobei die Antwort einen Textkörper enthält Einheiten: Byte  Gültige Statistiken: Durchschnitt (Byte pro Anforderung), Summe (Byte pro Zeitraum), Stichprobenanzahl, Min, Max (entspricht p100), beliebiges Perzentil zwischen p0,0 und p99,9  | 
| FirstByteLatency |  Zeit pro Anforderung vom Zeitpunkt des Eingangs der vollständigen Anfragen bei einem Amazon-S3-Bucket über einen Object Lambda Access Point bis zum Beginn des Zurückgebens der Antwort. Diese Metrik hängt von der Laufzeit der AWS Lambda -Funktion zum Transformieren des Objekts ab, bevor die Funktion die Bytes an den Object Lambda Access Point zurückgibt. Einheiten: Millisekunden  Gültige Statistiken: Durchschnitt, Summe, Min, Max (entspricht p100), Stichprobenanzahl, beliebiges Perzentil zwischen p0,0 und p100  | 
| TotalRequestLatency |  Zeit pro Anforderung vom Zeitpunkt des Eingangs des ersten Bytes bis zum Senden des letzten Bytes an einen Object Lambda Access Point. Diese Metrik umfasst die erforderliche Zeit, um den Textkörper zu erhalten und den Antworttextkörper zu senden, welche nicht in `FirstByteLatency` enthalten ist. Einheiten: Millisekunden Gültige Statistiken: Durchschnitt, Summe, Min, Max (entspricht p100), Stichprobenanzahl, beliebiges Perzentil zwischen p0,0 und p100  | 
| HeadRequests |  Die Gesamtanzahl von HTTP-`HEAD`-Anfragen an einen Amazon-S3-Bucket mithilfe eines Object Lambda Access Point. Einheiten: Anzahl Gültige Statistiken: Summe  | 
| ListRequests |  Die Gesamtanzahl von HTTP-`GET`-Anforderungen zum Auflisten der Inhalte eines Amazon-S3-Buckets. Diese Metrik enthält sowohl `ListObjects`- als auch `ListObjectsV2`-Operationen. Einheiten: Anzahl Gültige Statistiken: Summe  | 
| 4xxErrors |  Die Anzahl der HTTP-4*xx*-Client-Fehlerstatuscode-Anforderungen an einen Amazon-S3-Bucket mithilfe eines Object Lambda Access Point mit dem Wert 0 oder 1. Die Durchschnittsstatistik zeigt die Fehlerrate und die Summenstatistik die Anzahl dieses Fehlertyps für den jeweiligen Zeitraum an. Einheiten: Anzahl  Gültige Statistiken: Durchschnitt (Berichte pro Anforderung), Summe (Berichte pro Zeitraum), Min, Max, Stichprobenanzahl  | 
| 5xxErrors |  Die Anzahl der HTTP-5*xx-*Server-Fehlerstatuscode-Anforderungen an einen Amazon-S3-Bucket mithilfe eines Object Lambda Access Point mit dem Wert 0 oder 1. Die Durchschnittsstatistik zeigt die Fehlerrate und die Summenstatistik die Anzahl dieses Fehlertyps für den jeweiligen Zeitraum an. Einheiten: Anzahl  Gültige Statistiken: Durchschnitt (Berichte pro Anforderung), Summe (Berichte pro Zeitraum), Min, Max, Stichprobenanzahl  | 
| ProxiedRequests |  Die Anzahl der HTTP-Anforderungen an einen Object Lambda Access Point, die die standardmäßige Amazon-S3-API-Antwort zurückgeben. (Für solche Anforderungen ist keine Lambda-Funktion konfiguriert.) Einheiten: Anzahl Gültige Statistiken: Summe  | 
| InvokedLambda |  Die Anzahl der HTTP-Anforderungen an ein S3-Objekt, bei denen eine Lambda-Funktion aufgerufen wurde. Einheiten: Anzahl Gültige Statistiken: Summe  | 
| LambdaResponseRequests |  Die Anzahl von `WriteGetObjectResponse`-Anforderungen, die von der Lambda-Funktion gestellt wurden. Diese Metrik gilt nur für `GetObject`-Anforderungen.  | 
| LambdaResponse4xx |  Die Anzahl der HTTP-4*xx-*Client-Fehler, die beim Aufrufen von `WriteGetObjectResponse` von einer Lambda-Funktion auftreten. Diese Metrik liefert dieselben Informationen wie `4xxErrors`, jedoch nur für `WriteGetObjectResponse`-Aufrufe.  | 
| LambdaResponse5xx |  Die Anzahl der HTTP-5*xx*-Server-Fehler, die beim Aufrufen von `WriteGetObjectResponse` von einer Lambda-Funktion auftreten. Diese Metrik liefert dieselben Informationen wie `5xxErrors`, jedoch nur für `WriteGetObjectResponse`-Aufrufe.  | 

## Amazon S3 S3-Abmessungen in CloudWatch
<a name="s3-cloudwatch-dimensions"></a>

Die nachstehenden Dimensionen werden verwendet, um Amazon-S3-Metriken zu filtern.


|  Dimension  |  Description  | 
| --- | --- | 
|  BucketName  |  Diese Dimension filtert die angeforderten Daten nur für den identifizierten Bucket.  | 
|  StorageType  |  Diese Dimension filtert die Daten, die Sie in einem Bucket gespeichert haben, nach den folgenden Speichertypen:  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/metrics-dimensions.html)  | 
| FilterId | Diese Dimension filtert Metrikkonfigurationen, die Sie für Anforderungsmetriken für einen Bucket angeben. Wenn Sie eine Metrikkonfiguration erstellen, geben Sie eine Filter-ID an (z. B. ein Präfix, ein Tag oder einen Zugriffspunkt). Weitere Informationen finden Sie unter [Erstellen einer Metrik-Konfiguration](https://docs.aws.amazon.com/AmazonS3/latest/userguide/metrics-configurations.html). | 

## Abmessungen der S3-Replikation in CloudWatch
<a name="s3-replication-dimensions"></a>

Die nachstehenden Dimensionen werden verwendet, um S3-Replication-Metriken zu filtern.


|  Dimension  |  Description  | 
| --- | --- | 
|  SourceBucket  |  Der Name des Buckets, aus dem Objekte repliziert werden.  | 
|  DestinationBucket  |  Der Name des Buckets, in den Objekte repliziert werden.  | 
|  RuleId  |  Ein eindeutige Kennung für die Regel, die die Aktualisierung dieser Replikationsmetrik ausgelöst hat.  | 

## Abmessungen der S3-Speicherlinse in CloudWatch
<a name="storage-lens-dimensions"></a>

Eine Liste der Dimensionen, die zum Filtern von S3 Storage Lens-Metriken verwendet werden CloudWatch, finden Sie unter[Dimensionen](storage-lens-cloudwatch-metrics-dimensions.md#storage-lens-cloudwatch-dimensions).

## Abmessungen der Lambda-Anforderung von S3 Object in CloudWatch
<a name="olap-dimensions"></a>

Die folgenden Dimensionen werden verwendet, um Daten aus einem Object Lambda Access Point zu filtern.


| Dimension | Description | 
| --- | --- | 
| AccessPointName |  Der Name des Zugriffspunkts, von dem Anforderungen gestellt werden.  | 
| DataSourceARN |  Die Quelle, aus der der Object Lambda Access Point die Daten abruft. Wenn die Anforderung eine Lambda-Funktion aufruft, bezieht sich dies auf den Lambda-Amazon-Ressourcennamen (ARN). Ansonsten bezieht sich dies auf den ARN des Zugriffspunkts.  | 

## Amazon-S3-Nutzungsmetriken
<a name="s3-service-quota-metrics"></a>

Sie können CloudWatch Nutzungsmetriken verwenden, um einen Überblick über die Ressourcennutzung Ihres Kontos zu erhalten. Verwenden Sie diese Metriken, um Ihre aktuelle Servicenutzung in CloudWatch Diagrammen und Dashboards zu visualisieren.

Die Nutzungsmetriken von Amazon S3 entsprechen den AWS Servicekontingenten. Sie können Alarme konfigurieren, mit denen Sie benachrichtigt werden, wenn sich Ihre Nutzung einem Servicekontingent nähert. Weitere Informationen zur CloudWatch Integration mit Servicekontingenten finden Sie unter [AWS Nutzungsmetriken](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Service-Quota-Integration.html) im * CloudWatch Amazon-Benutzerhandbuch*.

Amazon S3 veröffentlicht die folgenden Metriken im Namespace `AWS/Usage`.


| Metrik | Beschreibung | 
| --- | --- | 
| `ResourceCount` |  Die Anzahl der angegebenen Ressourcen, die in Ihrem Konto ausgeführt werden. Die Ressourcen werden durch die Dimensionen definiert, die der Metrik zugeordnet sind.  | 

Die folgenden Dimensionen werden verwendet, um die von Amazon S3 veröffentlichten Nutzungsmetriken zu verfeinern.


| Dimension | Description | 
| --- | --- | 
|  Service  |  Der Name des AWS Dienstes, der die Ressource enthält. Für Amazon-S3-Nutzungsmetriken lautet der Wert für diese Dimension `S3`.  | 
|  Type  |  Der Typ von Entität, die gemeldet wird. Derzeit ist der einzige gültige Wert für Amazon-S3-Nutzungsmetriken `Resource`.  | 
|  Resource  |  Der Typ der Ressource, die ausgeführt wird. Derzeit ist der einzige gültige Wert für Amazon-S3-Nutzungsmetriken `GeneralPurposeBuckets`, der die Anzahl der Buckets für allgemeine Zwecke in einem AWS-Konto zurückgibt. Allzweck-Buckets ermöglichen Objekte, die in allen Speicherklassen gespeichert werden, mit Ausnahme von S3 Express One Zone.  | 

# Zugriff auf CloudWatch Metriken
<a name="cloudwatch-monitoring-accessing"></a>

Sie können die folgenden Vorgehensweisen nutzen, um die Speichermetriken von Amazon S3 anzuzeigen. Damit Amazon-S3-Metriken berücksichtigt werden, müssen Sie Zeitstempel für Anfang und Ende angeben. Für Metriken für einen bestimmten 24-Stunden-Zeitraum setzen Sie das Zeitintervall auf 86400 Sekunden, die Anzahl der Sekunden eines Tages. Denken Sie daran, die Dimensionen `BucketName` und `StorageType` festzulegen.

## Mit dem AWS CLI
<a name="accessing-cw-metrics-cli"></a>

Wenn Sie beispielsweise den verwenden möchten, AWS CLI um den Durchschnitt der Größe eines bestimmten Buckets in Byte zu ermitteln, könnten Sie den folgenden Befehl verwenden:

```
aws cloudwatch get-metric-statistics --metric-name BucketSizeBytes --namespace AWS/S3 --start-time 2016-10-19T00:00:00Z --end-time 2016-10-20T00:00:00Z --statistics Average --unit Bytes --region us-west-2 --dimensions Name=BucketName,Value=amzn-s3-demo-bucket Name=StorageType,Value=StandardStorage --period 86400 --output json
```

Dieses Beispiel erzeugt die folgende Ausgabe.

```
{
    "Datapoints": [
        {
            "Timestamp": "2016-10-19T00:00:00Z", 
            "Average": 1025328.0, 
            "Unit": "Bytes"
        }
    ], 
    "Label": "BucketSizeBytes"
}
```

## Verwenden der S3-Konsole
<a name="accessing-cw-metrics-console"></a>

**So zeigen Sie Metriken mit der CloudWatch Amazon-Konsole an**

1. Öffnen Sie die CloudWatch Konsole unter [https://console.aws.amazon.com/cloudwatch/](https://console.aws.amazon.com/cloudwatch/).

1. Wählen Sie im linken Navigationsbereich **Metrics** (Metriken) aus. 

1. Wählen Sie den Namespace **S3** aus.

1. (Optional) Um eine Metrik anzuzeigen, geben Sie den Metriknamen in das Suchfeld ein.

1. (Optional) Um nach der **StorageType**Dimension zu filtern, geben Sie den Namen der Speicherklasse in das Suchfeld ein.

**Um eine Liste gültiger Messwerte anzuzeigen, die für Sie gespeichert AWS-Konto wurden, verwenden Sie AWS CLI**
+ Geben Sie als Eingabeaufforderung den folgenden Befehl ein.

  ```
  1. aws cloudwatch list-metrics --namespace "AWS/S3"
  ```

Weitere Informationen zu den für den Zugriff auf CloudWatch Dashboards erforderlichen Berechtigungen finden Sie unter [ CloudWatch Amazon-Dashboard-Berechtigungen](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/dashboard-permissions-update.html) im * CloudWatch Amazon-Benutzerhandbuch*.

# CloudWatch Metriken, Konfigurationen
<a name="metrics-configurations"></a>

Mit Amazon CloudWatch Request Metrics für Amazon S3 können Sie CloudWatch 1-Minuten-Metriken erhalten, CloudWatch Alarme einrichten und auf CloudWatch Dashboards zugreifen, um den near-real-time Betrieb und die Leistung Ihres Amazon S3 S3-Speichers zu überprüfen. Für Anwendungen, die von Cloud-Speicher abhängig sind, ermöglichen diese Metriken Ihnen, Betriebsprobleme schnell zu identifizieren und entsprechende Maßnahmen zu ergreifen. Wenn diese 1-Minuten-Metriken aktiviert sind, stehen sie standardmäßig auf Ebene der Amazon-S3-Buckets zur Verfügung.

Wenn Sie die CloudWatch Anforderungsmetriken für die Objekte in einem Bucket abrufen möchten, müssen Sie eine Metrikkonfiguration für den Bucket erstellen. Weitere Informationen finden Sie unter [Erstellen einer CloudWatch Metrikkonfiguration für alle Objekte in Ihrem Bucket](configure-request-metrics-bucket.md). 

Sie können auch ein freigegebenes Präfix, Objekt-Tags oder einen Zugriffspunkt verwenden, um einen Filter für die gesammelten Metriken zu definieren. Mit dieser Methode zum Definieren eines Filters können Sie also Metrikfilter an bestimmte Geschäftsanwendungen, Workflows oder interne Organisationen anpassen. Weitere Informationen finden Sie unter [Erstellen einer Metrik-Konfiguration, die nach dem Präfix, Objekt-Tag oder Zugriffspunkt filtert](metrics-configurations-filter.md). Weitere Informationen zu den verfügbaren CloudWatch-Metriken und den Unterschieden zwischen Speicher- und Anforderungsmetriken finden Sie unter [Metriken mit Amazon überwachen CloudWatch](cloudwatch-monitoring.md).

Berücksichtigen Sie bei Verwendung von Metrik-Konfigurationen Folgendes:
+ Sie können maximal 1 000 Metrik-Konfigurationen pro Bucket verwenden.
+ Unter Verwendung von Filtern können Sie wählen, welche Objekte in einem Bucket Metrik-Konfigurationen enthalten sollen. Sie können nach einem freigegebenen Präfix, Objekt-Tag oder Zugriffspunkt filtern, um Metrikfilter an bestimmte Geschäftsanwendungen, Workflows oder interne Organisationen auszurichten. Um Metriken für den gesamten Bucket anzufordern, erstellen Sie eine Metrik-Konfiguration ohne Filter.
+ Metrik-Konfigurationen sind nur erforderlich, um Anforderungsmetriken zu aktivieren. Tägliche Speichermetriken auf Bucket-Ebene sind immer aktiviert und werden allen Kunden ohne zusätzliche Kosten zur Verfügung gestellt. Derzeit ist es nicht möglich, tägliche Speichermetriken für eine gefilterte Untermenge von Objekten zu erhalten.
+ Jede Metrik-Konfiguration unterstützt den gesamten Satz [verfügbarer Anforderungsmetriken](metrics-dimensions.md#s3-request-cloudwatch-metrics). Operationsspezifische Metriken (z. B. `PostRequests`) werden nur gemeldet, wenn es Anforderungen dieses Typs für den Bucket oder Filter gibt.
+ Anforderungsmetriken werden für Vorgänge auf Objektebene gemeldet. Sie werden außerdem für Vorgänge gemeldet, die Bucket-Inhalte auflisten, beispielsweise [GET Bucket (List Objects)](https://docs.aws.amazon.com/AmazonS3/latest/API/v2-RESTBucketGET.html), [GET Bucket Object Versions](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETVersion.html) und [List Multipart Uploads](https://docs.aws.amazon.com/AmazonS3/latest/API/mpUploadListMPUpload.html), nicht jedoch für andere Operationen an Buckets.
+ Anforderungsmetriken unterstützen das Filtern mit Präfixen, Objekt-Tags oder Zugriffspunkten, Speichermetriken dagegen nicht.

**Bereitstellung von CloudWatch Metriken nach bestem Aufwand**  
 CloudWatch Die Metriken werden nach bestem Wissen und Gewissen bereitgestellt. Die meisten Anfragen für ein Amazon S3 S3-Objekt mit Anforderungsmetriken führen dazu, dass ein Datenpunkt an gesendet wird CloudWatch.

Die Vollständigkeit und Rechtzeitigkeit der Metriken ist nicht garantiert. Der Datenpunkt für eine bestimmte Anforderung wird möglicherweise mit einem Zeitstempel zurückgegeben, der nach der tatsächlichen Anforderungsverarbeitung liegt. Der Datenpunkt kann sich um eine Minute verzögern, bevor er verfügbar ist CloudWatch, oder er wird möglicherweise gar nicht zugestellt. CloudWatch Anhand von Anforderungsmetriken erhalten Sie nahezu in Echtzeit eine Vorstellung von der Art des Datenverkehrs in Ihrem Bucket. Sie sind nicht als vollständige Abrechnung aller Anforderungen vorgesehen.

Aufgrund der Best-Effort-Natur dieser Funktion enthalten die im [Fakturierungs- und Kostenverwaltungs-Dashboard](https://console.aws.amazon.com/billing/home?#/) verfügbaren Berichte möglicherweise eine oder mehrere Zugriffsanforderungen, die nicht in den Bucket-Metriken angezeigt werden.

Weitere Informationen zur Arbeit mit CloudWatch Metriken in Amazon S3 finden Sie in den folgenden Themen.

**Topics**
+ [Erstellen einer CloudWatch Metrikkonfiguration für alle Objekte in Ihrem Bucket](configure-request-metrics-bucket.md)
+ [Erstellen einer Metrik-Konfiguration, die nach dem Präfix, Objekt-Tag oder Zugriffspunkt filtert](metrics-configurations-filter.md)
+ [Löschen eines Metrikfilters](delete-request-metrics-filter.md)

# Erstellen einer CloudWatch Metrikkonfiguration für alle Objekte in Ihrem Bucket
<a name="configure-request-metrics-bucket"></a>

Wenn Sie Anforderungsmetriken konfigurieren, können Sie eine CloudWatch Metrikkonfiguration für alle Objekte in Ihrem Bucket erstellen oder nach Präfix, Objekt-Tag oder Access Point filtern. Die Verfahren in diesem Thema zeigen Ihnen, wie Sie eine Konfiguration für alle Objekte in Ihrem Bucket erstellen. Informationen zum Erstellen einer Konfiguration, die nach Objekt-Tag, Präfix oder Zugriffspunkt filtert, finden Sie unter [Erstellen einer Metrik-Konfiguration, die nach dem Präfix, Objekt-Tag oder Zugriffspunkt filtert](metrics-configurations-filter.md).

Es gibt drei Arten von CloudWatch Amazon-Metriken für Amazon S3: Speichermetriken, Anforderungsmetriken und Replikationsmetriken. Speichermetriken werden einmal pro Tag gemeldet und allen Kunden ohne zusätzliche Kosten zur Verfügung gestellt. Die Anforderungsmetriken sind in 1-Minuten-Intervallen nach einer gewissen Latenz für die Verarbeitung verfügbar. Anforderungsmetriken werden zum CloudWatch Standardtarif abgerechnet. Sie wählen Anforderungsmetriken aus, indem Sie diese in der Konsole konfigurieren oder die Amazon-S3-API verwenden. [S3-Replikationsmetriken](https://docs.aws.amazon.com/AmazonS3/latest/userguide/viewing-replication-metrics.html) enthalten detaillierte Metriken für die Replikationsregeln in Ihrer Replikationskonfiguration. Mithilfe von Replikationsmetriken können Sie den minute-by-minute Fortschritt überwachen, indem Sie ausstehende Byte, ausstehende Vorgänge, Operationen, bei denen die Replikation fehlgeschlagen ist, und die Replikationslatenz verfolgen.

Weitere Informationen zu CloudWatch Metriken für Amazon S3 finden Sie unter[Metriken mit Amazon überwachen CloudWatch](cloudwatch-monitoring.md). 

Sie können einem Bucket über die Amazon-S3-Konsole, mit der AWS Command Line Interface (AWS CLI) oder Amazon-S3-REST-API Metrik-Konfigurationen hinzufügen.

## Verwenden der S3-Konsole
<a name="configure-metrics"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus.

1. Wählen Sie in der Liste Buckets den Namen des Buckets mit den Objekte aus, für die Sie Anforderungsmetriken anfordern möchten.

1. Wählen Sie die Registerkarte **Metriken** aus.

1. Wählen Sie unter **Bucket metrics (Bucket-Metriken)** **View additional charts (Zusätzliche Diagramme anzeigen)** aus.

1. Wählen Sie den Tab **Request metrics** (Anforderungsmetriken).

1. Wählen Sie **Create Filter (Filter erstellen)**.

1. Geben Sie im Feld **Filter name (Filtername)** Ihren Filternamen ein. 

   Namen dürfen nur Buchstaben, Zahlen, Punkte, Bindestriche und Unterstriche enthalten. Wir empfehlen, den Namen `EntireBucket` für einen Filter zu verwenden, der für alle Objekte gilt.

1. Wählen Sie unter **Filter scope (Filterbereich)** die Option **This filter applies to all objects in the bucket (Dieser Filter gilt für alle Objekte im Bucket)**.

   Sie können auch einen Filter definieren, sodass die Metriken nur für eine Untermenge von Objekten im Bucket erfasst und gemeldet werden. Weitere Informationen finden Sie unter [Erstellen einer Metrik-Konfiguration, die nach dem Präfix, Objekt-Tag oder Zugriffspunkt filtert](metrics-configurations-filter.md).

1. Wählen Sie **Änderungen speichern ** aus.

1. Wählen Sie im Tab **Request metrics (Anforderungsmetriken)** unter **Filters (Filter)** den Filter aus, den Sie gerade erstellt haben.

   Nach etwa 15 Minuten CloudWatch beginnt die Erfassung dieser Anforderungsmetriken. Sie können sie im Tab **Request metrics (Anforderungsmetriken)** sehen. Sie können Diagramme für die Metriken auf Amazon S3 oder der CloudWatch Konsole sehen. Anforderungsmetriken werden zum CloudWatch Standardtarif in Rechnung gestellt. Weitere Informationen finden Sie unter [ CloudWatch Amazon-Preise](https://aws.amazon.com/cloudwatch/pricing/). 

## Verwenden der REST-API
<a name="metrics-configuration-api"></a>

Mit der Amazon-S3-REST-API können Sie Metrik-Konfigurationen programmgesteuert hinzufügen. Weitere Informationen zum Hinzufügen von und Arbeiten mit Metrik-Konfigurationen finden Sie in den folgenden Themen der *Amazon Simple Storage Service API Reference*:
+ [PUT Bucket metrics](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTMetricConfiguration.html)
+ [GET Bucket-Metrikkonfiguration](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETMetricConfiguration.html)
+ [List Bucket-Metrikkonfiguration](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTListBucketMetricsConfiguration.html)
+ [DELETE Bucket-Metrikkonfiguration](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTDeleteBucketMetricsConfiguration.html)

## Mit dem AWS CLI
<a name="add-metrics-configurations"></a>

1. Installieren und einrichten Sie das AWS CLI. Anleitungen finden Sie unter [Installieren, Aktualisieren und Deinstallieren der AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-set-up.html) im *AWS Command Line Interface -Benutzerhandbuch*.

1. Öffnen Sie ein Terminalfenster.

1. Führen Sie den folgenden Befehl aus, um eine Metrik-Konfiguration hinzuzufügen.

   ```
   aws s3api put-bucket-metrics-configuration --endpoint https://s3.us-west-2.amazonaws.com --bucket bucket-name --id metrics-config-id --metrics-configuration '{"Id":"metrics-config-id"}'
   ```

# Erstellen einer Metrik-Konfiguration, die nach dem Präfix, Objekt-Tag oder Zugriffspunkt filtert
<a name="metrics-configurations-filter"></a>

Es gibt drei Arten von CloudWatch Amazon-Metriken für Amazon S3: Speichermetriken, Anforderungsmetriken und Replikationsmetriken. Speichermetriken werden einmal pro Tag gemeldet und allen Kunden ohne zusätzliche Kosten zur Verfügung gestellt. Die Anforderungsmetriken sind in 1-Minuten-Intervallen nach einer gewissen Latenz für die Verarbeitung verfügbar. Anforderungsmetriken werden zum CloudWatch Standardtarif abgerechnet. Sie wählen Anforderungsmetriken aus, indem Sie diese in der Konsole konfigurieren oder die Amazon-S3-API verwenden. [S3-Replikationsmetriken](https://docs.aws.amazon.com/AmazonS3/latest/userguide/viewing-replication-metrics.html) enthalten detaillierte Metriken für die Replikationsregeln in Ihrer Replikationskonfiguration. Mithilfe von Replikationsmetriken können Sie den minute-by-minute Fortschritt überwachen, indem Sie ausstehende Byte, ausstehende Vorgänge, Operationen, bei denen die Replikation fehlgeschlagen ist, und die Replikationslatenz verfolgen.

Weitere Informationen zu CloudWatch Metriken für Amazon S3 finden Sie unter[Metriken mit Amazon überwachen CloudWatch](cloudwatch-monitoring.md). 

Wenn Sie CloudWatch Metriken konfigurieren, können Sie einen Filter für alle Objekte in Ihrem Bucket erstellen, oder Sie können die Konfiguration in Gruppen verwandter Objekte innerhalb eines einzelnen Buckets filtern. Sie können Objekte in einem Bucket zur Aufnahme in eine Metrik-Konfiguration abhängig von einem oder mehreren der folgenden Filtertypen filtern:
+ **Object key name prefix (Objekt-Schlüsselnamepräfix)** – Obwohl das Amazon-S3-Datenmodell eine flache Struktur aufweist, können Sie eine Hierarchie durch die Verwendung eines Präfixes inferieren. Die Amazon-S3-Konsole unterstützt diese Präfixe mit dem Ordnerkonzept. Wenn Sie nach dem Präfix filtern, werden Objekte mit demselben Präfix in die Metrik-Konfiguration aufgenommen. Weitere Informationen zu Präfixen finden Sie unter [Organisieren von Objekten mit Präfixen](using-prefixes.md). 
+ **Tag** – Sie können Objekten Markierungen hinzufügen, d. h. Schlüsselwert-Namenspaare. Mit Markierungen können Sie Objekte einfacher finden und organisieren. Markierungen können auch als Filter für Metrik-Konfigurationen verwendet werden. Weitere Informationen über Objekt-Markierungen finden Sie unter [Kategorisierung Ihrer Objekte mit Hilfe von Tags](object-tagging.md). 
+ **Zugriffspunkt** – S3-Zugriffspunkte sind benannte Netzwerkendpunkte, die Buckets zugeordnet sind und vereinfachen die skalierbare Verwaltung des Datenzugriffs auf freigegebene Datensätze in S3. Wenn Sie einen Zugriffspunkt-Filter erstellen, enthält Amazon S3 Anforderungen an den Zugriffspunkt, den Sie in der Metrikkonfiguration angeben. Weitere Informationen finden Sie unter [Überwachen und Protokollieren von Zugriffspunkten](access-points-monitoring-logging.md).
**Anmerkung**  
Wenn Sie eine Metrikkonfiguration erstellen, die nach Zugriffspunkt filtert, müssen Sie den Zugriffspunkt Amazon-Ressourcenname (ARN) und nicht den Zugriffspunkt-Alias verwenden. Stellen Sie sicher, dass Sie den ARN für den Zugriffspunkt selbst verwenden, nicht den ARN für ein bestimmtes Objekt. Weitere Informationen zum Access Point ARNs finden Sie unter[Verwenden von Amazon-S3-Zugangspunkten für Allzweck-Buckets](using-access-points.md).

Wenn Sie einen Filter angeben, können nur Anforderungen, die für einzelne Objekte ausgeführt werden, mit dem Filter übereinstimmen und in die gemeldeten Metriken aufgenommen werden. Anforderungen wie etwa [https://docs.aws.amazon.com/AmazonS3/latest/API/multiobjectdeleteapi.html](https://docs.aws.amazon.com/AmazonS3/latest/API/multiobjectdeleteapi.html) und `ListObjects` geben keine Metriken für Konfigurationen mit Filtern zurück.

Um ein komplexeres Filtern anzufordern, wählen Sie zwei oder mehr Elemente aus. Nur Objekte, die alle diese Elemente besitzen, werden in die Metrik-Konfiguration aufgenommen. Wenn Sie keine Filter setzen, werden alle Objekte aus dem Bucket in die Metrikenkonfiguration aufgenommen.

## Verwenden der S3-Konsole
<a name="configure-metrics-filter"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Allzweck Buckets**.

1. Wählen Sie in der Liste Buckets den Namen des Buckets mit den Objekte aus, für die Sie Anforderungsmetriken anfordern möchten.

1. Wählen Sie die Registerkarte **Metriken** aus.

1. Wählen Sie unter **Bucket metrics (Bucket-Metriken)** **View additional charts (Zusätzliche Diagramme anzeigen)** aus.

1. Wählen Sie den Tab **Request metrics** (Anforderungsmetriken).

1. Wählen Sie **Create Filter (Filter erstellen)**.

1. Geben Sie im Feld **Filter name (Filtername)** Ihren Filternamen ein. 

   Namen dürfen nur Buchstaben, Zahlen, Punkte, Bindestriche und Unterstriche enthalten.

1. Wählen Sie unter **Filterumfang** **Begrenzen Sie den Bereich dieses Filters mit einem Präfix, Objekt-Tags und einem S3-Zugriffspunkt oder einer Kombination aus allen drei**.

1. Wählen Sie unter **Filtertyp** mindestens einen Filtertyp aus: **Präfix**,**Objekt-Tags**, oder **Zugriffspunkt**.

1. Um einen Präfixfilter zu definieren und den Bereich des Filters auf einen einzelnen Pfad zu beschränken, geben Sie im Feld **Präfix** ein Präfix ein.

1. Um einen Objekt-Tags-Filter zu definieren, wählen Sie unter**Objekt-Tags** **Hinzufügen eines Tags**, und geben Sie dann ein Tag **Schlüssel** und **Wert** ein.

1. Um einen Zugriffspunktsfilter zu definieren, geben Sie im Feld **S3-Zugriffspunkt** den Zugriffspunkt-ARN ein, oder wählen Sie **S3 durchsuchen**, um zum Zugriffspunkt zu navigieren.
**Wichtig**  
Sie können keinen Zugriffspunkt-Alias eingeben. Sie müssen den ARN für den Zugriffspunkt selbst eingeben, nicht den ARN für ein bestimmtes Objekt.

1. Wählen Sie **Änderungen speichern ** aus.

   Amazon S3 erstellt einen Filter, der das Präfix, die Tags oder den Zugriffspunkt verwendet, den Sie angegeben haben.

1. Wählen Sie im Tab **Request metrics (Anforderungsmetriken)** unter **Filters (Filter)** den Filter aus, den Sie gerade erstellt haben.

   Sie haben nun einen Filter erstellt, der den Bereich der Anforderungsmetriken nach Präfix, Objekt-Tags oder Zugriffspunkt einschränkt. Ungefähr 15 Minuten nach CloudWatch Beginn der Verfolgung dieser Anforderungsmetriken können Sie Diagramme für die Metriken sowohl auf Amazon S3 als auch auf CloudWatch Konsolen sehen. Anforderungsmetriken werden zum CloudWatch Standardtarif abgerechnet. Weitere Informationen finden Sie unter [ CloudWatch Amazon-Preise](https://aws.amazon.com/cloudwatch/pricing/). 

   Sie können Anforderungsmetriken auch auf Bucket-Ebene konfigurieren. Weitere Informationen finden Sie unter [Erstellen einer CloudWatch Metrikkonfiguration für alle Objekte in Ihrem Bucket](configure-request-metrics-bucket.md).

## Mit dem AWS CLI
<a name="add-metrics-configurations"></a>

1. Installieren und einrichten Sie das AWS CLI. Anleitungen finden Sie unter [Installieren, Aktualisieren und Deinstallieren der AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-install.html) im *AWS Command Line Interface -Benutzerhandbuch*.

1. Öffnen Sie ein Terminalfenster.

1. Führen Sie einen der folgenden Befehle aus, um eine Metrik-Konfiguration hinzuzufügen:  
**Example : So filtern Sie nach Präfix**  

   ```
   aws s3api put-bucket-metrics-configuration --bucket amzn-s3-demo-bucket --id metrics-config-id --metrics-configuration '{"Id":"metrics-config-id", "Filter":{"Prefix":"prefix1"}} '
   ```  
**Example : So filtern Sie nach Tags**  

   ```
   aws s3api put-bucket-metrics-configuration --bucket amzn-s3-demo-bucket --id metrics-config-id --metrics-configuration '{"Id":"metrics-config-id", "Filter":{"Tag": {"Key": "string", "Value": "string"}} '
   ```  
**Example : So filtern Sie nach Zugriffspunkt**  

   ```
   aws s3api put-bucket-metrics-configuration --bucket amzn-s3-demo-bucket --id metrics-config-id --metrics-configuration '{"Id":"metrics-config-id", "Filter":{"AccessPointArn":"arn:aws:s3:Region:account-id:accesspoint/access-point-name"}} '
   ```  
**Example : So filtern Sie nach Präfix, Tags und Zugriffspunkt**  

   ```
   aws s3api put-bucket-metrics-configuration --endpoint https://s3.Region.amazonaws.com --bucket amzn-s3-demo-bucket --id metrics-config-id --metrics-configuration '
   {
       "Id": "metrics-config-id",
       "Filter": {
           "And": {
               "Prefix": "string",
               "Tags": [
                   {
                       "Key": "string",
                       "Value": "string"
                   }
               ],
               "AccessPointArn": "arn:aws:s3:Region:account-id:accesspoint/access-point-name"
           }
       }
   }'
   ```

## Verwenden der REST-API
<a name="configure-cw-filter-rest"></a>

Mit der Amazon-S3-REST-API können Sie Metrik-Konfigurationen programmgesteuert hinzufügen. Weitere Informationen zum Hinzufügen von und Arbeiten mit Metrik-Konfigurationen finden Sie in den folgenden Themen der *Amazon Simple Storage Service API Reference*:
+ [PUT Bucket metrics](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTMetricConfiguration.html)
+ [GET Bucket-Metrikkonfiguration](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETMetricConfiguration.html)
+ [List Bucket-Metrikkonfiguration](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTListBucketMetricsConfiguration.html)
+ [DELETE Bucket-Metrikkonfiguration](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTDeleteBucketMetricsConfiguration.html)

# Löschen eines Metrikfilters
<a name="delete-request-metrics-filter"></a>

Sie können einen CloudWatch Amazon-Anforderungsmetrikfilter löschen, wenn Sie ihn nicht mehr benötigen. Wenn Sie einen Filter löschen, werden Ihnen keine Anforderungsmetriken mehr berechnet, die diesen *spezifischen Filter* verwenden. Ihnen werden jedoch weiter alle anderen vorhandenen Filterkonfigurationen berechnet. 

Wenn Sie einen Filter löschen, können Sie den Filter nicht mehr für Anforderungsmetriken verwenden. Das Löschen eines Filters kann nicht rückgängig gemacht werden. 

Informationen zum Erstellen eines Anforderungsmetrikfilters finden Sie in den folgenden Themen:
+ [Erstellen einer CloudWatch Metrikkonfiguration für alle Objekte in Ihrem Bucket](configure-request-metrics-bucket.md)
+ [Erstellen einer Metrik-Konfiguration, die nach dem Präfix, Objekt-Tag oder Zugriffspunkt filtert](metrics-configurations-filter.md)

## Verwenden der S3-Konsole
<a name="delete-request-metrics-filter-console"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus.

1. Wählen Sie in der Bucket-Liste den Namen des Buckets aus, für den Sie einen Anforderungsmetrikfilter löschen möchten.

1. Wählen Sie die Registerkarte **Metriken** aus.

1. Wählen Sie unter **Bucket metrics (Bucket-Metriken)** **View additional charts (Zusätzliche Diagramme anzeigen)** aus.

1. Wählen Sie den Tab **Request metrics (Anforderungsmetriken)**.

1. Wählen Sie **Manage filters (Filter verwalten)**.

1. Wählen Sie Ihren Filter aus.
**Wichtig**  
Das Löschen eines Filters kann nicht rückgängig gemacht werden.

1. Wählen Sie **Löschen** aus.

   Amazon S3 löscht Ihren Filter.

## Verwenden der REST-API
<a name="delete-request-metrics-filter-rest"></a>

Mit der Amazon-S3-REST-API können Sie Metrik-Konfigurationen programmgesteuert hinzufügen. Weitere Informationen zum Hinzufügen von und Arbeiten mit Metrik-Konfigurationen finden Sie in den folgenden Themen der *Amazon Simple Storage Service API Reference*:
+ [PUT Bucket metrics](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTMetricConfiguration.html)
+ [GET Bucket-Metrikkonfiguration](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETMetricConfiguration.html)
+ [List Bucket-Metrikkonfiguration](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTListBucketMetricsConfiguration.html)
+ [DELETE Bucket-Metrikkonfiguration](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTDeleteBucketMetricsConfiguration.html)

# Amazon-S3-Ereignisbenachrichtigungen
<a name="EventNotifications"></a>

Sie können die Amazon-S3-Funktion für Ereignis-Benachrichtigungen verwenden, um Benachrichtigungen zu erhalten, wenn bestimmte Ereignisse in Ihrem S3-Bucket eintreten. Um Benachrichtigungen zu aktivieren, fügen Sie eine Benachrichtigungskonfiguration hinzu, die die Ereignisse angibt, die Amazon S3 veröffentlichen soll. Stellen Sie sicher, dass es auch die Ziele angibt, an die Amazon S3 die Benachrichtigungen senden soll. Sie speichern dieses Konfiguration in der einem Bucket zugeordneten *Benachrichtigung*-Unterressourcen. Weitere Informationen finden Sie unter [Konfigurationsoptionen für Allzweck-Buckets](UsingBucket.md#bucket-config-options-intro). Amazon S3 stellt eine API für Sie bereit, mit der Sie diese Subressource verwalten können. 

**Wichtig**  
Amazon-S3-Ereignis-Benachrichtigungen sind so konzipiert, dass sie mindestens einmal zugestellt werden. Ereignis-Benachrichtigungen stellen Ereignisse typischerweise in wenigen Sekunden bereit, manchmal kann dies aber auch eine Minute oder länger dauern. 

## Übersicht über Amazon-S3-Ereignis-Benachrichtigungen
<a name="notification-how-to-overview"></a>

Zurzeit kann Amazon S3 Benachrichtigungen für die folgenden Ereignisse veröffentlichen:
+ Neues Objekt erstellte Ereignisse
+ Ereignisse zum Entfernen von Objekten
+ Wiederherstellen von Objekt-Ereignissen
+ Ereignis für ein verlorenes RRS-Objekt (Reduced Redundancy Storage)
+ Replikationsereignisse
+ S3-Lebenszyklus-Ablaufereignisse
+ S3-Lebenszyklus-Übergangsereignisse
+ Aktivieren der automatischen S3-Intelligent-Tiering-Archivierung
+ Ereignismarkierungen von Objekten
+ PUT-Ereignisse der Objekt-ACL

Eine vollständige Beschreibung aller unterstützten Ereignistypen finden Sie unter [Unterstützte Ereignistypen für SQS, SNS und Lambda](notification-how-to-event-types-and-destinations.md#supported-notification-event-types). 

Amazon S3 kann Ereignis-Benachrichtigungsmeldungen an die folgenden Ziele senden. Sie spezifizieren den Wert des Amazon-Ressourcennamens (ARN) dieser Ziele in der Benachrichtigungskonfiguration.
+ Amazon Simple Notification Service (Amazon SNS)-Themen
+ Amazon Simple Queue Service (Amazon SQS)-Warteschlangen
+ AWS Lambda Funktion
+ Amazon EventBridge

Weitere Informationen finden Sie unter [Unterstützte Ereignisziele](notification-how-to-event-types-and-destinations.md#supported-notification-destinations).

**Anmerkung**  
FIFO-Warteschlangen (First-In-First-Out) von Amazon Simple Queue Service werden nicht als Ziel für Amazon-S3-Ereignisbenachrichtigungen unterstützt. Um eine Benachrichtigung für ein Amazon S3 S3-Ereignis an eine Amazon SQS SQS-FIFO-Warteschlange zu senden, können Sie Amazon verwenden. EventBridge Weitere Informationen finden Sie unter [Amazon aktivieren EventBridge](enable-event-notifications-eventbridge.md).

**Warnung**  
Wenn Ihre Benachrichtigung in den selben Bucket schreibt, der die Benachrichtigung auslöst, kann dies zu einer Ausführungsschleife führen. Wenn der Bucket z. B. eine Lambda-Funktion immer dann auslöst, wenn ein Objekt hochgeladen wird, und die Funktion ein Objekt in den Bucket hochlädt, löst sich die Funktion indirekt selbst aus. Um dies zu vermeiden, verwenden Sie zwei Buckets oder konfigurieren Sie den Auslöser so, dass er nur für einen Präfix gilt, der für eingehende Objekte verwendet wird.  
Weitere Informationen und ein Beispiel für die Verwendung von Amazon S3-Benachrichtigungen mit AWS Lambda finden Sie [unter AWS Lambda Using with Amazon S3](https://docs.aws.amazon.com/lambda/latest/dg/with-s3.html) im *AWS Lambda Developer Guide*. 

Weitere Informationen zur Anzahl der Konfigurationen für Ereignisbenachrichtigungen, die Sie pro Bucket erstellen können, finden Sie unter [Amazon-S3-Service-Quotas](https://docs.aws.amazon.com/general/latest/gr/s3.html#limits_s3) in der *Allgemeinen AWS -Referenz*.

Weitere Informationen zu Ereignis-Benachrichtigungen finden Sie in den folgenden Abschnitten.

**Topics**
+ [Übersicht über Amazon-S3-Ereignis-Benachrichtigungen](#notification-how-to-overview)
+ [Ereignis-Benachrichtigungstypen und -ziele](notification-how-to-event-types-and-destinations.md)
+ [Verwenden von Amazon SQS, Amazon SNS und Lambda](how-to-enable-disable-notification-intro.md)
+ [Verwenden EventBridge](EventBridge.md)

# Ereignis-Benachrichtigungstypen und -ziele
<a name="notification-how-to-event-types-and-destinations"></a>

Amazon S3 unterstützt verschiedene Arten von Ereignis-Benachrichtigungen und Ziele, wo die Benachrichtigungen veröffentlicht werden können. Sie können den Ereignistyp und das Ziel angeben, wenn Sie Ihre Ereignis-Benachrichtigungen konfigurieren. Für jede Ereignisbenachrichtigung kann nur ein Ziel angegeben werden. Amazon-S3-Ereignisbenachrichtigungen senden für jede Benachrichtigungsmeldung einen Ereigniseintrag.

**Topics**
+ [Unterstützte Ereignisziele](#supported-notification-destinations)
+ [Unterstützte Ereignistypen für SQS, SNS und Lambda](#supported-notification-event-types)
+ [Unterstützte Ereignistypen für Amazon EventBridge](#supported-notification-event-types-eventbridge)
+ [Ereignisreihenfolge und doppelte Ereignisse](#event-ordering-and-duplicate-events)

## Unterstützte Ereignisziele
<a name="supported-notification-destinations"></a>

Amazon S3 kann Ereignis-Benachrichtigungsmeldungen an die folgenden Ziele senden.
+ Amazon Simple Notification Service (Amazon SNS)-Themen
+ Amazon Simple Queue Service (Amazon SQS)-Warteschlangen
+ AWS Lambda
+ Amazon EventBridge

Für jede Ereignisbenachrichtigung kann jedoch nur ein Zieltyp angegeben werden.

**Anmerkung**  
Sie müssen Amazon S3 die Berechtigungen erteilen, Meldungen in einem Amazon SNS-Thema oder einer Amazon SQS-Warteschlange zu veröffentlichen. Sie müssen Amazon S3 außerdem die Erlaubnis erteilen, eine AWS Lambda Funktion in Ihrem Namen aufzurufen. Anweisungen zum Erteilen dieser Berechtigungen finden Sie unter [Erteilen von Berechtigungen zur Veröffentlichung von Ereignis-Benachrichtigungsmeldungen an einem Ziel](grant-destinations-permissions-to-s3.md). 

### Amazon-SNS-Thema
<a name="amazon-sns-topic"></a>

Amazon SNS ist ein flexibler, vollständig verwalteter Push-Messaging-Service. Sie können diesen Dienst verwenden, um Nachrichten an mobile Geräte oder verteilte Services zu senden. Mit SNS , können Sie eine Nachricht einmal veröffentlichen und ein- oder mehrmals übermitteln. Derzeit ist nur ,Standard-SNS als S3-Ereignis-Benachrichtigungsziel zulässig, während SNS FIFO nicht zulässig ist.

Amazon SNS koordiniert und verwaltet das Senden und Zustellen von Nachrichten an abonnierte Endpunkte oder Clients. Sie können mit der Amazon SNS-Konsole ein Amazon SNS-Thema erstellen, an das Ihre Benachrichtigungen gesendet werden können. 

Das Thema muss sich in demselben Bereich AWS-Region wie Ihr Amazon S3 S3-Bucket befinden. Anweisungen zum Erstellen eines Amazon-SNS-Themas finden Sie unter [Erste Schritte mit Amazon SNS](https://docs.aws.amazon.com/sns/latest/dg/sns-getting-started.html) im *Entwicklerhandbuch zu Amazon Simple Notification Service* und in den [Häufig gestellten Fragen zu Amazon SNS](https://aws.amazon.com/sns/faqs/).

Damit Sie das Amazon SNS-Thema nutzen können, das Sie als Ereignis-Benachrichtigungsziel erstellen, brauchen Sie Folgendes:
+ Den Amazon-Ressourcennamen (ARN) für das Amazon SNS-Thema
+ Ein gültiges Amazon-SNS-Themen-Abonnement. Damit werden Themenabonnenten benachrichtigt, wenn eine Nachricht zu Ihrem Amazon-SNS-Thema veröffentlicht wird.

### Amazon SQS-Warteschlange
<a name="amazon-sqs-queue"></a>

Amazon SQS bietet zuverlässige und skalierbare gehostete Warteschlangen zum Speichern von Nachrichten, die zwischen den Computern gesendet werden. Mit Amazon SQS können Sie beliebige Datenvolumen übertragen, ohne dass andere Services stets verfügbar sein müssen. Sie können mit der Amazon SQS-Konsole eine Amazon SQS-Warteschlange erstellen, an die Ihre Benachrichtigungen gesendet werden können. 

Die Amazon SQS SQS-Warteschlange muss sich in derselben Warteschlange befinden AWS-Region wie Ihr Amazon S3 S3-Bucket. Anweisungen zum Erstellen einer Amazon-SQS-Warteschlange finden Sie unter [Was ist Amazon Simple Queue Service](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/welcome.html) und [Erste Schritte mit Amazon SQS](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-getting-started.html) im *Entwicklerhandbuch für Amazon Simple Queue Service*. 

Damit Sie die Amazon SQS-Warteschlange als Ereignis-Benachrichtigungsziel nutzen können, brauchen Sie Folgendes:
+ Der Amazon-Ressourcennamen (ARN) für die Amazon-SQS-Warteschlange

**Anmerkung**  
FIFO-Warteschlangen (First-In-First-Out) von Amazon Simple Queue Service werden nicht als Ziel für Amazon-S3-Ereignisbenachrichtigungen unterstützt. Um eine Benachrichtigung für ein Amazon S3 S3-Ereignis an eine Amazon SQS SQS-FIFO-Warteschlange zu senden, können Sie Amazon verwenden. EventBridge Weitere Informationen finden Sie unter [Amazon aktivieren EventBridge](enable-event-notifications-eventbridge.md).

### Lambda-Funktion
<a name="lambda-function"></a>

Sie können AWS Lambda sie verwenden, um andere AWS Dienste mit benutzerdefinierter Logik zu erweitern oder Ihr eigenes Backend zu erstellen, das AWS skalierbar, leistungsstark und sicher arbeitet. Mit Lambda können Sie diskrete ereignisabhängige Anwendungen erstellen, die nur ausgeführt werden, wenn sie benötigt werden. Sie können damit auch diese Anwendungen automatisch von ein paar Anfragen pro Tag auf Tausende pro Sekunde skalieren. 

Lambda kann benutzerdefinierten Code in Reaktion auf Amazon-S3-Bucket-Ereignisse ausführen. Sie laden Ihren benutzerdefinierten Code auf Lambda hoch und erstellen eine sogenannte Lambda-Funktion. Wenn Amazon S3 ein Ereignis eines bestimmten Typs erkennt, kann es das Ereignis in Lambda veröffentlichen AWS Lambda und Ihre Funktion in Lambda aufrufen. Lambda führt als Antwort Ihre Funktion aus. Ein Ereignistyp, den er möglicherweise erkennt, ist beispielsweise ein objekterstelltes Ereignis.

Sie können die AWS Lambda Konsole verwenden, um eine Lambda-Funktion zu erstellen, die die AWS Infrastruktur verwendet, um den Code in Ihrem Namen auszuführen. Die Lambda-Funktion muss sich in derselben Region wie Ihr S3-Bucket befinden. Sie müssen auch den Namen oder den ARN einer Lambda-Funktion haben, um die Lambda-Funktion als Ziel für Ereignis-Benachrichtigungen einzurichten.

**Warnung**  
Wenn Ihre Benachrichtigung in den selben Bucket schreibt, der die Benachrichtigung auslöst, kann dies zu einer Ausführungsschleife führen. Wenn der Bucket z. B. eine Lambda-Funktion immer dann auslöst, wenn ein Objekt hochgeladen wird, und die Funktion ein Objekt in den Bucket hochlädt, löst sich die Funktion indirekt selbst aus. Um dies zu vermeiden, verwenden Sie zwei Buckets oder konfigurieren Sie den Auslöser so, dass er nur für einen Präfix gilt, der für eingehende Objekte verwendet wird.  
Weitere Informationen und ein Beispiel für die Verwendung von Amazon S3-Benachrichtigungen mit AWS Lambda finden Sie [unter AWS Lambda Using with Amazon S3](https://docs.aws.amazon.com/lambda/latest/dg/with-s3.html) im *AWS Lambda Developer Guide*. 

### Amazon EventBridge
<a name="eventbridge-dest"></a>

Amazon EventBridge ist ein serverloser Event-Bus, der Ereignisse von AWS Diensten empfängt. Sie können Regeln einrichten, um Ereignisse abzugleichen und sie an Ziele wie einen AWS -Service oder einen HTTP-Endpunkt zu übermitteln. Weitere Informationen finden Sie unter [Was steht EventBridge](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-what-is.html) im * EventBridge Amazon-Benutzerhandbuch*.

Im Gegensatz zu anderen Zielen können Sie EventBridge für einen Bucket Ereignisse, an die gesendet werden sollen, entweder aktivieren oder deaktivieren. Wenn Sie die Zustellung aktivieren, werden alle Ereignisse an gesendet EventBridge. Darüber hinaus können Sie EventBridge Regeln verwenden, um Ereignisse an weitere Ziele weiterzuleiten.

## Unterstützte Ereignistypen für SQS, SNS und Lambda
<a name="supported-notification-event-types"></a>

Amazon S3 kann Ereignisse der folgenden Typen veröffentlichen. Sie spezifizieren diese Ereignistypen in der Benachrichtigungskonfiguration.


|  Ereignistypen |  Description  | 
| --- | --- | 
|  `s3:TestEvent`  |  Wenn eine Benachrichtigung aktiviert ist, veröffentlicht Amazon S3 eine Testbenachrichtigung. Damit soll sichergestellt werden, dass das Thema vorhanden ist und dass der Bucket-Eigentümer über die Berechtigung verfügt, das angegebene Thema zu veröffentlichen. Wenn das Aktivieren der Benachrichtigung fehlschlägt, erhalten Sie keine Testbenachrichtigung.  | 
|  `s3:ObjectCreated:*` `s3:ObjectCreated:Put` `s3:ObjectCreated:Post` `s3:ObjectCreated:Copy` `s3:ObjectCreated:CompleteMultipartUpload`  |  Amazon-S3-API-Operationen wie `PUT`, `POST` und `COPY` können ein Objekt erstellen. Mit diesen Ereignistypen können Sie Benachrichtigungen aktivieren, wenn ein Objekt mit einer bestimmten API-Operation erstellt wird. Sie können auch den `s3:ObjectCreated:*` Ereignistyp verwenden, um eine Benachrichtigung unabhängig von der API anfordern, die zum Erstellen eines Objekts verwendet wurde.  `s3:ObjectCreated:CompleteMultipartUpload` enthält Objekte, die mithilfe von [https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html) für Kopiervorgänge erstellt werden.  | 
|  `s3:ObjectRemoved:*` `s3:ObjectRemoved:Delete` `s3:ObjectRemoved:DeleteMarkerCreated`  |  Durch Verwendung der `ObjectRemoved`-Ereignistypen können Sie eine Benachrichtigung aktivieren, wenn ein Objekt oder mehrere Objekte aus einem Bucket entfernt werden. Sie können eine Benachrichtigung anfordern, wenn ein Objekt gelöscht wird, oder wenn ein versionsfähiges Objekt permanent gelöscht wird. Dazu wird der Ereignistyp `s3:ObjectRemoved:Delete` verwendet. Alternativ können Sie eine Benachrichtigung anfordern, wenn eine Löschmarkierung für ein versioniertes Objekt mit `s3:ObjectRemoved:DeleteMarkerCreated` erstellt wird. Eine entsprechende Anleitung zum Löschen von versionierten Objekten finden Sie unter [Löschen von Objekten aus einem versioning-fähigen Bucket](DeletingObjectVersions.md). Sie können auch eine Wildcard `s3:ObjectRemoved:*` verwenden, um bei jedem Löschen eines Objekts eine Benachrichtigung anzufordern.  Diese Ereignisbenachrichtigungen warnen Sie nicht vor automatischen Löschungen aufgrund von Lebenszykluskonfigurationen oder fehlgeschlagenen Operationen.  | 
|  `s3:ObjectRestore:*` `s3:ObjectRestore:Post` `s3:ObjectRestore:Completed` `s3:ObjectRestore:Delete`  |  Durch die Verwendung der `ObjectRestore`-Ereignistypen können Sie beim Wiederherstellen von Objekten aus den Speicherklassen S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive sowie aus den Zugriffsebenen S3 Intelligent-Tiering Archive Access und S3 Intelligent-Tiering Deep Archive Access Benachrichtigungen zur Ereignisauslösung und zum Abschluss erhalten. Sie können auch Benachrichtigungen erhalten, wann die wiederhergestellte Kopie eines Objekts abläuft. Der `s3:ObjectRestore:Post`-Ereignistyp informiert Sie über die Initiierung von Objektwiederherstellungen. Der `s3:ObjectRestore:Completed`-Ereignistyp informiert Sie über den Abschluss von Wiederherstellungen. Der `s3:ObjectRestore:Delete`-Ereignistyp benachrichtigt Sie, wenn die temporäre Kopie eines wiederhergestellten Objekts abläuft.  | 
| s3:ReducedRedundancyLostObject | Sie erhalten dieses Benachrichtigungsereignis, wenn Amazon S3 erkennt, dass ein Objekt der RRS-Speicherklasse verloren geht. | 
|  `s3:Replication:*` `s3:Replication:OperationFailedReplication` `s3:Replication:OperationMissedThreshold` `s3:Replication:OperationReplicatedAfterThreshold` `s3:Replication:OperationNotTracked`  |  Mithilfe der `Replication`-Ereignistypen können Sie Benachrichtigungen für Replikationskonfigurationen erhalten, bei denen S3-Replikationsmetriken oder eine Begrenzung der S3-Replikationszeit (S3 RTC) aktiviert sind. Sie können den minute-by-minute Fortschritt von Replikationsereignissen überwachen, indem Sie ausstehende Byte, ausstehende Vorgänge und die Replikationslatenz verfolgen. Informationen zu Replikationsmetriken finden Sie unter [Überwachen der Replikation mit Metriken, Ereignisbenachrichtigungen und Status](replication-metrics.md). [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/notification-how-to-event-types-and-destinations.html)  | 
|  `s3:LifecycleExpiration:*` `s3:LifecycleExpiration:Delete` `s3:LifecycleExpiration:DeleteMarkerCreated`  |  Durch die Verwendung der `LifecycleExpiration`-Ereignistypen können Sie eine Benachrichtigung erhalten, wenn Amazon S3 ein Objekt basierend auf Ihrer S3-Lebenszyklus-Konfiguration löscht. Der Ereignistyp `s3:LifecycleExpiration:Delete` benachrichtigt Sie, wenn ein Objekt in einem unversionierten Bucket gelöscht wird. Es benachrichtigt Sie auch, wenn eine Objektversion durch eine S3-Lebenszyklus-Konfiguration dauerhaft gelöscht wird. Der Ereignistyp `s3:LifecycleExpiration:DeleteMarkerCreated` benachrichtigt Sie, wenn S3 Lebenszyklus eine Löschmarke erstellt, wenn eine aktuelle Version eines Objekts im versionierten Bucket gelöscht wird.   | 
| s3:LifecycleTransition | Sie erhalten dieses Benachrichtigungsereignis, wenn ein Objekt von einer S3-Lebenszykluskonfiguration in eine andere Amazon-S3-Speicherklasse überführt wird. | 
| s3:IntelligentTiering | Sie erhalten dieses Benachrichtigungsereignis, wenn ein Objekt innerhalb der Speicherklasse S3 Intelligent-Tiering in die Stufe Archive Access oder Deep Archive Access verschoben wird.  | 
|  `s3:ObjectTagging:*` `s3:ObjectTagging:Put` `s3:ObjectTagging:Delete`  |  Durch die Verwendung der `ObjectTagging`-Ereignistypen können Sie die Benachrichtigung aktivieren, wenn ein Objekt-Tag zu einem Objekt hinzugefügt oder daraus gelöscht wird. Der `s3:ObjectTagging:Put`-Ereignistyp benachrichtigt Sie, wenn ein Tag für ein Objekt PUT ist oder ein vorhandenes Tag aktualisiert wird. Der `s3:ObjectTagging:Delete`-Ereignistyp benachrichtigt Sie, wenn ein Tag aus einem Objekt entfernt wird. | 
| s3:ObjectAcl:Put | Sie erhalten dieses Benachrichtigungsereignis, wenn eine ACL für ein Objekt PUT ist oder wenn eine vorhandene ACL geändert wird. Ein Ereignis wird nicht generiert, wenn eine Anforderung keine Änderung an der ACL eines Objekts zur Folge hat. | 

## Unterstützte Ereignistypen für Amazon EventBridge
<a name="supported-notification-event-types-eventbridge"></a>

Eine Liste der Ereignistypen, die Amazon S3 an Amazon sendet EventBridge, finden Sie unter[Verwenden EventBridge](EventBridge.md).

## Ereignisreihenfolge und doppelte Ereignisse
<a name="event-ordering-and-duplicate-events"></a>

Amazon S3 Event Notifications ist so konzipiert, dass Benachrichtigungen mindestens einmal zugestellt werden. Es kann jedoch nicht garantiert werden, dass die Benachrichtigungen in der Reihenfolge ankommen, in der die Ereignisse aufgetreten sind. In seltenen Fällen kann der Wiederholungsmechanismus von Amazon S3 zu doppelten S3-Ereignisbenachrichtigungen für dasselbe Objektereignis führen. Weitere Informationen zum Umgang mit doppelten oder nicht in der richtigen Reihenfolge befindlichen Ereignissen finden Sie unter [Manage event ordering and duplicate events with Amazon S3 Event Notifications](https://aws.amazon.com/blogs/storage/manage-event-ordering-and-duplicate-events-with-amazon-s3-event-notifications/) im *AWS Storage Blog*.

# Verwenden von Amazon SQS, Amazon SNS und Lambda
<a name="how-to-enable-disable-notification-intro"></a>

Die Aktivierung von Benachrichtigungen erfolgt auf Bucket-Ebene. Sie speichern Informationen zur Benachrichtigungskonfiguration in der *Benachrichtigungen*-Unterressourcen die einem Bucket zugeordnet sind. Nachdem Sie die Bucket-Benachrichtigungskonfiguration erstellt oder geändert haben, dauert es normalerweise etwa fünf Minuten, bis die Änderungen wirksam werden. Ein `s3:TestEvent` tritt auf, wenn die Benachrichtigung zum ersten Mal aktiviert wird. Sie können jede der folgenden Methoden verwenden, um die Benachrichtigungskonfiguration zu verwalten:
+ **Verwenden der Amazon-S3-Konsole** – Die Benutzeroberfläche der Konsole ermöglicht Ihnen, eine Benachrichtigungskonfiguration für einen Bucket einzurichten, ohne Code schreiben zu müssen. Weitere Informationen finden Sie unter [Aktivieren und Konfigurieren von Ereignis-Benachrichtigungen mit der Amazon-S3-Konsole](enable-event-notifications.md).
+ **Programmgesteuert mithilfe der AWS SDKs — Intern werden sowohl die** Konsole als auch die Amazon S3 S3-REST-API SDKs aufgerufen, um *Benachrichtigungs-Subressourcen* zu verwalten, die dem Bucket zugeordnet sind. Beispiele für Benachrichtigungskonfigurationen, die AWS SDK verwenden, finden Sie unter [Walkthrough: Konfigurieren eines Buckets für Benachrichtigungen (SNS-Thema oder SQS-Warteschlange)](ways-to-add-notification-config-to-bucket.md).
**Anmerkung**  
Sie können auch die REST-API-Aufrufe in Amazon S3 direkt von Ihrem Code aus durchführen. Dies kann jedoch umständlich sein, da Sie dazu Code schreiben müssen, um Ihre Anforderungen zu authentifizieren. 

Unabhängig von der verwendeten Methode speichert Amazon S3 die Benachrichtigungskonfiguration als XML in der mit dem jeweiligen Bucket verknüpften Unterressourcen *Benachrichtigungen*. Weitere Informationen zu Bucket-Subressourcen finden Sie unter [Konfigurationsoptionen für Allzweck-Buckets](UsingBucket.md#bucket-config-options-intro).

**Anmerkung**  
Wenn Sie mehrere fehlgeschlagene Ereignisbenachrichtigungen aufgrund gelöschter Ziele haben, erhalten Sie möglicherweise die Meldung **Die folgenden Zielkonfigurationen konnten nicht überprüft** werden, wenn Sie versuchen, sie zu löschen. Sie können dieses Problem in der S3-Konsole beheben, indem Sie alle fehlgeschlagenen Benachrichtigungen gleichzeitig löschen.

**Topics**
+ [Erteilen von Berechtigungen zur Veröffentlichung von Ereignis-Benachrichtigungsmeldungen an einem Ziel](grant-destinations-permissions-to-s3.md)
+ [Aktivieren und Konfigurieren von Ereignis-Benachrichtigungen mit der Amazon-S3-Konsole](enable-event-notifications.md)
+ [Programmgesteuerte Konfiguration von Ereignis-Benachrichtigungen](#event-notification-configuration)
+ [Walkthrough: Konfigurieren eines Buckets für Benachrichtigungen (SNS-Thema oder SQS-Warteschlange)](ways-to-add-notification-config-to-bucket.md)
+ [Konfigurieren von Ereignis-Benachrichtigungen mithilfe der Namensfilterung](notification-how-to-filtering.md)
+ [Struktur von Ereignismeldungen](notification-content-structure.md)

# Erteilen von Berechtigungen zur Veröffentlichung von Ereignis-Benachrichtigungsmeldungen an einem Ziel
<a name="grant-destinations-permissions-to-s3"></a>

Sie müssen dem Amazon-S3-Prinzipal die erforderlichen Berechtigungen erteilen, um die relevante API aufzurufen, um Nachrichten in einem SNS-Thema, einer SQS-Warteschlange oder einer Lambda-Funktion zu veröffentlichen. So kann Amazon S3 Ereignisbenachrichtigungsmeldungen an einem Ziel veröffentlichen.

Informationen zur Fehlerbehebung beim Veröffentlichen von Ereignisbenachrichtigungen in einem Ziel finden Sie unter [Fehlerbehebung bei der Veröffentlichung von Amazon-S3-Ereignisbenachrichtigungen in einem Thema von Amazon Simple Notification Service](https://repost.aws/knowledge-center/sns-not-receiving-s3-event-notifications).

**Topics**
+ [Erteilen von Berechtigungen zum Aufrufen einer Funktion AWS Lambda](#grant-lambda-invoke-permission-to-s3)
+ [Erteilen von Berechtigungen, Meldungen in einem SNS-Thema oder einer SQS-Warteschlange zu veröffentlichen](#grant-sns-sqs-permission-for-s3)

## Erteilen von Berechtigungen zum Aufrufen einer Funktion AWS Lambda
<a name="grant-lambda-invoke-permission-to-s3"></a>

Amazon S3 veröffentlicht Ereignismeldungen, AWS Lambda indem es eine Lambda-Funktion aufruft und die Ereignisnachricht als Argument bereitstellt.

Wenn Sie die Amazon-S3-Konsole verwenden, um Ereignisbenachrichtigungen in einem Amazon-S3-Bucket für eine Lambda-Funktion zu konfigurieren, richtet die Konsole die erforderlichen Berechtigungen für die Lambda-Funktion ein. Dies ist so, dass Amazon S3 über Berechtigungen verfügt, die Funktion aus dem Bucket aufzurufen. Weitere Informationen finden Sie unter [Aktivieren und Konfigurieren von Ereignis-Benachrichtigungen mit der Amazon-S3-Konsole](enable-event-notifications.md). 

Sie können Amazon S3 S3-Berechtigungen auch erteilen AWS Lambda , um Ihre Lambda-Funktion aufzurufen. Weitere Informationen finden Sie unter [Tutorial: Using AWS Lambda with Amazon S3](https://docs.aws.amazon.com/lambda/latest/dg/with-s3-example.html) im *AWS Lambda Developer Guide*.

## Erteilen von Berechtigungen, Meldungen in einem SNS-Thema oder einer SQS-Warteschlange zu veröffentlichen
<a name="grant-sns-sqs-permission-for-s3"></a>

Um Amazon S3 S3-Berechtigungen zur Veröffentlichung von Nachrichten im SNS-Thema oder in der SQS-Warteschlange zu gewähren, fügen Sie eine AWS Identity and Access Management (IAM-) Richtlinie an das Ziel-SNS-Thema oder die SQS-Warteschlange an. 

Ein Beispiel dafür, wie Sie einem SNS-Thema oder einer SQS-Warteschlange eine Richtlinie anfügen, finden Sie unter [Walkthrough: Konfigurieren eines Buckets für Benachrichtigungen (SNS-Thema oder SQS-Warteschlange)](ways-to-add-notification-config-to-bucket.md). Weitere Informationen über Berechtigungen finden Sie in den folgenden Themen:
+ [Beispielfälle für die Amazon SNS-Zugriffssteuerung](https://docs.aws.amazon.com/sns/latest/dg/AccessPolicyLanguage_UseCases_Sns.html) im *Amazon Simple Notification Service-Entwicklerhandbuch*
+ [Identity and Access Management in Amazon SQS](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/UsingIAM.html) im *Amazon Simple Queue Service-Entwicklerhandbuch*

### IAM-Richtlinie für ein SNS-Zielthema
<a name="sns-topic-policy"></a>

Im Folgenden finden Sie ein Beispiel für eine AWS Identity and Access Management (IAM-) Richtlinie, die Sie an das Ziel-SNS-Thema anhängen. Anweisungen zur Verwendung dieser Richtlinie zum Einrichten eines Amazon-SNS-Zielthemas für Ereignisbenachrichtigungen finden Sie unter [Walkthrough: Konfigurieren eines Buckets für Benachrichtigungen (SNS-Thema oder SQS-Warteschlange)](ways-to-add-notification-config-to-bucket.md).

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Id": "example-ID",
    "Statement": [
        {
            "Sid": "Example SNS topic policy",
            "Effect": "Allow",
            "Principal": {
                "Service": "s3.amazonaws.com"
            },
            "Action": [
                "SNS:Publish"
            ],
            "Resource": "arn:aws:sns:us-east-1:111122223333:example-sns-topic",
            "Condition": {
                "ArnEquals": {
                    "aws:SourceArn": "arn:aws:s3:::amzn-s3-demo-bucket"
                },
                "StringEquals": {
                    "aws:SourceAccount": "bucket-owner-123456789012"
                }
            }
        }
    ]
}
```

------

### IAM-Richtlinie für eine SQS-Zielwarteschlange
<a name="sqs-queue-policy"></a>

Im Folgenden finden Sie ein Beispiel für eine IAM-Richtlinie, die Sie an die SQS-Zielwarteschlange anfügen. Anweisungen zur Verwendung dieser Richtlinie zum Einrichten einer Amazon-SQS-Zielwarteschlange für Ereignisbenachrichtigungen finden Sie unter [Walkthrough: Konfigurieren eines Buckets für Benachrichtigungen (SNS-Thema oder SQS-Warteschlange)](ways-to-add-notification-config-to-bucket.md).

Um diese Richtlinie verwenden zu können, müssen Sie den ARN der Amazon SQS SQS-Warteschlange, den Bucket-Namen und die AWS-Konto ID des Bucket-Besitzers aktualisieren.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Id": "example-ID",
    "Statement": [
        {
            "Sid": "example-statement-ID",
            "Effect": "Allow",
            "Principal": {
                "Service": "s3.amazonaws.com"
            },
            "Action": [
                "SQS:SendMessage"
            ],
            "Resource": "arn:aws:sqs:us-east-1:111122223333:queue-name",
            "Condition": {
                "ArnLike": {
                    "aws:SourceArn": "arn:aws:s3:*:*:amzn-s3-demo-bucket"
                },
                "StringEquals": {
                    "aws:SourceAccount": "bucket-owner-123456789012"
                }
            }
        }
    ]
}
```

------

Für die IAM-Richtlinien für Amazon SNS und Amazon SQS kann die `StringLike`-Bedingung statt der `ArnLike`-Bedingung in der Richtlinie angegeben werden.

Wenn `ArnLike` verwendet wird, müssen die Teile Partition, Dienst, Konto-ID, Ressourcentyp und Teil-Ressourcen-ID des ARN genau mit dem ARN im Anfragekontext übereinstimmen. Nur die Region und der Ressourcenpfad erlauben einen Teilabgleich.

 Wenn `StringLike` anstelle von `ArnLike`verwendet wird, ignoriert der Abgleich die ARN-Struktur und erlaubt einen Teilabgleich, unabhängig von dem Teil, der durch das Platzhalterzeichen ersetzt wird. Weitere Informationen finden Sie unter [IAM-JSON-Richtlinienelemente](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_elements_condition_operators.html) im *IAM-Benutzerhandbuch*.

```
"Condition": {         
  "StringLike": { "aws:SourceArn": "arn:aws:s3:*:*:amzn-s3-demo-bucket" }
  }
```

### AWS KMS wichtige Richtlinie
<a name="key-policy-sns-sqs"></a>

Wenn die SQS-Warteschlange oder die SNS-Themen mit einem AWS Key Management Service (AWS KMS) vom Kunden verwalteten Schlüssel verschlüsselt sind, müssen Sie dem Amazon S3 S3-Service Principal die Erlaubnis erteilen, mit den verschlüsselten Themen oder der Warteschlange zu arbeiten. Um dem Amazon-S3-Service-Prinzipal die Berechtigung zu erteilen, fügen Sie der Schlüsselrichtlinie für den vom Kunden verwalteten Schlüssel die folgende Anweisung hinzu.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Id": "example-ID",
    "Statement": [
        {
            "Sid": "example-statement-ID",
            "Effect": "Allow",
            "Principal": {
                "Service": "s3.amazonaws.com"
            },
            "Action": [
                "kms:GenerateDataKey",
                "kms:Decrypt"
            ],
            "Resource": "*"
        }
    ]
}
```

------

Weitere Informationen zu AWS KMS wichtigen Richtlinien finden Sie unter [Verwenden von Schlüsselrichtlinien AWS KMS im AWS Key Management Service](https://docs.aws.amazon.com/kms/latest/developerguide/key-policies.html) *Entwicklerhandbuch*. 

Weitere Informationen zur Verwendung der serverseitigen Verschlüsselung mit AWS KMS für Amazon SQS und Amazon SNS finden Sie im Folgenden:
+ [Schlüsselverwaltung](https://docs.aws.amazon.com/sns/latest/dg/sns-key-management.html) im *Amazon Simple Notification Service-Entwicklerhandbuch*.
+ [Schlüsselverwaltung](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-key-management.html) im *Amazon Simple Queue Service-Entwicklerhandbuch*.
+ [Encrypting messages published to Amazon SNS with AWS KMS](https://aws.amazon.com/blogs/compute/encrypting-messages-published-to-amazon-sns-with-aws-kms/) im *AWS -Compute-Blog*.

# Aktivieren und Konfigurieren von Ereignis-Benachrichtigungen mit der Amazon-S3-Konsole
<a name="enable-event-notifications"></a>

Sie können bestimmte Amazon S3 Allzweck-Bucket-Ereignisse aktivieren, um eine Benachrichtigung an ein Ziel zu senden, wenn diese Ereignisse auftreten. In diesem Abschnitt erfahren Sie, wie Sie mit der Amazon-S3-Konsole Ereignis-Benachrichtigungen aktivieren können. Informationen zur Verwendung von Ereignisbenachrichtigungen mit dem AWS SDKs und dem Amazon S3 S3-REST APIs finden Sie unter[Programmgesteuerte Konfiguration von Ereignis-Benachrichtigungen](how-to-enable-disable-notification-intro.md#event-notification-configuration). 

**Voraussetzungen**: Bevor Sie Ereignis-Benachrichtigungen für Ihren Bucket aktivieren können, müssen Sie einen der Zieltypen einrichten und dann die Berechtigungen konfigurieren. Weitere Informationen erhalten Sie unter [Unterstützte Ereignisziele](notification-how-to-event-types-and-destinations.md#supported-notification-destinations) und [Erteilen von Berechtigungen zur Veröffentlichung von Ereignis-Benachrichtigungsmeldungen an einem Ziel](grant-destinations-permissions-to-s3.md).

**Anmerkung**  
FIFO-Warteschlangen (First-In-First-Out) von Amazon Simple Queue Service werden nicht als Ziel für Amazon-S3-Ereignisbenachrichtigungen unterstützt. Um eine Benachrichtigung für ein Amazon S3 S3-Ereignis an eine Amazon SQS SQS-FIFO-Warteschlange zu senden, können Sie Amazon verwenden. EventBridge Weitere Informationen finden Sie unter [Amazon aktivieren EventBridge](enable-event-notifications-eventbridge.md).

**Topics**
+ [Aktivieren von Amazon-SNS-, Amazon-SQS- oder Lambda-Benachrichtigungen über die Amazon-S3-Konsole](#enable-event-notifications-sns-sqs-lam)

## Aktivieren von Amazon-SNS-, Amazon-SQS- oder Lambda-Benachrichtigungen über die Amazon-S3-Konsole
<a name="enable-event-notifications-sns-sqs-lam"></a>

**Ereignis-Benachrichtigungen für einen S3-Bucket aktivieren und konfigurieren**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus.

1. Wählen Sie in der Bucket-Liste den Namen des Buckets, für den Sie Ereignisse aktivieren möchten.

1. Wählen Sie **Properties (Eigenschaften)**.

1. Navigieren Sie zum Abschnitt **Event Notifications (Ereignis-Benachrichtigungen)** und wählen Sie **Create event notification (Ereignis-Benachrichtigung erstellen)**

1. Geben Sie im Abschnitt **General configuration (Allgemeine Konfiguration)** den beschreibenden Ereignisnamen für Ihre Ereignis-Benachrichtigung an. Optional können Sie auch ein Präfix und ein Suffix angeben, um die Benachrichtigungen auf Objekte mit Schlüsseln zu beschränken, die mit den angegebenen Zeichen enden.

   1. Geben Sie eine Beschreibung für den **Namen der Veranstaltung** ein.

      Wenn Sie keinen Namen eingeben, wird eine eindeutige Kennung (Globally Unique Identifier, GUID) generiert und für den Namen verwendet. 

   1. (Optional) Um Ereignisbenachrichtigungen nach Präfix zu filtern, geben Sie ein **Präfix** ein. 

      Sie können beispielsweise einen Präfix-Filter einrichten, damit Sie nur Benachrichtigungen erhalten, wenn Dateien zu einem bestimmten Ordner (z. B. ) hinzugefügt wer, `images/`). 

   1. (Optional) Um Ereignisbenachrichtigungen nach Suffix zu filtern, geben Sie ein **Suffix** ein. 

      Weitere Informationen finden Sie unter [Konfigurieren von Ereignis-Benachrichtigungen mithilfe der Namensfilterung](notification-how-to-filtering.md). 

1. Wählen Sie im Abschnitt **Event types (Ereignistypen)** einen oder mehrere Ereignistypen aus, für die Sie Benachrichtigungen erhalten möchten. 

   Eine Liste der verschiedenen Ereignistypen finden Sie unter [Unterstützte Ereignistypen für SQS, SNS und Lambda](notification-how-to-event-types-and-destinations.md#supported-notification-event-types).

1. Wählen Sie im Abschnitt **Destination (Ziel)** das Ziel für Ereignis-Benachrichtigungen aus. 
**Anmerkung**  
Bevor Sie Ereignisbenachrichtigungen veröffentlichen können, müssen Sie dem Amazon-S3-Prinzipal die erforderlichen Berechtigungen zum Aufrufen der entsprechenden API erteilen. Dies ist so, dass Benachrichtigungen für eine Lambda-Funktion, ein SNS-Thema oder eine SQS-Warteschlange veröffentlicht werden können.

   1. Wählen Sie den Zieltyp aus: **Lambda Function (Lambda-Funktion)**, **SNS Topic (SNS-Thema)**, oder **SQS Queue (SQS-Warteschlange)**.

   1. Nachdem Sie Ihren Zieltyp ausgewählt haben, wählen Sie eine Funktion, ein Thema oder eine Warteschlange aus der Liste aus.

   1. Wenn Sie lieber einen Amazon-Ressourcennamen (ARN) angeben möchten, wählen Sie die Option **Enter ARN (ARN eingeben)** aus und geben Sie den ARN ein.

   Weitere Informationen finden Sie unter [Unterstützte Ereignisziele](notification-how-to-event-types-and-destinations.md#supported-notification-destinations).

1. Wählen Sie **Save changes (Änderungen speichern)** und Amazon S3 sendet eine Testnachricht an das Ziel für Ereignis-Benachrichtigungen.

## Programmgesteuerte Konfiguration von Ereignis-Benachrichtigungen
<a name="event-notification-configuration"></a>

Standardmäßig sind für keinen Ereignistyp Benachrichtigungen aktiviert. Aus diesem Grund speichert die *Benachrichtigung*-Unterressourcen anfänglich eine leere Konfiguration.

```
<NotificationConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/"> 
</NotificationConfiguration>
```

Um die Benachrichtigungen für bestimmte Ereignistypen zu aktivieren, ersetzen Sie das XML durch die entsprechende Konfiguration, die die Ereignistypen identifiziert, die Amazon S3 veröffentlichen soll, sowie das Ziel, in dem die Ereignisse veröffentlicht werden sollen. Sie müssen für jedes Ziel eine entsprechende XML-Konfiguration hinzufügen. 

**So werden Ereignismeldungen in einer SQS-Warteschlange veröffentlicht**  
Um eine SQS-Warteschlange als Benachrichtigungsziel für einen oder mehrere Ereignistypen festzulegen, fügen Sie `QueueConfiguration` hinzu.

```
<NotificationConfiguration>
  <QueueConfiguration>
    <Id>optional-id-string</Id>
    <Queue>sqs-queue-arn</Queue>
    <Event>event-type</Event>
    <Event>event-type</Event>
     ...
  </QueueConfiguration>
   ...
</NotificationConfiguration>
```

**So werden Ereignismeldungen in einem SNS-Thema veröffentlicht**  
Um ein SNS-Thema als Benachrichtigungsziel für bestimmte Ereignistypen festzulegen, fügen Sie `TopicConfiguration` hinzu.

```
<NotificationConfiguration>
  <TopicConfiguration>
     <Id>optional-id-string</Id>
     <Topic>sns-topic-arn</Topic>
     <Event>event-type</Event>
     <Event>event-type</Event>
      ...
  </TopicConfiguration>
   ...
</NotificationConfiguration>
```

**Um die AWS Lambda Funktion aufzurufen und eine Ereignismeldung als Argument bereitzustellen**  
Um eine Lambda-Funktion als Benachrichtigungsziel für bestimmte Ereignistypen festzulegen, fügen Sie `CloudFunctionConfiguration` hinzu.

```
<NotificationConfiguration>
  <CloudFunctionConfiguration>   
     <Id>optional-id-string</Id>   
     <CloudFunction>cloud-function-arn</CloudFunction>        
     <Event>event-type</Event>      
     <Event>event-type</Event>      
      ...  
  </CloudFunctionConfiguration>
   ...
</NotificationConfiguration>
```

**So entfernen Sie alle in einem Bucket konfigurierten Benachrichtigungen**  
Um alle für einen Bucket konfigurierten Benachrichtigungen zu entfernen, speichern Sie ein leeres `<NotificationConfiguration/>`-Element in der *notification*-Subressource. 

Wenn Amazon S3 ein Ereignis des spezifischen Typs erkennt, veröffentlicht es eine Meldung mit der Ereignisinformation. Weitere Informationen finden Sie unter [Struktur von Ereignismeldungen](notification-content-structure.md). 

Weitere Informationen zur Konfiguration von Ereignis-Benachrichtigungen finden Sie in den folgenden Themen: 
+ [Walkthrough: Konfigurieren eines Buckets für Benachrichtigungen (SNS-Thema oder SQS-Warteschlange)](ways-to-add-notification-config-to-bucket.md).
+ [Konfigurieren von Ereignis-Benachrichtigungen mithilfe der Namensfilterung](notification-how-to-filtering.md)

# Walkthrough: Konfigurieren eines Buckets für Benachrichtigungen (SNS-Thema oder SQS-Warteschlange)
<a name="ways-to-add-notification-config-to-bucket"></a>

Sie können Amazon-S3-Benachrichtigungen über den Amazon Simple Notification Service (Amazon SNS) oder den Amazon Simple Queue Service (Amazon SQS) erhalten. In diesem Walkthrough fügen Sie Ihrem Bucket eine Benachrichtigungskonfiguration mit einem Amazon SNS-Thema und einer Amazon SQS-Warteschlange hinzu.

**Anmerkung**  
FIFO-Warteschlangen (First-In-First-Out) von Amazon Simple Queue Service werden nicht als Ziel für Amazon-S3-Ereignisbenachrichtigungen unterstützt. Um eine Benachrichtigung für ein Amazon S3 S3-Ereignis an eine Amazon SQS SQS-FIFO-Warteschlange zu senden, können Sie Amazon verwenden. EventBridge Weitere Informationen finden Sie unter [Amazon aktivieren EventBridge](enable-event-notifications-eventbridge.md).

**Topics**
+ [Walkthrough-Übersicht](#notification-walkthrough-summary)
+ [Schritt 1: Erstellen einer Amazon SQS-Warteschlange](#step1-create-sqs-queue-for-notification)
+ [Schritt 2: Erstellen eines Amazon SNS-Themas](#step1-create-sns-topic-for-notification)
+ [Schritt 3: Hinzufügen einer Benachrichtigungskonfiguration zu Ihrem Bucket](#step2-enable-notification)
+ [Schritt 4: Testen der Einrichtung](#notification-walkthrough-1-test)

## Walkthrough-Übersicht
<a name="notification-walkthrough-summary"></a>

Dieser Walkhrough hilft Ihnen bei folgenden Aufgaben:
+ Veröffentlichung von Ereignissen des Typs `s3:ObjectCreated:*` in einer Amazon SQS-Warteschlange.
+ Veröffentlichung von Ereignissen des Typs `s3:ReducedRedundancyLostObject` in einem Amazon SNS-Thema.

Weitere Informationen zur Benachrichtigungskonfiguration finden Sie unter [Verwenden von Amazon SQS, Amazon SNS und Lambda](how-to-enable-disable-notification-intro.md)

Alle diese Schritte können Sie auf der Konsole erledigen, ohne Code schreiben zu müssen. Darüber hinaus werden Codebeispiele AWS SDKs für Java und .NET bereitgestellt, die Ihnen helfen, Benachrichtigungskonfigurationen programmgesteuert hinzuzufügen.

In dieser Vorgehensweise werden die folgenden Schritte beschrieben:

1. Erstellen einer Amazon SQS-Warteschlange

   Mit der Amazon-SQS-Konsole erstellen Sie eine SQS-Warteschlange. Sie können auf alle Meldungen zugreifen, die Amazon S3 programmgesteuert an die Warteschlange sendet. Für diese schrittweise Anleitung überprüfen Sie die Benachrichtigungsmitteilungen in der Konsole. 

   Sie ordnen der Warteschlange eine Zugriffsrichtlinie zu, um Amazon S3 die Berechtigung zu erteilen, Meldungen zu veröffentlichen.

1. Erstellen Sie ein Amazon SNS-Thema.

   Erstellen Sie mit der Amazon-SNS-Konsole ein SNS-Thema und abonnieren Sie das Thema. Auf diese Weise werden alle darin veröffentlichten Ereignisse an Sie weitergegeben. Sie geben als Kommunikationsprotokoll E-Mail an. Nachdem Sie ein Thema erstellt haben, sendet Amazon SNS eine E-Mail. Sie verwenden den Link in der E-Mail, um das Abonnement des Themas zu bestätigen. 

   Sie ordnen dem Thema eine Zugriffsrichtlinie zu, um Amazon S3 die Berechtigung zu erteilen, Meldungen zu veröffentlichen. 

1. Fügen Sie einem Bucket eine Benachrichtigungskonfiguration hinzu. 

## Schritt 1: Erstellen einer Amazon SQS-Warteschlange
<a name="step1-create-sqs-queue-for-notification"></a>

Führen Sie die Schritte zum Erstellen und Abonnieren einer Amazon Simple Queue Service (Amazon SQS)-Warteschlange (Amazon SQS) aus.

1. Erstellen Sie mit der Amazon SQS-Konsole eine Warteschlange. Anweisungen finden Sie unter [Erste Schritte mit Amazon SQS](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-getting-started.html) im *Amazon Simple Queue Service-Entwicklerhandbuch*. 

1. Ersetzen Sie die der Warteschlange zugeordnete Zugriffsrichtlinie durch die folgende Richtlinie.

   1. Wählen Sie in der Amazon-SQS-Konsole in der Liste **Warteschlangen** den Warteschlangennamen aus.

   1. Wählen Sie im Tab **Zugriffsrichtlinie** die Option **Bearbeiten** aus.

   1. Ersetzen Sie die Zugriffsrichtlinie, die der Warteschlange angefügt ist. Geben Sie darin Ihren Amazon-SQS-ARN, den Quell-Bucket-Namen und die Bucket-Eigentümer-Konto-ID an.

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Id": "example-ID",
          "Statement": [
              {
                  "Sid": "example-statement-ID",
                  "Effect": "Allow",
                  "Principal": {
                      "Service": "s3.amazonaws.com"
                  },
                  "Action": [
                      "SQS:SendMessage"
                  ],
                  "Resource": "arn:aws:sqs:us-west-2:111122223333:s3-notification-queue",
                  "Condition": {
                      "ArnLike": {
                          "aws:SourceArn": "arn:aws:s3:*:*:awsexamplebucket1"
                      },
                      "StringEquals": {
                          "aws:SourceAccount": "bucket-owner-123456789012"
                      }
                  }
              }
          ]
      }
      ```

------

   1. Wählen Sie **Speichern**.

1. (Optional) Wenn für die Amazon SQS SQS-Warteschlange oder das Amazon SNS SNS-Thema serverseitige Verschlüsselung mit AWS Key Management Service (AWS KMS) aktiviert ist, fügen Sie dem zugehörigen, vom Kunden verwalteten Schlüssel für symmetrische Verschlüsselung die folgende Richtlinie hinzu. 

   Sie müssen die Richtlinie einem von Kunden verwalteten Schlüssel hinzufügen, da Sie den AWS -verwalteten Schlüssel für Amazon SQS oder Amazon SNS nicht ändern können. 

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Id": "example-ID",
       "Statement": [
           {
               "Sid": "example-statement-ID",
               "Effect": "Allow",
               "Principal": {
                   "Service": "s3.amazonaws.com"
               },
               "Action": [
                   "kms:GenerateDataKey",
                   "kms:Decrypt"
               ],
               "Resource": "*"
           }
       ]
   }
   ```

------

   Weitere Informationen zur Verwendung von SSE für Amazon SQS und Amazon SNS mit AWS KMS finden Sie im Folgenden:
   + [Schlüsselverwaltung](https://docs.aws.amazon.com/sns/latest/dg/sns-key-management.html) im *Amazon Simple Notification Service-Entwicklerhandbuch*.
   + [Schlüsselverwaltung](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-key-management.html) im *Amazon Simple Queue Service-Entwicklerhandbuch*.

1. Notieren Sie den ARN der Warteschlange. 

   Die SQS-Warteschlange, die Sie erstellt haben, ist eine weitere Ressource in Ihrem AWS-Konto. Es hat einen eindeutigen Amazon-Ressourcennamen (ARN). Sie benötigen diesen ARN im nächsten Schritt. Der ARN muss das folgende Format aufweisen:

   ```
   arn:aws:sqs:aws-region:account-id:queue-name
   ```

## Schritt 2: Erstellen eines Amazon SNS-Themas
<a name="step1-create-sns-topic-for-notification"></a>

Gehen Sie wie folgt vor, um ein Amazon SNS-Thema zu erstellen und zu abonnieren.

1. Erstellen Sie mit der Amazon SNS-Konsole ein Thema. Eine Anleitung finden Sie unter [Amazon SNS-Thema anlegen](https://docs.aws.amazon.com/sns/latest/dg/CreateTopic.html) im *Amazon Simple Notification Service-Entwicklerhandbuch*. 

1. Abonnieren Sie das Thema. Für diese Übung geben Sie email als Kommunikationsprotokoll an. Eine Anleitung finden Sie unter [Amazon SNS-Thema abonnieren](https://docs.aws.amazon.com/sns/latest/dg/sns-create-subscribe-endpoint-to-topic.html) im *Amazon Simple Notification Service-Entwicklerhandbuch*. 

   Sie erhalten eine E-Mail, in der Sie aufgefordert werden, das Abonnement des Themas zu bestätigen. Bestätigen Sie das Abonnement. 

1. Ersetzen Sie die dem Thema zugeordnete Zugriffsrichtlinie durch die folgende Richtlinie. Geben Sie darin Ihren SNS-Themen-ARN, den Bucket-Namen und die Konto-ID des Bucket-Eigentümers an.

1. Notieren Sie den ARN des Themas.

   Das von Ihnen erstellte SNS-Thema ist eine weitere Ressource in Ihrem AWS-Konto, und es hat einen eindeutigen ARN. Sie benötigen diesen ARN im nächsten Schritt. Der ARN hat das folgende Format:

   ```
   arn:aws:sns:aws-region:account-id:topic-name
   ```

## Schritt 3: Hinzufügen einer Benachrichtigungskonfiguration zu Ihrem Bucket
<a name="step2-enable-notification"></a>

Sie können Bucket-Benachrichtigungen entweder mithilfe der Amazon S3 S3-Konsole oder programmgesteuert mithilfe von aktivieren. AWS SDKs Wählen Sie eine der Optionen für die Konfiguration von Benachrichtigungen über Ihren Bucket. Dieser Abschnitt enthält Codebeispiele mit dem AWS SDKs für Java und .NET.

### Option A: Aktivieren von Benachrichtigungen über einen Bucket unter Verwendung der Konsole
<a name="step2-enable-notification-using-console"></a>

Fügen Sie mithilfe der Amazon-S3-Konsole eine Benachrichtigungskonfiguration hinzu, die Amazon S3 zu Folgendem auffordert:
+ Veröffentlichen von Ereignissen des Typs **All object create events (Alle Objekterstellungsereignisse)** in Ihrer Amazon SQS-Warteschlange.
+ Veröffentlichen von Ereignissen des Typs **Object in RRS lost (Objekt in RRS verloren)** in Ihrem Amazon SNS-Thema.

Nachdem Sie die Benachrichtigungskonfiguration gespeichert haben, veröffentlicht Amazon S3 eine Testmeldung, die Sie per E-Mail erhalten. 

Detaillierte Anweisungen finden Sie unter [Aktivieren und Konfigurieren von Ereignis-Benachrichtigungen mit der Amazon-S3-Konsole](enable-event-notifications.md). 

### Option B: Aktivieren Sie Benachrichtigungen für einen Bucket mithilfe der AWS SDKs
<a name="step2-enable-notification-using-awssdk-dotnet"></a>

------
#### [ .NET ]

Das folgende C\$1-Codebeispiel zeigt ein vollständiges Listing, das einem Bucket eine Benachrichtigungskonfiguration hinzufügt. Sie müssen den Code aktualisieren und Ihren Bucket-Namen und den ARN des SNS-Themas angeben. Informationen zum Einrichten und Ausführen der Codebeispiele finden Sie unter [Getting Started with the AWS SDK for .NET](https://docs.aws.amazon.com/sdk-for-net/latest/developer-guide/net-dg-setup.html) im *AWS SDK for .NET Developer Guide*. 

```
using Amazon;
using Amazon.S3;
using Amazon.S3.Model;
using System;
using System.Collections.Generic;
using System.Threading.Tasks;

namespace Amazon.DocSamples.S3
{
    class EnableNotificationsTest
    {
        private const string bucketName = "*** bucket name ***";
        private const string snsTopic = "*** SNS topic ARN ***";
        private const string sqsQueue = "*** SQS topic ARN ***";
        // Specify your bucket region (an example region is shown).
        private static readonly RegionEndpoint bucketRegion = RegionEndpoint.USWest2;
        private static IAmazonS3 client;

        public static void Main()
        {
            client = new AmazonS3Client(bucketRegion);
            EnableNotificationAsync().Wait();
        }

        static async Task EnableNotificationAsync()
        {
            try
            {
               PutBucketNotificationRequest request = new PutBucketNotificationRequest
                {
                    BucketName = bucketName
                };

                TopicConfiguration c = new TopicConfiguration
                {
                    Events = new List<EventType> { EventType.ObjectCreatedCopy },
                    Topic = snsTopic
                };
                request.TopicConfigurations = new List<TopicConfiguration>();
                request.TopicConfigurations.Add(c);
                request.QueueConfigurations = new List<QueueConfiguration>();
                request.QueueConfigurations.Add(new QueueConfiguration()
                {
                    Events = new List<EventType> { EventType.ObjectCreatedPut },
                    Queue = sqsQueue
                });
                
                PutBucketNotificationResponse response = await client.PutBucketNotificationAsync(request);
            }
            catch (AmazonS3Exception e)
            {
                Console.WriteLine("Error encountered on server. Message:'{0}' ", e.Message);
            }
            catch (Exception e)
            {
                Console.WriteLine("Unknown error encountered on server. Message:'{0}' ", e.Message);
            }
        }
    }
}
```

------
#### [ Java ]

Beispiele für die Konfiguration von Bucket-Benachrichtigungen mit dem AWS SDK for Java finden Sie unter [S3-Ereignisbenachrichtigungen verarbeiten](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_Scenario_ProcessS3EventNotification_section.html) in der *Amazon S3 S3-API-Referenz*.

------

## Schritt 4: Testen der Einrichtung
<a name="notification-walkthrough-1-test"></a>

Jetzt können Sie die Einrichtung testen, indem Sie ein Objekt in Ihren Bucket hochladen und die Ereignis-Benachrichtigung in der Amazon-SQS-Konsole überprüfen. Anweisungen finden Sie unter [Empfangen einer Nachricht](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-getting-started.htmlReceiveMessage.html) im *Abschnitt "Erste Schritte" im Amazon Simple Queue Service-Entwicklerhandbuch*. 

# Konfigurieren von Ereignis-Benachrichtigungen mithilfe der Namensfilterung
<a name="notification-how-to-filtering"></a>

Bei der Konfiguration einer Amazon-S3-Ereignis-Benachrichtigung müssen Sie angeben, welche unterstützten Amazon-S3-Ereignistypen das Senden der Benachrichtigung durch Amazon S3 veranlassen. Wenn ein Ereignistyp, den Sie nicht angegeben haben, in Ihrem S3-Bucket auftritt, sendet Amazon S3 die Benachrichtigung nicht.

Sie können Benachrichtigungen konfigurieren, die nach dem Präfix und dem Suffix des Objektschlüsselnamens gefiltert werden. Sie können beispielsweise eine Konfiguration so einrichten, dass Sie nur eine Benachrichtigung erhalten, wenn einem Bucket Bilddateien mit der Erweiterung „`.jpg`“ hinzugefügt werden. Oder Sie können eine Konfiguration einrichten, die eine Benachrichtigung an ein Amazon SNS SNS-Thema sendet, wenn ein Objekt mit dem Präfix `images/` "" zum Bucket hinzugefügt wird, und gleichzeitig Benachrichtigungen für Objekte mit dem Präfix "`logs/`" im selben Bucket an eine AWS Lambda Funktion gesendet werden. 

**Anmerkung**  
Ein Platzhalterzeichen (\$1) kann in Filtern nicht als Präfix oder Suffix verwendet werden. Wenn Ihr Präfix oder Suffix ein Leerzeichen enthält, müssen Sie es durch das Zeichen „\$1“ ersetzen. Wenn Sie andere Sonderzeichen in dem Wert des Präfixes oder Suffixes verwenden, müssen Sie diese im [URL-kodierten (Prozent-kodierten) Format](https://en.wikipedia.org/wiki/Percent-encoding) angeben. Eine vollständige Liste der Sonderzeichen, die in ein URL-kodiertes Format umgewandelt werden müssen, wenn sie in einem Präfix oder Suffix für Ereignisbenachrichtigungen verwendet werden, finden Sie unter [Sichere Zeichen](object-keys.md#object-key-guidelines-safe-characters).

Sie können Benachrichtigungskonfigurationen einrichten, die die Filterung von Objektschlüsselnamen in der Amazon-S3-Konsole verwenden. Sie können dies tun, indem Sie Amazon S3 APIs über den AWS SDKs oder den REST APIs direkt verwenden. Informationen zur Verwendung der Konsolen-Benutzeroberfläche zum Festlegen einer Benachrichtigungskonfiguration für einen Bucket finden Sie unter [Aktivieren und Konfigurieren von Ereignis-Benachrichtigungen mit der Amazon-S3-Konsole](enable-event-notifications.md). 

Amazon S3 speichert die Benachrichtigungskonfiguration als XML in der einem Bucket zugeordneten *notification*-Subressource, wie in [Verwenden von Amazon SQS, Amazon SNS und Lambda](how-to-enable-disable-notification-intro.md) beschrieben. Sie können die `Filter` XML-Struktur verwenden, um Regeln für die nach dem Präfix oder dem Suffix eines Objektschlüsselnamens gefilterten Benachrichtigungen zu definieren. Weitere Informationen zu der `Filter`-XML-Struktur finden Sie unter [PUT-Bucket-Benachrichtigung](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTnotification.html) in der *API-Referenz zu Amazon Simple Storage Service*. 

Benachrichtigungskonfigurationen, die `Filter` verwenden, können keine Filterregeln mit überlappenden Präfixen, überlappenden Suffixen oder Präfix- und Suffix-Überlappung definieren. Die folgenden Abschnitte enthalten Beispiele für gültige Benachrichtigungskonfigurationen mit Objektschlüssel-Namensfilterung. Sie enthalten auch Beispiele für Benachrichtigungskonfigurationen, die wegen der Überlappung von Präfix und Suffix ungültig sind. 

**Topics**
+ [Beispiele für gültige Benachrichtigungskonfigurationen mit Filterung nach dem Objektschlüsselnamen](#notification-how-to-filtering-example-valid)
+ [Beispiele für Benachrichtigungskonfigurationen mit ungültiger Präfix- und Suffix-Überlappung](#notification-how-to-filtering-examples-invalid)

## Beispiele für gültige Benachrichtigungskonfigurationen mit Filterung nach dem Objektschlüsselnamen
<a name="notification-how-to-filtering-example-valid"></a>

Die folgende Benachrichtigungskonfiguration enthält eine Warteschlangekonfiguration, die eine Amazon SQS-Warteschlange für Amazon S3 identifiziert, in der Ereignisse des Typs `s3:ObjectCreated:Put` gespeichert werden sollen. Die Ereignisse werden veröffentlicht, wenn ein Objekt mit dem Präfix `images/` und dem Suffix `jpg` mit PUT in einen Bucket geschrieben wird. 

```
<NotificationConfiguration>
  <QueueConfiguration>
      <Id>1</Id>
      <Filter>
          <S3Key>
              <FilterRule>
                  <Name>prefix</Name>
                  <Value>images/</Value>
              </FilterRule>
              <FilterRule>
                  <Name>suffix</Name>
                  <Value>jpg</Value>
              </FilterRule>
          </S3Key>
     </Filter>
     <Queue>arn:aws:sqs:us-west-2:444455556666:s3notificationqueue</Queue>
     <Event>s3:ObjectCreated:Put</Event>
  </QueueConfiguration>
</NotificationConfiguration>
```

Die folgende Benachrichtigungskonfigurationen hat mehrere nicht überlappende Präfixe. Die Konfiguration definiert, dass Benachrichtigungen für PUT-Anforderungen im Ordner `images/` in queue-A geschrieben werden, während Benachrichtigungen für PUT-Anforderungen im Ordner `logs/` in queue-B geschrieben werden.

```
<NotificationConfiguration>
  <QueueConfiguration>
     <Id>1</Id>
     <Filter>
            <S3Key>
                <FilterRule>
                    <Name>prefix</Name>
                    <Value>images/</Value>
                </FilterRule>
            </S3Key>
     </Filter>
     <Queue>arn:aws:sqs:us-west-2:444455556666:sqs-queue-A</Queue>
     <Event>s3:ObjectCreated:Put</Event>
  </QueueConfiguration>
  <QueueConfiguration>
     <Id>2</Id>
     <Filter>
            <S3Key>
                <FilterRule>
                    <Name>prefix</Name>
                    <Value>logs/</Value>
                </FilterRule>
            </S3Key>
     </Filter>
     <Queue>arn:aws:sqs:us-west-2:444455556666:sqs-queue-B</Queue>
     <Event>s3:ObjectCreated:Put</Event>
  </QueueConfiguration>
</NotificationConfiguration>
```

Die folgende Benachrichtigungskonfigurationen hat mehrere nicht überlappende Suffixe. Die Konfiguration definiert, dass alle neu zum Bucket hinzugefügten `.jpg` Bilder von Lambda cloud-function-A verarbeitet werden und dass alle neu hinzugefügten `.png` Bilder von cloud-function-B verarbeitet werden. Die `.jpg` Suffixe `.png` und überschneiden sich nicht, obwohl sie denselben letzten Buchstaben haben. Wenn eine bestimmte Zeichenfolge mit beiden Suffixen enden kann, werden die beiden Suffixe als überlappend betrachtet. Da eine Zeichenfolge nicht mit `.png` und `.jpg` gleichzeitig enden kann, sind die Suffixe in der Beispielkonfiguration keine überlappenden Suffixe. 

```
<NotificationConfiguration>
  <CloudFunctionConfiguration>
     <Id>1</Id>
     <Filter>
            <S3Key>
                <FilterRule>
                    <Name>suffix</Name>
                    <Value>.jpg</Value>
                </FilterRule>
            </S3Key>
     </Filter>
     <CloudFunction>arn:aws:lambda:us-west-2:444455556666:cloud-function-A</CloudFunction>
     <Event>s3:ObjectCreated:Put</Event>
  </CloudFunctionConfiguration>
  <CloudFunctionConfiguration>
     <Id>2</Id>
     <Filter>
            <S3Key>
                <FilterRule>
                    <Name>suffix</Name>
                    <Value>.png</Value>
                </FilterRule>
            </S3Key>
     </Filter>
     <CloudFunction>arn:aws:lambda:us-west-2:444455556666:cloud-function-B</CloudFunction>
     <Event>s3:ObjectCreated:Put</Event>
  </CloudFunctionConfiguration>
</NotificationConfiguration>
```

Ihre Benachrichtigungskonfigurationen, die `Filter` verwenden, können keine Filterregeln mit überlappenden Präfixen für dieselben Ereignistypen definieren. Sie können dies nur tun, wenn die sich überlappenden Präfixe, die mit Suffixen verwendet werden, die sich nicht überlappen. Die folgende Beispielkonfiguration zeigt, wie Objekte, die mit einem gemeinsamen Präfix, aber nicht überlappenden Suffixen erstellt werden, an unterschiedliche Ziele geliefert werden können.

```
<NotificationConfiguration>
  <CloudFunctionConfiguration>
     <Id>1</Id>
     <Filter>
            <S3Key>
                <FilterRule>
                    <Name>prefix</Name>
                    <Value>images</Value>
                </FilterRule>
                <FilterRule>
                    <Name>suffix</Name>
                    <Value>.jpg</Value>
                </FilterRule>
            </S3Key>
     </Filter>
     <CloudFunction>arn:aws:lambda:us-west-2:444455556666:cloud-function-A</CloudFunction>
     <Event>s3:ObjectCreated:Put</Event>
  </CloudFunctionConfiguration>
  <CloudFunctionConfiguration>
     <Id>2</Id>
     <Filter>
            <S3Key>
                <FilterRule>
                    <Name>prefix</Name>
                    <Value>images</Value>
                </FilterRule>
                <FilterRule>
                    <Name>suffix</Name>
                    <Value>.png</Value>
                </FilterRule>
            </S3Key>
     </Filter>
     <CloudFunction>arn:aws:lambda:us-west-2:444455556666:cloud-function-B</CloudFunction>
     <Event>s3:ObjectCreated:Put</Event>
  </CloudFunctionConfiguration>
</NotificationConfiguration>
```

## Beispiele für Benachrichtigungskonfigurationen mit ungültiger Präfix- und Suffix-Überlappung
<a name="notification-how-to-filtering-examples-invalid"></a>

Ihre Benachrichtigungskonfigurationen, die `Filter` verwenden, können größtenteils keine Filterregeln mit überlappenden Präfixen, überlappenden Suffixen oder überlappenden Präfix- und Suffix-Kombinationen für dieselben Ereignistypen definieren. Überlappende Präfixe sind möglich, solange sich die Suffixe nicht überlappen. Ein Beispiel finden Sie unter [Konfigurieren von Ereignis-Benachrichtigungen mithilfe der Namensfilterung](#notification-how-to-filtering).

Sie können überlappende Objektschlüsselnamensfilter mit unterschiedlichen Ereignistypen verwenden. Beispielsweise könnten sie eine Benachrichtigungskonfiguration erstellen, die das Präfix `image/` für den Ereignistyp `ObjectCreated:Put` und das Präfix `image/` für den Ereignistyp `ObjectRemoved:*` verwendet. 

Sie erhalten einen Fehler, wenn Sie versuchen, eine Benachrichtigungskonfiguration mit ungültigen, sich überschneidenden Namensfiltern für dieselben Ereignistypen zu speichern, wenn Sie die Amazon-S3-Konsole oder -API verwenden. Dieser Abschnitt zeigt Beispiele für Benachrichtigungskonfigurationen, die aufgrund überlappender Namensfilter ungültig sind. 

Es wird angenommen, dass eine vorhandene Benachrichtigungskonfigurationsregel ein Standardpräfix und -suffix hat, die mit allen anderen Präfixen bzw. Suffixen übereinstimmen. Die folgende Benachrichtigungskonfiguration ist ungültig, weil sie überlappende Präfixe hat. Insbesondere überlappt sich das Root-Präfix mit allen anderen Präfixen. Das gleiche gilt, wenn Sie in diesem Beispiel ein Suffix anstelle eines Präfixes verwenden. Das Root-Suffix überlappt mit allen anderen Suffixen.

```
<NotificationConfiguration>
     <TopicConfiguration>
         <Topic>arn:aws:sns:us-west-2:444455556666:sns-notification-one</Topic>
         <Event>s3:ObjectCreated:*</Event>
    </TopicConfiguration>
    <TopicConfiguration>
         <Topic>arn:aws:sns:us-west-2:444455556666:sns-notification-two</Topic>
         <Event>s3:ObjectCreated:*</Event>
         <Filter>
             <S3Key>
                 <FilterRule>
                     <Name>prefix</Name>
                     <Value>images</Value>
                 </FilterRule>
            </S3Key>
        </Filter>
    </TopicConfiguration>             
</NotificationConfiguration>
```

Die folgende Benachrichtigungskonfiguration ist ungültig, weil sie überlappende Suffixe hat. Wenn eine bestimmte Zeichenfolge mit beiden Suffixen enden kann, werden die beiden Suffixe als überlappend betrachtet. Eine Zeichenfolge kann mit `jpg` und `pg` enden. Die Suffixe überschneiden sich also. Gleiches gilt für Präfixe. Wenn eine bestimmte Zeichenfolge mit beiden Präfixen beginnen kann, werden die beiden Präfixe als überlappend betrachtet.

```
 <NotificationConfiguration>
     <TopicConfiguration>
         <Topic>arn:aws:sns:us-west-2:444455556666:sns-topic-one</Topic>
         <Event>s3:ObjectCreated:*</Event>
         <Filter>
             <S3Key>
                 <FilterRule>
                     <Name>suffix</Name>
                     <Value>jpg</Value>
                 </FilterRule>
            </S3Key>
        </Filter>
    </TopicConfiguration>
    <TopicConfiguration>
         <Topic>arn:aws:sns:us-west-2:444455556666:sns-topic-two</Topic>
         <Event>s3:ObjectCreated:Put</Event>
         <Filter>
             <S3Key>
                 <FilterRule>
                     <Name>suffix</Name>
                     <Value>pg</Value>
                 </FilterRule>
            </S3Key>
        </Filter>
    </TopicConfiguration>
</NotificationConfiguration
```

Die folgende Benachrichtigungskonfiguration ist ungültig, weil sie überlappende Präfixe und Suffixe hat. 

```
<NotificationConfiguration>
     <TopicConfiguration>
         <Topic>arn:aws:sns:us-west-2:444455556666:sns-topic-one</Topic>
         <Event>s3:ObjectCreated:*</Event>
         <Filter>
             <S3Key>
                 <FilterRule>
                     <Name>prefix</Name>
                     <Value>images</Value>
                 </FilterRule>
                 <FilterRule>
                     <Name>suffix</Name>
                     <Value>jpg</Value>
                 </FilterRule>
            </S3Key>
        </Filter>
    </TopicConfiguration>
    <TopicConfiguration>
         <Topic>arn:aws:sns:us-west-2:444455556666:sns-topic-two</Topic>
         <Event>s3:ObjectCreated:Put</Event>
         <Filter>
             <S3Key>
                 <FilterRule>
                     <Name>suffix</Name>
                     <Value>jpg</Value>
                 </FilterRule>
            </S3Key>
        </Filter>
    </TopicConfiguration>
</NotificationConfiguration>
```

# Struktur von Ereignismeldungen
<a name="notification-content-structure"></a>

Die Benachrichtigung, die Amazon S3 sendet, um ein Ereignis zu veröffentlichen, verwendet das JSON-Format.

Eine allgemeine Übersicht und Anweisungen zum Konfigurieren von Ereignisbenachrichtigungen finden Sie unter [Amazon-S3-Ereignisbenachrichtigungen](EventNotifications.md).

Dieses Beispiel zeigt *Version 2.1 der JSON-Struktur* für Ereignisbenachrichtigungen. Amazon S3 verwendet *Versionen 2.1* *und 2.2* und *2.3* dieser Ereignisstruktur. Amazon S3 verwendet Version 2.2 für regionsübergreifende Replikationsereignisbenachrichtigungen. Es verwendet Version 2.3 für S3 Lebenszyklus, S3 Intelligent-Tiering, Objekt-ACL, Objekt-Markierung und Objektwiederherstellungs-Löschereignisse. Diese Versionen enthalten zusätzliche Informationen, die für diese Vorgänge spezifisch sind. Die Versionen 2.2 und 2.3 sind ansonsten mit Version 2.1 kompatibel, die Amazon S3 derzeit für alle anderen Ereignisbenachrichtigungstypen verwendet.

```
{  
   "Records":[  
      {  
         "eventVersion":"2.1",
         "eventSource":"aws:s3",
         "awsRegion":"us-west-2",
         "eventTime":"The time, in ISO-8601 format (for example, 1970-01-01T00:00:00.000Z) when Amazon S3 finished processing the request",
         "eventName":"The event type",
         "userIdentity":{  
            "principalId":"The unique ID of the IAM resource that caused the event"
         },
         "requestParameters":{  
            "sourceIPAddress":"The IP address where the request came from"
         },
         "responseElements":{  
            "x-amz-request-id":"The Amazon S3 generated request ID",
            "x-amz-id-2":"The Amazon S3 host that processed the request"
         },
         "s3":{  
            "s3SchemaVersion":"1.0",
            "configurationId":"The ID found in the bucket notification configuration",
            "bucket":{  
               "name":"The name of the bucket, for example, amzn-s3-demo-bucket",
               "ownerIdentity":{  
                  "principalId":"The Amazon retail customer ID of the bucket owner"
               },
               "arn":"The bucket Amazon Resource Name (ARN)"
            },
            "object":{  
               "key":"The object key name",
               "size":"The object size in bytes (as a number)",
               "eTag":"The object entity tag (ETag)",
               "versionId":"The object version if the bucket is versioning-enabled; null or not present if the bucket isn't versioning-enabled",
               "sequencer": "A string representation of a hexadecimal value used to determine event sequence; only used with PUT and DELETE requests"
            }
         },
         "glacierEventData": {
            "restoreEventData": {
               "lifecycleRestorationExpiryTime": "The time, in ISO-8601 format (for example, 1970-01-01T00:00:00.000Z), when the temporary copy of the restored object expires",
               "lifecycleRestoreStorageClass": "The source storage class for restored objects"
            }
         }
      }
   ]
}
```

Beachten Sie im Zusammenhang mit der Ereignistachrichtenstruktur Folgendes:
+ Der `eventVersion`-Schlüsselwert enthält eine Haupt- und eine Nebenversion im Format `major`.`minor`.

  Die Hauptversion wird erhöht, wenn Amazon S3 eine Änderung an der Ereignisstruktur vornimmt, die nicht abwärtskompatibel ist. Dies beinhaltet das Entfernen eines JSON-Feldes, das bereits vorhanden ist, oder das Ändern, wie die Inhalte eines Feldes dargestellt werden (Beispiel: ein Datumsformat).

  Die Nebenversion wird erhöht, wenn Amazon S3 der Ereignisstruktur neue Felder hinzufügt. Dies kann auftreten, wenn neue Informationen für einige oder alle vorhandenen Ereignisse bereitgestellt werden. Dies kann auch der Fall sein, wenn neue Informationen nur für neu eingeführte Ereignistypen bereitgestellt werden. Um mit neuen Versionen der Ereignisstruktur kompatibel zu bleiben, empfehlen wir, dass Ihre Anwendungen neue Felder ignorieren.

  Wenn neue Ereignistypen eingeführt werden, aber die Struktur des Ereignisses ansonsten unverändert bleibt, ändert sich die Ereignisversion nicht.

  Um sicherzustellen, dass Ihre Anwendungen die Ereignisstruktur ordnungsgemäß analysieren können, empfehlen wir, dass Sie einen Vergleich mit der Hauptversionsnummer durchführen. Um sicherzustellen, dass die Felder, die von Ihrer Anwendung erwartet werden, vorhanden sind, empfehlen wir außerdem, für die Nebenversion einen greater-than-or-equal -to-Vergleich durchzuführen.
+ Der `eventName` Schlüsselwert verweist auf die Liste der [Ereignisbenachrichtigungstypen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/notification-how-to-event-types-and-destinations.html), enthält aber nicht das `s3:` Präfix.
+ Der `userIdentity` Schlüsselwert bezieht sich auf die eindeutige ID der AWS Identity and Access Management (IAM-) Ressource (ein Benutzer, eine Rolle, eine Gruppe usw.), die das Ereignis verursacht hat. Eine Definition der einzelnen IAM-Identifikationspräfixe (z. B. KIDA, AROA, AGPA) und Informationen darüber, wie man den eindeutigen Identifikator erhält, finden Sie unter [Einzige Identifikatoren](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_identifiers.html##identifiers-unique-ids) im *IAM-Benutzerhandbuch*.
+ Der `responseElements` Schlüsselwert ist nützlich, wenn Sie eine Anfrage anhand von verfolgen möchten. AWS Support`x-amz-request-id` und `x-amz-id-2` helfen Amazon S3, eine einzelne Anfrage nachzuverfolgen. Diese Werte sind dieselben, die Amazon S3 in der Antwort auf die Anforderung zurückgibt, die die Ereignisse initiiert. Daher können Sie diese Werte verwenden, um das Ereignis der Anfrage zuzuordnen.
+ Der Schlüsselwert `s3` liefert Informationen über den Bucket und das Objekt, die an dem Ereignis beteiligt sind. Der Wert des Objektschlüsselnamens ist URL-kodiert. Beispielsweise wird `red flower.jpg` zu `red+flower.jpg`. (Amazon S3 gibt als Inhaltstyp in der Antwort „`application/x-www-form-urlencoded`“ zurück.)

  Der Schlüsselwert `ownerIdentity` entspricht der Kunden-ID des Bucket-Besitzers bei Amazon (Amazon.com). Dieser ID-Wert wird nicht mehr verwendet und wird nur noch aus Gründen der Abwärtskompatibilität beibehalten. 
+ Der Schlüsselwert `sequencer` bietet eine Möglichkeit, die Reihenfolge der Ereignisse zu bestimmen. Ereignis-Benachrichtigungen kommen nicht garantiert in der Reihenfolge an, in der die Ereignisse aufgetreten sind. Benachrichtigungen von Ereignissen, die Objekte erstellen (`PUT`-Anforderungen) und Objekte löschen, enthalten jedoch ein `sequencer`. Sie können diesen Wert verwenden, um die Reihenfolge der Ereignisse für einen bestimmten Objektschlüssel zu bestimmen. 

  Wenn Sie die `sequencer`-Zeichenfolgen von zwei Ereignisbenachrichtigungen für denselben Objektschlüssel vergleichen, ist die Ereignisbenachrichtigung mit dem größeren hexadezimalen Wert von `sequencer` das später aufgetretene Ereignis. Wenn Sie Ereignisbenachrichtigungen verwenden, um eine separate Datenbank oder einen separaten Index Ihrer Amazon-S3-Objekte zu verwalten, empfehlen wir Ihnen, die `sequencer`-Werte während der Verarbeitung jeder Ereignisbenachrichtigung zu vergleichen und zu speichern. 

  Beachten Sie Folgendes:
  + Sie können den Schlüsselwert `sequencer` nicht verwenden, um die Reihenfolge der Ereignisse für verschiedene Objektschlüssel zu bestimmen.
  + Die Zeichenketten `sequencer` können unterschiedlich lang sein. Um diese Werte zu vergleichen, wird also zunächst der kürzere Wert mit Nullen aufgefüllt und dann ein lexikografischer Vergleich durchgeführt.
+ Der `glacierEventData` Schlüsselwert ist nur für `s3:ObjectRestore:Completed` Ereignisse sichtbar. 
+ Der Schlüsselwert `restoreEventData` enthält Attribute, die sich auf Ihre Wiederherstellungsanfrage beziehen.
+ Der Schlüsselwert `replicationEventData` ist nur für Replikationsereignisse sichtbar.
+ Der Schlüsselwert `intelligentTieringEventData` ist nur für S3 Intelligent-Tiering-Ereignisse sichtbar.
+ Der Schlüsselwert `lifecycleEventData` ist nur für S3-Lebenszyklus-Übergangsereignisse sichtbar.

## Beispielnachrichten
<a name="notification-content-structure-examples"></a>

Im Folgenden finden Sie Beispiele für Amazon-S3-Ereignis-Benachrichtigungen.

**Amazon-S3-Testnachricht**  
Nachdem Sie eine Ereignis-Benachrichtigung für einen Bucket konfigurieren, sendet Amazon S3 die folgende Testnachricht.

```
1. {  
2.    "Service":"Amazon S3",
3.    "Event":"s3:TestEvent",
4.    "Time":"2014-10-13T15:57:02.089Z",
5.    "Bucket":"amzn-s3-demo-bucket",
6.    "RequestId":"5582815E1AEA5ADF",
7.    "HostId":"8cLeGAmw098X5cv4Zkwcmo8vvZa3eH3eKxsPzbB9wrR+YstdA6Knx4Ip8EXAMPLE"
8. }
```

**Anmerkung**  
Die Nachricht `s3:TestEvent` verwendet ein anderes Format als normale S3-Ereignisbenachrichtigungen. Im Gegensatz zu anderen Ereignisbenachrichtigungen, die die zuvor gezeigte `Records` -Array-Struktur verwenden, verwendet das Testevent ein vereinfachtes Format mit direkten Feldern. Achten Sie bei der Implementierung der Ereignisbehandlung darauf, dass Ihr Code zwischen beiden Nachrichtenformaten unterscheiden und diese korrekt verarbeiten kann.

**Beispielnachricht, wenn ein Objekt mit einer `PUT`-Anforderung erstellt wird**  
Das Folgende ist ein Beispiel für eine Nachricht, die Amazon S3 sendet, um ein `s3:ObjectCreated:Put`-Ereignis zu veröffentlichen.

```
 1. {  
 2.    "Records":[  
 3.       {  
 4.          "eventVersion":"2.1",
 5.          "eventSource":"aws:s3",
 6.          "awsRegion":"us-west-2",
 7.          "eventTime":"1970-01-01T00:00:00.000Z",
 8.          "eventName":"ObjectCreated:Put",
 9.          "userIdentity":{  
10.             "principalId":"AIDAJDPLRKLG7UEXAMPLE"
11.          },
12.          "requestParameters":{  
13.             "sourceIPAddress":"172.16.0.1"
14.          },
15.          "responseElements":{  
16.             "x-amz-request-id":"C3D13FE58DE4C810",
17.             "x-amz-id-2":"FMyUVURIY8/IgAtTv8xRjskZQpcIZ9KG4V5Wp6S7S/JRWeUWerMUE5JgHvANOjpD"
18.          },
19.          "s3":{  
20.             "s3SchemaVersion":"1.0",
21.             "configurationId":"testConfigRule",
22.             "bucket":{  
23.                "name":"amzn-s3-demo-bucket",
24.                "ownerIdentity":{  
25.                   "principalId":"A3NL1KOZZKExample"
26.                },
27.                "arn":"arn:aws:s3:::amzn-s3-demo-bucket"
28.             },
29.             "object":{  
30.                "key":"HappyFace.jpg",
31.                "size":1024,
32.                "eTag":"d41d8cd98f00b204e9800998ecf8427e",
33.                "versionId":"096fKKXTRTtl3on89fVO.nfljtsv6qko",
34.                "sequencer":"0055AED6DCD90281E5"
35.             }
36.          }
37.       }
38.    ]
39. }
```



# Verwenden EventBridge
<a name="EventBridge"></a>

Amazon S3 kann Ereignisse an Amazon senden, EventBridge wenn bestimmte Ereignisse in Ihrem Bucket auftreten. Im Gegensatz zu anderen Zielen müssen Sie nicht auswählen, welche Ereignistypen Sie liefern möchten. Nach EventBridge der Aktivierung werden alle unten aufgeführten Ereignisse an gesendet EventBridge. Sie können EventBridge Regeln verwenden, um Ereignisse an weitere Ziele weiterzuleiten. Im Folgenden sind die Ereignisse aufgeführt, an die Amazon S3 sendet EventBridge.


|  Ereignistyp |  Description  | 
| --- | --- | 
|  *Objekt erstellt*  |  Ein Objekt wurde erstellt. Das Ursachenfeld in der Ereignisnachrichtenstruktur gibt an, welche S3-API zum Erstellen des Objekts verwendet wurde: [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectPOST.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectPOST.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html) oder [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html).  | 
|  *Objekt gelöscht (DeleteObject)* *Objekt gelöscht (Lebenszyklusablauf)*  |  Ein Objekt wurde gelöscht. Wenn ein Objekt mit einem S3-API-Aufruf gelöscht wird, wird das Ursachenfeld auf DeleteObject festgelegt. Wenn ein Objekt durch eine S3-Lebenszyklus-Ablaufregel gelöscht wird, wird das Grundfeld auf Lebenszyklus-Ablauf gesetzt. Weitere Informationen finden Sie unter [Ablauf von Objekten](lifecycle-expire-general-considerations.md). Wenn ein nicht versioniertes Objekt gelöscht wird oder ein versioniertes Objekt dauerhaft gelöscht wird, wird das Feld für den Löschtyp auf „Permanently Deleted“ gesetzt. Wenn eine Löschmarkierung für ein versioniertes Objekt erstellt wird, wird das Feld für den „`deletion-type`“ auf „Delete Marker Created“ gesetzt. Weitere Informationen finden Sie unter [Löschen von Objekten aus einem versioning-fähigen Bucket](DeletingObjectVersions.md).  | 
|  *Objektwiederherstellung eingeleitet*  |  Eine Objektwiederherstellung wurde von der Speicherklasse S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive oder von der Schicht S3 Intelligent-Tiering Archive Access oder Deep Archive Access initiiert. Weitere Informationen finden Sie unter [Arbeiten mit archivierten Objekten](archived-objects.md).  | 
|  *Objektwiederherstellung abgeschlossen*  |  Eine Objektwiederherstellung wurde abgeschlossen.  | 
|  *Wiederherstellen von Objekten ist abgelaufen*  |  Die temporäre Kopie eines von S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive wiederhergestellten Objekts ist abgelaufen und wurde gelöscht.  | 
|  *Objektspeicherklasse geändert*  |  Ein Objekt wurde auf eine andere Speicherklasse umgestellt. Weitere Informationen finden Sie unter [Übertragen von Objekten mit Amazon-S3-Lebenszyklus](lifecycle-transition-general-considerations.md).  | 
|  *Objektzugriffsebene wurde geändert*  |  Ein Objekt wurde auf die Stufen S3 Intelligent-Tiering Archive Access oder Deep Archive Access umgestellt. Weitere Informationen finden Sie unter [Mit Amazon S3 Intelligent-Tiering Speicherkosten verwalten](intelligent-tiering.md).  | 
|  *ACL-Objekt aktualisiert*  |  Die Zugriffssteuerungsliste (ACL) eines Objekts wurde mit `PutObjectAcl` festgelegt. Ein Ereignis wird nicht generiert, wenn eine Anforderung keine Änderung an der ACL eines Objekts zur Folge hat. Weitere Informationen finden Sie unter [Zugriffskontrolllisten (ACL) – Übersicht](acl-overview.md).  | 
|  *Objekt-Tags hinzugefügt*  |  Mit `PutObjectTagging` wurde einem Objekt ein Satz von Tags hinzugefügt. Weitere Informationen finden Sie unter [Kategorisierung Ihrer Objekte mit Hilfe von Tags](object-tagging.md).  | 
|  *Gelöschte Objekt-Tags*  |  Alle Tags wurden mit `DeleteObjectTagging` aus einem Objekt entfernt. Weitere Informationen finden Sie unter [Kategorisierung Ihrer Objekte mit Hilfe von Tags](object-tagging.md).  | 

**Anmerkung**  
Weitere Informationen darüber, wie Amazon S3 S3-Ereignistypen EventBridge Ereignistypen zugeordnet werden, finden Sie unter[EventBridge Amazon-Kartierung und Problembehebung](ev-mapping-troubleshooting.md).

Sie können Amazon S3 Event Notifications mit verwenden EventBridge , um Regeln zu schreiben, die Maßnahmen ergreifen, wenn ein Ereignis in Ihrem Bucket eintritt. Sie können sich beispielsweise eine Benachrichtigung senden lassen. Weitere Informationen finden Sie unter [Was ist EventBridge?](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-what-is.html) im * EventBridge Amazon-Benutzerhandbuch*.

Weitere Informationen zu den Aktionen und Datentypen, mit denen Sie über die EventBridge API interagieren können, finden Sie in der [Amazon EventBridge API-Referenz](https://docs.aws.amazon.com/eventbridge/latest/APIReference/Welcome.html) in der *Amazon EventBridge API-Referenz*.

Informationen zu den Preisen finden Sie unter [ EventBridge Amazon-Preise](https://aws.amazon.com/eventbridge/pricing).

**Topics**
+ [EventBridge Amazon-Berechtigungen](ev-permissions.md)
+ [Amazon aktivieren EventBridge](enable-event-notifications-eventbridge.md)
+ [EventBridge Struktur der Ereignisnachricht](ev-events.md)
+ [EventBridge Amazon-Kartierung und Problembehebung](ev-mapping-troubleshooting.md)

# EventBridge Amazon-Berechtigungen
<a name="ev-permissions"></a>

Amazon S3 benötigt keine zusätzlichen Berechtigungen, um Ereignisse an Amazon zu übermitteln EventBridge.

# Amazon aktivieren EventBridge
<a name="enable-event-notifications-eventbridge"></a>

Sie können Amazon EventBridge mithilfe der S3-Konsole AWS Command Line Interface (AWS CLI) oder der Amazon S3 S3-REST-API aktivieren. 

**Anmerkung**  
Nach der Aktivierung dauert es etwa fünf Minuten EventBridge, bis die Änderungen wirksam werden.

## Verwenden der S3-Konsole
<a name="eventbridge-console"></a>

**Um die EventBridge Ereigniszustellung in der S3-Konsole zu aktivieren.**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus.

1. Wählen Sie in der Bucket-Liste den Namen des Buckets, für den Sie Ereignisse aktivieren möchten.

1. Wählen Sie **Properties (Eigenschaften)**.

1. Gehen Sie zum Abschnitt **Event-Benachrichtigungen** und suchen Sie den ** EventBridgeAmazon-Unterabschnitt**. Wählen Sie **Bearbeiten** aus.

1. Wählen **Sie unter Benachrichtigungen EventBridge für alle Ereignisse in diesem Bucket an Amazon senden** die Option **An**.

## Verwenden Sie AWS CLI
<a name="eventbridge-cli"></a>

Im folgenden Beispiel wird eine Bucket-Benachrichtigungskonfiguration für einen Bucket *`amzn-s3-demo-bucket1`* mit EventBridge aktiviertem Amazon erstellt.

```
aws s3api put-bucket-notification-configuration --bucket amzn-s3-demo-bucket1 --notification-configuration='{ "EventBridgeConfiguration": {} }'
```

## Verwenden der REST-API
<a name="eventbridge-api"></a>

Sie können Amazon programmgesteuert in einem Bucket aktivieren, indem Sie die EventBridge Amazon S3 S3-REST-API aufrufen. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketNotificationConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketNotificationConfiguration.html) in der *API-Referenz zu Amazon Simple Storage Service*.

Das folgende Beispiel zeigt das XML, das verwendet wurde, um eine Bucket-Benachrichtigungskonfiguration mit EventBridge aktiviertem Amazon zu erstellen.

```
<NotificationConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
  <EventBridgeConfiguration>
  </EventBridgeConfiguration>
</NotificationConfiguration>
```

## EventBridge Regeln erstellen
<a name="ev-tutorial"></a>

Nach der Aktivierung können Sie EventBridge Amazon-Regeln für bestimmte Aufgaben erstellen. Beispielsweise können Sie E-Mail-Benachrichtigungen senden, wenn ein Objekt erstellt wird. Ein vollständiges Tutorial finden Sie unter [Tutorial: Eine Benachrichtigung senden, wenn ein Amazon S3 S3-Objekt erstellt wird](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-s3-object-created-tutorial.html) im * EventBridge Amazon-Benutzerhandbuch*.

# EventBridge Struktur der Ereignisnachricht
<a name="ev-events"></a>

Die Benachrichtigung, die Amazon S3 sendet, um ein Ereignis zu veröffentlichen, verwendet das JSON-Format. Wenn Amazon S3 ein Ereignis an Amazon sendet EventBridge, sind die folgenden Felder vorhanden.
+ `version` – Derzeit 0 (Null) für alle Ereignisse.
+ `id` – Eine UUID, die für jedes Ereignis generiert wurde.
+ `detail-type` – Die Art des Ereignisses, das gesendet wird. Eine Liste der Ereignistypen finden Sie unter [Verwenden EventBridge](EventBridge.md).
+ `source` – Identifiziert den Service, aus dem das Ereignis stammt.
+ `account`— Die 12-stellige AWS-Konto ID des Bucket-Besitzers.
+ `time` – Der Zeitpunkt, an dem das Ereignis aufgetreten ist.
+ `region`— Identifiziert die AWS-Region des Buckets.
+ `resources` – Ein JSON-Array, das den Amazon-Ressourcennamen (ARN) des Buckets enthält.
+ `detail` – Ein JSON-Objekt, das Informationen zum Ereignis enthält. Weitere Informationen dazu, was in diesem Feld enthalten sein kann, finden Sie unter [Detailfeld für Ereignismeldung](#ev-events-detail).

## Beispiele für Ereignismeldungen
<a name="ev-events-list"></a>

Im Folgenden finden Sie Beispiele für einige der Amazon S3 S3-Ereignisbenachrichtigungen, die an Amazon gesendet werden können EventBridge.

### Objekt erstellt
<a name="ev-events-object-created"></a>

```
{
  "version": "0",
  "id": "17793124-05d4-b198-2fde-7ededc63b103",
  "detail-type": "Object Created",
  "source": "aws.s3",
  "account": "111122223333",
  "time": "2021-11-12T00:00:00Z",
  "region": "ca-central-1",
  "resources": [
    "arn:aws:s3:::amzn-s3-demo-bucket1"
  ],
  "detail": {
    "version": "0",
    "bucket": {
      "name": "amzn-s3-demo-bucket1"
    },
    "object": {
      "key": "example-key",
      "size": 5,
      "etag": "b1946ac92492d2347c6235b4d2611184",
      "version-id": "IYV3p45BT0ac8hjHg1houSdS1a.Mro8e",
      "sequencer": "617f08299329d189"
    },
    "request-id": "N4N7GDK58NMKJ12R",
    "requester": "123456789012",
    "source-ip-address": "1.2.3.4",
    "reason": "PutObject"
  }
}
```

### Objekt wurde gelöscht (mithilfe von DeleteObject)
<a name="ev-events-object-deleted"></a>

```
{
  "version": "0",
  "id": "2ee9cc15-d022-99ea-1fb8-1b1bac4850f9",
  "detail-type": "Object Deleted",
  "source": "aws.s3",
  "account": "111122223333",
  "time": "2021-11-12T00:00:00Z",
  "region": "ca-central-1",
  "resources": [
    "arn:aws:s3:::amzn-s3-demo-bucket1"
  ],
  "detail": {
    "version": "0",
    "bucket": {
      "name": "amzn-s3-demo-bucket1"
    },
    "object": {
      "key": "example-key",
      "etag": "d41d8cd98f00b204e9800998ecf8427e",
      "version-id": "1QW9g1Z99LUNbvaaYVpW9xDlOLU.qxgF",
      "sequencer": "617f0837b476e463"
    },
    "request-id": "0BH729840619AG5K",
    "requester": "123456789012",
    "source-ip-address": "1.2.3.4",
    "reason": "DeleteObject",
    "deletion-type": "Delete Marker Created"
  }
}
```

### Objekt wurde gelöscht (unter Verwendung des Lebenszyklusablaufs)
<a name="ev-events-object-deleted-lifecycle"></a>

```
{
  "version": "0",
  "id": "ad1de317-e409-eba2-9552-30113f8d88e3",
  "detail-type": "Object Deleted",
  "source": "aws.s3",
  "account": "111122223333",
  "time": "2021-11-12T00:00:00Z",
  "region": "ca-central-1",
  "resources": [
    "arn:aws:s3:::amzn-s3-demo-bucket1"
  ],
  "detail": {
    "version": "0",
    "bucket": {
      "name": "amzn-s3-demo-bucket1"
    },
    "object": {
      "key": "example-key",
      "etag": "d41d8cd98f00b204e9800998ecf8427e",
      "version-id": "mtB0cV.jejK63XkRNceanNMC.qXPWLeK",
      "sequencer": "617b398000000000"
    },
    "request-id": "20EB74C14654DC47",
    "requester": "s3.amazonaws.com",
    "reason": "Lifecycle Expiration",
    "deletion-type": "Delete Marker Created"
  }
}
```

### Objektwiederherstellung abgeschlossen
<a name="ev-events-object-restore-complete"></a>

```
{
  "version": "0",
  "id": "6924de0d-13e2-6bbf-c0c1-b903b753565e",
  "detail-type": "Object Restore Completed",
  "source": "aws.s3",
  "account": "111122223333",
  "time": "2021-11-12T00:00:00Z",
  "region": "ca-central-1",
  "resources": [
    "arn:aws:s3:::amzn-s3-demo-bucket1"
  ],
  "detail": {
    "version": "0",
    "bucket": {
      "name": "amzn-s3-demo-bucket1"
    },
    "object": {
      "key": "example-key",
      "size": 5,
      "etag": "b1946ac92492d2347c6235b4d2611184",
      "version-id": "KKsjUC1.6gIjqtvhfg5AdMI0eCePIiT3"
    },
    "request-id": "189F19CB7FB1B6A4",
    "requester": "s3.amazonaws.com",
    "restore-expiry-time": "2021-11-13T00:00:00Z",
    "source-storage-class": "GLACIER"
  }
}
```

## Detailfeld für Ereignismeldung
<a name="ev-events-detail"></a>

Das Detailfeld enthält ein JSON-Objekt mit Informationen über das Ereignis. Die folgenden Felder können im Detailfeld vorhanden sein.
+ `version` – Derzeit 0 (Null) für alle Ereignisse.
+ `bucket` – Informationen zum Amazon S3-Bucket, der an dem Event beteiligt ist.
+ `object` – Informationen über das an dem Ereignis beteiligte Amazon-S3-Objekt.
+ `request-id` – Anforderungs-ID in S3 Antwort.
+ `requester`— AWS-Konto ID oder AWS Dienstprinzipal des Anfragenden.
+ `source-ip-address` – Quell-IP-Adresse der S3-Anforderung. Nur vorhanden für Ereignisse, die durch eine S3-Anfrage ausgelöst werden.
+ `reason` – Bei Ereignissen vom **Typ Object** wird die S3-API verwendet, um das Objekt zu erstellen: [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectPOST.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectPOST.html), [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html), oder [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html). Für **Object Deleted**-Ereignisse wird dies auf **DeleteObject** gesetzt, wenn ein Objekt durch einen S3-API-Aufruf gelöscht wird, oder **Lebenszyklusablauf**, wenn ein Objekt durch eine S3-Lebenszyklus-Ablaufregel gelöscht wird. Weitere Informationen finden Sie unter [Ablauf von Objekten](lifecycle-expire-general-considerations.md).
+ `deletion-type` – Wenn ein nicht versioniertes Objekt gelöscht wird oder ein versioniertes Objekt dauerhaft gelöscht wird, wird bei **Object Deleted**-Ereignissen dies auf **Permanently Deleted** festgelegt. Wenn ein Löschmarker für ein versioniertes Objekt erstellt wird, wird dieser auf **Löschmarkierung erstellt** gesetzt. Weitere Informationen finden Sie unter [Löschen von Objekten aus einem versioning-fähigen Bucket](DeletingObjectVersions.md).
**Anmerkung**  
Einige Objektattribute (wie `etag` und`size`) sind nur vorhanden, wenn eine Löschmarkierung erstellt wird.
+ `restore-expiry-time` – Bei Ereignissen **Objektwiederherstellung abgeschlossen** der Zeitpunkt, zu dem die temporäre Kopie des Objekts aus S3 gelöscht wird. Weitere Informationen finden Sie unter [Arbeiten mit archivierten Objekten](archived-objects.md).
+ `source-storage-class` – Bei den Ereignissen **Objektwiederherstellung eingeleitet** und **Objektwiederherstellung abgeschlossen** die Speicherklasse des wiederherzustellenden Objekts. Weitere Informationen finden Sie unter [Arbeiten mit archivierten Objekten](archived-objects.md).
+ `destination-storage-class` – Für Ereignisse **Objektspeicherklasse geändert** die neue Speicherklasse des Objekts. Weitere Informationen finden Sie unter [Übertragen von Objekten mit Amazon-S3-Lebenszyklus](lifecycle-transition-general-considerations.md).
+ `destination-access-tier` – Für Ereignisse **Objektzugriffebene geändert** die neue Zugriffebene des Objekts. Weitere Informationen finden Sie unter [Mit Amazon S3 Intelligent-Tiering Speicherkosten verwalten](intelligent-tiering.md).

# EventBridge Amazon-Kartierung und Problembehebung
<a name="ev-mapping-troubleshooting"></a>

In der folgenden Tabelle wird beschrieben, wie Amazon S3 S3-Ereignistypen EventBridge Amazon-Ereignistypen zugeordnet werden.


|  S3-Ereignistyp |  EventBridge Amazon-Detailtyp  | 
| --- | --- | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html) [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectPOST.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectPOST.html) [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html) [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html)  |  Objekt erstellt  | 
|  ObjectRemoved:Delete ObjectRemoved:DeleteMarkerCreated LifecycleExpiration:Delete LifecycleExpiration:DeleteMarkerCreated  |  Objekt gelöscht  | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/API_RestoreObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_RestoreObject.html)  |  Objektwiederherstellung eingeleitet  | 
|  ObjectRestore:Completed  |  Objektwiederherstellung abgeschlossen  | 
|  ObjectRestore:Delete  |  Wiederherstellen von Objekten ist abgelaufen  | 
|  LifecycleTransition  |  Objektspeicherklasse geändert  | 
|  IntelligentTiering  |  Objektzugriffsebene wurde geändert  | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectTagging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectTagging.html)  |  Objekt-Tags hinzugefügt  | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteObjectTagging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteObjectTagging.html)  |  Gelöschte Objekt-Tags  | 
|  [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectAcl.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectAcl.html)  |  ACL-Objekt aktualisiert  | 

## EventBridge Amazon-Problembehebung
<a name="ev-troubleshooting"></a>

Informationen zur Fehlerbehebung EventBridge finden Sie unter [Problembehandlung bei Amazon EventBridge](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-troubleshooting.html) im * EventBridge Amazon-Benutzerhandbuch*.

# Überwachung Ihrer Speicheraktivität und -nutzung mit Amazon S3 Storage Lens
<a name="storage_lens"></a>

Amazon S3 Storage Lens ist eine Cloud-Speicheranalysefunktion, mit der Sie unternehmensweite Erkenntnisse zu Objektspeichern und Aktivitäten erhalten können. S3 Storage Lens analysiert Metriken, um kontextbezogene Empfehlungen zur Optimierung der Speicherkosten und zur Anwendung bewährter Datenschutzmethoden zu geben. 

Mithilfe der Metriken von S3 Storage Lens lässt sich eine Zusammenfassung der Erkenntnisse generieren. Beispielseise können Sie herausfinden, wie viel Speicher Sie in der gesamten Organisation haben oder welche Buckets und Präfixe am schnellsten wachsen. Sie können auch die Kennzahlen von S3 Storage Lens verwenden, um Möglichkeiten zur Kostenoptimierung zu identifizieren, bewährte Methoden für Datenschutz und Zugriffsmanagement zu implementieren und die Leistung von Anwendungsworkloads zu verbessern. So können Sie beispielsweise Buckets identifizieren, für die keine S3-Lebenszyklusregeln eingerichtet sind, damit unvollständige mehrteilige Uploads, die älter als 7 Tage sind, ablaufen. Sie können auch Bereiche identifizieren, die nicht den Best Practices für den Datenschutz entsprechen, z. B. die Verwendung von S3-Replikation oder S3-Versionierung. 

S3 Storage Lens aggregiert Ihre Metriken und zeigt die Informationen im Abschnitt**Konto-Snapshot** der Seite **Buckets** der Amazon-S3-Konsole an. S3 Storage Lens bietet außerdem ein interaktives Dashboard, mit dem Sie Erkenntnisse und Trends visualisieren, Ausreißer kennzeichnen und Empfehlungen zur Optimierung der Speicherkosten und zur Anwendung bewährter Datenschutzpraktiken erhalten können. Ihr Dashboard bietet Drilldown-Optionen zur Generierung und Visualisierung von Erkenntnissen auf Organisations-, Konto-, Speicherklassen- AWS-Region, Bucket-, Präfix- oder Storage Lens-Gruppenebene. Sie können auch einen täglichen Metrikbericht im CSV- oder Parquet Format an einen S3-Bucket für allgemeine Zwecke senden oder die Metriken direkt in einen AWS verwalteten S3-Tabellen-Bucket exportieren. 

![\[Der Abschnitt Snapshot for date (Snapshot für Datum) im S3-Storage-Lens-Dashboard.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/storage-lens-dashboard.png)


## Metriken und Funktionen von S3 Storage Lens
<a name="storage-lens-dashboards-intro"></a>

S3 Storage Lens bietet ein interaktives *Standard-Dashboard*, das täglich aktualisiert wird. Gemäß Vorkonfiguration von S3 Storage Lens werden in diesem Dashboard die zusammengefassten Erkenntnisse und Trends Ihres gesamten Kontos visualisiert und täglich in der S3-Konsole aktualisiert. Metriken aus diesem Dashboard werden auch in Ihrem Konto-Snapshot auf der Seite **Buckets** zusammengefasst. Weitere Informationen finden Sie unter [Standard-Dashboard](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_default_dashboard).

Um weitere Dashboards zu erstellen und sie anhand von AWS-Regionen S3-Buckets oder Konten (für AWS Organizations) zu skalieren, erstellen Sie eine S3 Storage Lens-Dashboard-Konfiguration. Sie können S3 Storage Lens-Dashboard-Konfigurationen mithilfe der Amazon S3 S3-Konsole AWS Command Line Interface (AWS CLI) oder der Amazon S3 S3-REST-API erstellen und verwalten. AWS SDKs Wenn Sie ein S3-Storage-Lens-Dashboard erstellen oder bearbeiten, definieren Sie den Dashboard-Umfang und die Metrikauswahl. 

S3 Storage Lens bietet Metriken für das kostenlose Kontingent und Metriken für das erweiterte Kontingent, auf die Sie gegen Aufpreis ein Upgrade durchführen können. Mit der erweiterten Stufe können Sie auf zusätzliche Messwerte und Funktionen zugreifen, um einen Einblick in Ihren Speicher zu erhalten. Zu diesen Funktionen gehören erweiterte Metrikkategorien, Präfixaggregation, kontextuelle Empfehlungen, erweiterte Präfix-Metrikberichte und Amazon-Veröffentlichungen. CloudWatch Präfixaggregation und kontextbezogene Empfehlungen sind nur in der Amazon-S3-Konsole verfügbar. Weitere Informationen zu den Preisen für S3 Storage Lens finden Sie unter [Amazon S3-Preise](https://aws.amazon.com/s3/pricing).

**Metrikkategorien**  
In den kostenlosen und erweiterten Stufen sind die Metriken in Kategorien unterteilt, die auf wichtige Anwendungsfälle wie Kostenoptimierung und Datenschutz abgestimmt sind. Zu den kostenlosen Metriken gehören Zusammenfassung, Kostenoptimierung, Datenschutz, Zugriffsverwaltung, Leistung und Ereignismetriken. Wenn Sie auf die erweiterte Stufe umsteigen, können Sie erweiterte Kennzahlen zur Kostenoptimierung und zum Datenschutz aktivieren. Sie können diese erweiterten Kennzahlen verwenden, um Ihre S3-Speicherkosten weiter zu senken und Ihre Datenschutzmaßnahmen zu verbessern. Sie können auch Aktivitätsmetriken und detaillierte Statuscode-Metriken aktivieren, um die Leistung von Anwendungs-Workloads zu verbessern, die auf Ihre S3-Buckets zugreifen. Weitere Informationen zu kostenlosen und erweiterten Metriken finden Sie unter [Auswahl der Metriken](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

Sie können Ihren Speicher auf der Grundlage bewährter Methoden von S3 bewerten, z. B. indem Sie den Prozentsatz der Buckets analysieren, für die die Verschlüsselung, S3 Object Lock oder S3 Versioning aktiviert ist. Sie können auch potenzielle Kosteneinsparungsmöglichkeiten identifizieren. Zum Beispiel können Sie Metriken zur Anzahl von S3-Lebenszyklusregeln verwenden, um Buckets zu identifizieren, in denen Lebenszyklusregeln zum Ablauf und Übergang fehlen. Sie können auch Ihre Anforderungsaktivität pro Bucket analysieren, um Buckets zu finden, in denen Objekte in eine kostengünstigere Speicherklasse überführt werden können. Weitere Informationen finden Sie unter [Anwendungsfälle für Metriken von Amazon S3 Storage Lens](storage-lens-use-cases.md).

**Export von Metriken**

**Standardbericht über Metriken**  
Der Standardmetrikbericht in S3 Storage Lens enthält kostenlose Metriken und erweiterte Metriken zur Objektspeichernutzung und zu Aktivitätstrends in Ihrem Land AWS-Konten. Der Bericht beinhaltet eine Präfixaggregation für Präfixe, deren Objekte mindestens 1% der gesamten im Bucket gespeicherten Daten ausmachen, und unterstützt bis zu 10 Stufen der Präfixtiefe. Der Bericht kann täglich im CSV- oder im Parquet Format in einen S3-Allzweck-Bucket exportiert werden. Der Bericht kann auch an einen AWS verwalteten S3-Tabellen-Bucket (mit Namen`aws-s3`) gesendet werden, sodass er einfach mit AWS Analysediensten oder Tools von Drittanbietern abgefragt werden kann.

Mit dem standardmäßigen Metrikbericht können Sie Möglichkeiten zur Kostenoptimierung identifizieren, z. B. Buckets ohne S3-Lebenszyklusregeln für unvollständige mehrteilige Uploads und Buckets, die nicht den bewährten Datenschutzpraktiken wie S3-Replikation oder S3-Versionierung entsprechen. Der Standardmetrikbericht enthält außerdem kontextbezogene Empfehlungen zur Optimierung der Speicherkosten und zur Anwendung bewährter Datenschutzpraktiken, ohne dass zusätzliche Kosten über die Standard-S3-Speicherkosten hinausgehen.

**Erweiterter Bericht über Präfixe und Metriken**  
Der Bericht mit den erweiterten Präfixmetriken von Storage Lens bietet umfassende Analysen auf Präfixebene für Ihre gesamten S3-Speicherdaten und erweitert so die Abdeckung, sodass Milliarden von Präfixen in Ihrem Bucket unterstützt werden können. Dieser Bericht enthält Messwerte für alle Präfixe in Ihren Buckets, einschließlich Speichernutzung, übertragene Byte, Anzahl der Anfragen nach Statuscode und Metriken zur Einhaltung von Datenschutzbestimmungen. Sie können diese Daten täglich im CSV- oder Parquet Format in den S3-Allzweck-Bucket exportieren. Sie können die Metriken auch direkt in den `aws-s3` AWS verwalteten S3-Tabellen-Bucket exportieren.

**Anmerkung**  
Der Bericht verarbeitet Metriken für Präfixe mit einer Tiefe von bis zu 50 Ebenen und schließt Metriken auf Präfixebene für jeden Bucket aus, bei dem die Kombination aus Präfix und Speicherklasse das Doppelte der Objektanzahl übersteigt.

Mit dem erweiterten Bericht über Präfix-Metriken können Sie Möglichkeiten zur Leistungsoptimierung, wie z. B. hohe Fehlerraten, kleine Objekte oder suboptimale Anforderungsmuster, für Milliarden von Präfixen in Ihrem Bucket identifizieren. Im Gegensatz zum Standardmetrikbericht enthält der erweiterte Präfix-Metrikbericht Metriken für detaillierte Präfixe in Ihrem Bucket. Sie können beispielsweise Präfixe mit einer großen Anzahl von Objekten mit einer Größe von weniger als 128 KB identifizieren, um solche Datensätze schnell zu isolieren und zu komprimieren, wodurch die Anwendungsleistung verbessert wird. Dieser Bericht ist in allen Versionen AWS-Regionen als Opt-in-Funktion in der Advanced Tier Dashboard-Konfiguration von Storage Lens verfügbar.

**Veröffentlichung von Metriken**

**CloudWatch Amazon-Verlagswesen**  
Sie können die Nutzungs- und Aktivitätsmetriken von S3 Storage Lens CloudWatch auf Amazon veröffentlichen, um eine einheitliche Ansicht Ihres Betriebszustands in CloudWatch [Dashboards](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html) zu erstellen. Sie können auch CloudWatch Funktionen wie Alarme und ausgelöste Aktionen, metrische Berechnungen und Anomalieerkennung verwenden, um S3 Storage Lens-Metriken zu überwachen und entsprechende Maßnahmen zu ergreifen. Darüber hinaus ermöglichen CloudWatch API-Operationen Anwendungen, einschließlich Drittanbietern, den Zugriff auf Ihre S3 Storage Lens-Metriken. Die CloudWatch Veröffentlichungsoption ist für Dashboards verfügbar, die auf die erweiterte Stufe S3 Storage Lens aktualisiert wurden. Weitere Informationen zur Unterstützung von S3 Storage Lens-Metriken finden Sie CloudWatch unter[Überwachen Sie die Metriken von S3 Storage Lens in CloudWatch](storage_lens_view_metrics_cloudwatch.md).

Weitere Informationen zur Verwendung von S3 Storage Lens finden Sie in den folgenden Themen.

**Topics**
+ [Metriken und Funktionen von S3 Storage Lens](#storage-lens-dashboards-intro)
+ [Grundlegendes zu Amazon S3 Storage Lens](storage_lens_basics_metrics_recommendations.md)
+ [Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md)
+ [Festlegen der Berechtigungen für Amazon S3 Storage Lens](storage_lens_iam_permissions.md)
+ [Arbeiten mit Amazon S3 Storage Lens unter Verwendung der Konsole und der API](S3LensExamples.md)
+ [Anzeigen von Metriken mit Amazon S3 Storage Lens](storage_lens_view_metrics.md)
+ [Arbeiten mit S3 Storage Lens-Daten in S3-Tabellen](storage-lens-s3-tables.md)
+ [Verwenden von Amazon S3 Storage Lens mit AWS Organizations](storage_lens_with_organizations.md)
+ [Arbeiten mit S3-Storage-Lens-Gruppen zum Filtern und Aggregieren von Metriken](storage-lens-groups-overview.md)

# Grundlegendes zu Amazon S3 Storage Lens
<a name="storage_lens_basics_metrics_recommendations"></a>

**Wichtig**  
Amazon S3 wendet jetzt serverseitige Verschlüsselung mit von Amazon S3 verwalteten Verschlüsselungsschlüssel (SSE-S3) als Basisverschlüsselung für jeden Bucket in Amazon S3 an. Ab dem 5. Januar 2023 werden alle neuen Objekt-Uploads auf Amazon S3 ohne zusätzliche Kosten und ohne Auswirkungen auf die Leistung automatisch verschlüsselt. Der automatische Verschlüsselungsstatus für die Standardverschlüsselungskonfiguration des S3-Buckets und für das Hochladen neuer Objekte ist in den CloudTrail Protokollen, im S3-Inventar, in der S3-Speicherlinse, in der Amazon S3-Konsole und als zusätzlicher Amazon S3 S3-API-Antwortheader im AWS CLI und AWS SDKs verfügbar. Weitere Informationen finden Sie unter [Häufig gestellte Fragen zur Standardverschlüsselung](https://docs.aws.amazon.com/AmazonS3/latest/userguide/default-encryption-faq.html).

Amazon S3 Storage Lens ist eine Cloud-Speicheranalysefunktion, mit der Sie unternehmensweite Einblicke in die Nutzung und Aktivität von Objektspeichern erhalten können. Sie können Metriken von S3 Storage Lens verwenden, um zusammenfassende Erkenntnisse zu gewinnen und z. B. herauszufinden, wie viel Speicher Sie in Ihrer gesamten Organisation haben oder welche Buckets und Präfixe am schnellsten wachsen. Außerdem können Sie anhand der Metriken von S3 Storage Lens umfassende Möglichkeiten zur Kostenoptimierung aufdecken, bewährte Methoden für den Datenschutz implementieren und die Leistung von Anwendungs-Workloads verbessern. Sie können beispielsweise Buckets identifizieren, für die keine S3-Lebenszyklusregeln gelten, damit unvollständige mehrteilige Uploads, die älter als 7 Tage sind, ablaufen. Sie können auch Buckets identifizieren, die nicht den bewährten Datenschutzmethoden entsprechen, z. B. die Verwendung von S3 Replication oder S3 Versionierung. S3 Storage Lens analysiert Metriken, um kontextbezogene Empfehlungen zur Optimierung der Speicherkosten und zur Anwendung bewährter Datenschutzmethoden zu geben. 

S3 Storage Lens aggregiert Ihre Metriken und zeigt die Informationen im Abschnitt **Konto-Snapshot** der Seite **Buckets** der Amazon-S3-Konsole an. S3 Storage Lens bietet auch ein interaktives Dashboard, mit dem Sie Erkenntnisse und Trends visualisieren, Ausreißer kennzeichnen und Empfehlungen zur Optimierung der Speicherkosten und zur Anwendung bewährter Datenschutzpraktiken erhalten können. Ihr Dashboard bietet Drilldown-Optionen zur Generierung und Visualisierung von Erkenntnissen auf Organisations-, Konto-, Speicherklassen- AWS-Region, Bucket-, Präfix- oder Storage Lens-Gruppenebene. Sie können auch einen täglichen Metrikbericht im CSV- oder Parquet Format an einen S3-Bucket für allgemeine Zwecke senden oder die Metriken direkt in einen AWS verwalteten S3-Tabellen-Bucket exportieren. Sie können S3 Storage Lens-Dashboards mithilfe der Amazon S3 S3-Konsole AWS Command Line Interface (AWS CLI) oder der Amazon S3 S3-REST-API erstellen und verwalten. AWS SDKs 

## Konzepte und Terminologie von S3 Storage Lens
<a name="storage_lens_basics"></a>

Dieser Abschnitt enthält die Terminologie und Konzepte, die für das Verständnis und die erfolgreiche Verwendung von Amazon S3 Storage Lens unerlässlich sind.

**Topics**
+ [Konfiguration des Dashboards](#storage_lens_basics_configuration)
+ [Standard-Dashboard](#storage_lens_basics_default_dashboard)
+ [Dashboards](#storage_lens_basics_dashboards)
+ [Konto-Snapshot](#storage_lens_basics_account_snapshot)
+ [Metrik-Export](#storage_lens_basics_metrics_export)
+ [Metriken exportieren Ziele](#storage_lens_basics_metrics_export_destinations)
+ [Heimatregion](#storage_lens_basics_home_region)
+ [Aufbewahrungszeitraum](#storage_lens_basics_data_queries)
+ [Metrikkategorien](#storage_lens_basics_metrics_types)
+ [Empfehlungen](#storage_lens_basics_recommendations)
+ [Auswahl der Metriken](#storage_lens_basics_metrics_selection)
+ [Präfix-Trennzeichen](#storage_lens_basics_prefix_delimiter)
+ [S3-Speicherlinse und AWS Organizations](#storage_lens_basics_organizations)

### Konfiguration des Dashboards
<a name="storage_lens_basics_configuration"></a>

S3 Storage Lens erfordert eine Dashboard-Konfiguration, die die Eigenschaften enthält, mit denen Metriken in Ihrem Namen für ein einzelnes Dashboard oder einen Export aggregiert werden. Wenn Sie eine Konfiguration erstellen, wählen Sie den Dashboard-Namen und die Heimatregion aus, die Sie nach der Erstellung des Dashboards nicht mehr ändern können. Sie können optional Tags hinzufügen und einen Metrikexport im CSV- oder Parquet-Format konfigurieren. 

In der Dashboard-Konfiguration definieren Sie auch den Dashboard-Umfang und die Metrikauswahl. Der Umfang kann den gesamten Speicherplatz für Ihr Organisationskonto oder Abschnitte umfassen, die nach Region, Bucket und Konto gefiltert sind. Wenn Sie die Metrikauswahl konfigurieren, wählen Sie zwischen Metriken für das kostenlose Kontingent und Metriken für das erweiterte Kontingent, auf die Sie gegen Aufpreis ein Upgrade durchführen können. Mit dem erweiterten Tarif können Sie auf zusätzliche Messwerte und Funktionen zugreifen. Zu diesen Funktionen gehören erweiterte Metrikkategorien, Aggregation auf Präfixebene, kontextuelle Empfehlungen und Amazon-Veröffentlichungen. CloudWatch Weitere Informationen zu den Preisen für S3 Storage Lens finden Sie unter [Amazon S3-Preise](https://aws.amazon.com/s3/pricing).

### Standard-Dashboard
<a name="storage_lens_basics_default_dashboard"></a>

Das Standard-Dashboard von S3 Storage Lens auf der Konsole hat den Namen. **default-account-dashboard** Gemäß S3-Vorkonfiguration werden in diesem Dashboard die zusammengefassten Erkenntnisse und Trends Ihres gesamten Kontos visualisiert und täglich in der S3-Konsole aktualisiert. Sie können den Konfigurationsumfang des Standard-Dashboards nicht ändern, aber Sie können die Metrikauswahl von Metriken für das kostenlose Kontingent auf Metriken für das erweiterte Kontingent erweitern. Sie können den optionalen Metrikexport konfigurieren oder sogar das Dashboard deaktivieren. Löschen können Sie das Standard-Dashboard jedoch nicht.

**Anmerkung**  
Wenn Sie Ihr Standard-Dashboard deaktivieren, wird es nicht mehr aktualisiert. Sie erhalten auf Ihrem S3 Storage Lens-Dashboard, in Ihrem Metrikexport oder im Konto-Snapshot auf der S3-Seite **Buckets** keine neuen täglichen Metriken mehr. Wenn dein Dashboard erweiterte Metriken verwendet, werden dir keine Gebühren mehr berechnet. Sie können im Dashboard weiterhin historische Daten anzeigen, bis der Zeitraum von 14 Tagen für Datenabfragen abläuft. Dieser Zeitraum beträgt 15 Monate, wenn Sie erweiterte Metriken aktiviert haben. Sie können das Dashboard innerhalb des Ablaufzeitraums wieder aktivieren, um auf historische Daten zuzugreifen.

### Dashboards
<a name="storage_lens_basics_dashboards"></a>

Sie können zusätzliche S3 Storage Lens-Dashboards erstellen und diese nach AWS-Regionen S3-Buckets oder Konten (für AWS Organizations) eingrenzen. Wenn Sie ein S3-Storage-Lens-Dashboard erstellen oder bearbeiten, definieren Sie den Dashboard-Umfang und die Metrikauswahl. S3 Storage Lens bietet Metriken für das kostenlose Nutzungskontingent und Metriken für das erweiterte Nutzungskontingent, auf die Sie gegen Aufpreis ein Upgrade durchführen können. Mit erweiterten Metriken können Sie auf zusätzliche Metriken und Funktionen zugreifen, um einen Einblick in Ihren Speicher zu erhalten. Dazu gehören erweiterte Metrikkategorien, Aggregation auf Präfixebene, kontextuelle Empfehlungen und Amazon-Veröffentlichungen. CloudWatch Weitere Informationen zu den Preisen für S3 Storage Lens finden Sie unter [Amazon S3-Preise](https://aws.amazon.com/s3/pricing).

Sie können das Dashboard auch deaktivieren oder löschen. Wenn Sie ein Dashboard deaktivieren, wird es nicht mehr aktualisiert und Sie erhalten keine neuen täglichen Kennzahlen mehr. Sie können historische Daten dann noch bis zum Ende des Ablaufzeitraums von 14 Tagen einsehen. Wenn Sie erweiterte Metriken für dieses Dashboard aktiviert haben, beträgt dieser Zeitraum 15 Monate. Sie können das Dashboard innerhalb des Ablaufzeitraums wieder aktivieren, um auf historische Daten zuzugreifen. 

Wenn Sie ein Dashboard löschen, gehen alle Dashboard-Konfigurationseinstellungen verloren. Sie erhalten dann keine neuen täglichen Metriken mehr und können nicht mehr auf die mit dem Dashboard verbundenen historischen Daten zugreifen. Wenn Sie auf die historischen Daten eines gelöschten Dashboards zugreifen möchten, müssen Sie ein neues Dashboard mit demselben Namen in derselben Heimatregion erstellen.

**Anmerkung**  
Sie können S3 Storage Lens verwenden, um bis zu 50 Dashboards pro Heimatregion zu erstellen.
Dashboards auf Organisationsebene können nur auf einen regionalen Bereich beschränkt werden.

### Konto-Snapshot
<a name="storage_lens_basics_account_snapshot"></a>

Der **Konto-Snapshot** von S3 Storage Lens fasst Metriken aus Ihrem Standard-Dashboard zusammen und zeigt Ihren Gesamtspeicher, die Objektzahl und die durchschnittliche Objektgröße auf der Seite **Buckets** der S3-Konsole an. Mit diesem Konto-Snapshot haben Sie schnellen Zugriff auf Erkenntnisse über Ihren Speicher, ohne die Seite **Buckets** verlassen zu müssen. Der Konto-Snapshot bietet auch mit einem Klick Zugriff auf Ihr interaktives S3-Storage-Lens-Dashboard. 

Sie können Ihr Dashboard verwenden, um Erkenntnisse und Trends zu visualisieren, Ausreißer zu kennzeichnen und Empfehlungen zur Optimierung der Speicherkosten und zur Anwendung bewährter Datenschutzpraktiken zu erhalten. Ihr Dashboard verfügt über Drilldown-Optionen, um Erkenntnisse auf Organisations-, Konto-, Bucket-, Objekt- oder sogar Präfixebene zu generieren. Sie können auch einmal täglich einen Metrikexport in einen S3-Bucket im CSV- oder Parquet-Format senden.

Sie können den Dashboard-Umfang des **default-account dashboard** (Standardkonto-Dashboards) nicht ändern, da er mit dem **Konto-Snapshot** verknüpft ist. Sie können die Metrikenauswahl in Ihrem Bereich jedoch **default-account-dashboard**von kostenlosen Kennzahlen auf kostenpflichtige erweiterte Metriken umstellen. Nach dem Upgrade können Sie alle Anfragen, hochgeladenen Bytes und heruntergeladenen Bytes im **Konto-Snapshot** von S3 Storage Lens anzeigen. 

**Anmerkung**  
Wenn Sie Ihr Standard-Dashboard deaktivieren, wird Ihr **Account snapshot** (Konto-Snapshot) nicht mehr aktualisiert. Um weiterhin Metriken im **Konto-Snapshot** anzuzeigen, können Sie den **default-account-dashboard**erneut aktivieren.

### Metrik-Export
<a name="storage_lens_basics_metrics_export"></a>

Ein Metrik-Export ist eine Datei, die alle in Ihrer S3-Storage-Lens-Konfiguration erfassten Metriken enthält. Diese Informationen werden täglich im CSV- oder Parquet Format generiert und an einen S3-Bucket für allgemeine Zwecke gesendet. Sie können die Metriken auch direkt in den `aws-s3` AWS verwalteten S3-Tabellen-Bucket exportieren, sodass sie einfach mit AWS Analysediensten oder Tools von Drittanbietern abgefragt werden können. Sie können den Metrikexport für weitere Analysen verwenden, indem Sie das Metrik-Tool Ihrer Wahl verwenden. Der für Ihren Metrikexport angegebene Bucket muss sich in derselben Region befinden wie Ihre S3 Storage Lens-Konfiguration. Sie können einen Metrikexport von S3 Storage Lens über die S3-Konsole generieren, indem Sie Ihre Dashboard-Konfiguration bearbeiten. Sie können einen Metrikexport auch mithilfe von AWS CLI und konfigurieren AWS SDKs.

In Storage Lens sind zwei Arten von Metrikexporten verfügbar:
+ **Standardmetrikbericht** — Der Standardmetrikbericht in S3 Storage Lens enthält kostenlose Metriken und Aktivitätstrends für Ihre Daten AWS-Konto und fasst Nutzungsmetriken für die wichtigsten Präfixe zusammen.
+ **Erweiterter Bericht über Präfix-Metriken** — Der Bericht mit den erweiterten Präfix-Metriken von Storage Lens bietet detaillierte Speicher- und Aktivitätsmetriken (wie Speichernutzung, übertragene Byte und Anzahl der Anfragen nach Statuscode) auf Präfixebene für jedes Präfix in Ihrem Bucket. Dieser Bericht ist über die erweiterte Preisstufe in Ihrer Storage AWS-Regionen Lens-Dashboard-Konfiguration in allen Bereichen als optionale Funktion verfügbar. Informationen zu den Preisen für die Funktionen von S3 Storage Lens finden Sie unter [Amazon S3 S3-Preise](https://aws.amazon.com/s3/pricing).

**Anmerkung**  
Storage Lens generiert nur Metriken für [S3-Allzweck-Buckets](UsingBucket.md).

### Metriken exportieren Ziele
<a name="storage_lens_basics_metrics_export_destinations"></a>

Beim Exportieren von Messdaten aus Storage Lens können Sie sowohl einen S3-Bucket für allgemeine Zwecke als auch einen S3-Tabellen-Bucket als Ziel wählen. Allzweck-Buckets bieten umfassende Kompatibilität mit bestehenden Tools und Anwendungen und bieten Flexibilität bei der Verarbeitung von Daten innerhalb Ihres Kontos mithilfe Ihrer bevorzugten Analysedienste. Diese Option unterstützt standardmäßige S3-Zugriffsmuster und Integrationen für die Datenanalyse innerhalb einzelner Buckets in Ihrer Region. Im Gegensatz dazu können Sie mit dem S3 Table Bucket sofortige Abfragen über mehrere Konten und Regionen hinweg ausführen, benutzerdefinierte Dashboards mit Amazon Quick erstellen und Daten mit anderen AWS Services oder Tools von Drittanbietern verknüpfen, ohne dass eine zusätzliche Verarbeitungsinfrastruktur erforderlich ist. Sie können beispielsweise Storage Lens-Metriken mit S3-Metadaten kombinieren, um Objektaktivitätsmuster in Ihrem Unternehmen zu analysieren.

#### S3-Bucket für allgemeine Zwecke
<a name="storage_lens_basics_s3_general_purpose_bucket"></a>

Der Export von Storage Lens-Metriken in einen S3-Allzweck-Bucket bietet Flexibilität und Kontinuität beim Speichern Ihrer Storage Lens-Daten. Sie können bestehende Workflows und betriebliche Konsistenz beibehalten, indem Sie Ihre aktuelle Infrastruktur und bestehende ETL-Prozesse (Extrahieren, Transformieren und Laden), Analysetools oder automatisierte Workflows weiterhin verwenden. Allzweck-Buckets funktionieren auch mit allen AWS Services und Tools von Drittanbietern, die den Standard S3 APIs unterstützen. Dies bietet Ihnen maximale Flexibilität bei der Verarbeitung, Analyse oder Visualisierung Ihrer Erkenntnisse aus Storage Lens. Darüber hinaus können Sie S3-Lebenszyklusrichtlinien implementieren, um die Datenspeicherung automatisch zu verwalten, ältere Messwerte auf kostengünstigere Speicherklassen umzustellen oder sie nach bestimmten Zeiträumen zu löschen, um die Kosten zu optimieren. Wenn also Betriebskontinuität und Workflow-Flexibilität Ihre Prioritäten bei der Implementierung von Storage Lens sind, sollten Sie erwägen, einen S3-Allzweck-Bucket für den Export Ihrer Storage Lens-Daten auszuwählen. Weitere Informationen zu den Preisen für S3-Allzweck-Buckets finden Sie unter [Amazon S3 S3-Preise](https://aws.amazon.com/s3/pricing).

#### S3-Tabellenbucket
<a name="storage_lens_basics_s3_table_bucket"></a>

Wenn Sie Storage Lens-Metriken in einen S3-Tabellen-Bucket exportieren, können Sie Ihre Speichernutzungs- und Aktivitätskennzahlen einfach analysieren, ohne Daten-Pipelines erstellen zu müssen. Ihre Metriken sind in S3-Tabellen organisiert, die in einem AWS verwalteten S3-Tabellen-Bucket erstellt werden, der `aws-s3` für eine optimale Abfrageleistung aufgerufen wird. Die Aufbewahrungsfristen und Verschlüsselungseinstellungen sind anpassbar, um Ihren Datenverwaltungsanforderungen gerecht zu werden. Mit Ihren Metriken in S3-Tabellen können Sie mithilfe von SQL-Tools und AWS Analysediensten (wie Amazon Athena, Amazon Quick, Amazon EMR und Amazon Redshift) Abfragen über mehrere Konten und Regionen hinweg ausführen, um benutzerdefinierte Dashboards zu erstellen und tiefere Einblicke zu gewinnen. Sie können beispielsweise S3 Storage Lens-Metriken mit S3-Metadaten verknüpfen, um Objekte in Präfixen zu identifizieren, die keine aktuellen Aktivitäten anzeigen. Für alle in einem S3-Tabellen-Bucket gespeicherten Daten fallen Kosten für S3-Tabellen an. Weitere Informationen zu den Preisen für S3-Tabellen finden Sie unter [Amazon S3 S3-Preise](https://aws.amazon.com/s3/pricing).

### Heimatregion
<a name="storage_lens_basics_home_region"></a>

In der Heimatregion werden alle AWS-Region S3 Storage Lens-Metriken für eine bestimmte Dashboard-Konfiguration gespeichert. Sie müssen eine Heimatregion auswählen, wenn Sie Ihr S3-Storage-Lens-Dashboard konfigurieren. Nachdem Sie eine Heimatregion ausgewählt haben, können Sie sie nicht mehr ändern. Wenn Sie eine Storage-Lens-Gruppe erstellen, empfehlen wir außerdem, dieselbe Heimatregion wie für das Storage-Lens-Dashboard auszuwählen.

**Anmerkung**  
Sie können eine der folgenden Regionen als Heimatregion auswählen:  
USA Ost (Nord-Virginia) – `us-east-1`
USA Ost (Ohio) – `us-east-2`
USA West (Nordkalifornien) – `us-west-1`
USA West (Oregon) – `us-west-2`
Asia Pacific (Mumbai) – `ap-south-1`
Asien-Pazifik (Seoul) – `ap-northeast-2`
Asia Pacific (Singapore) – `ap-southeast-1`
Asien-Pazifik (Sydney) – `ap-southeast-2`
Asien-Pazifik (Tokio) – `ap-northeast-1`
Kanada (Zentral) – `ca-central-1`
China (Peking) – `cn-north-1`
China (Ningxia) – `cn-northwest-1`
Europa (Frankfurt) – `eu-central-1`
Europa (Ireland) – `eu-west-1`
Europa (London) – `eu-west-2`
Europa (Paris) – `eu-west-3`
Europa (Stockholm) – `eu-north-1`
Südamerika (São Paulo) – `sa-east-1`

### Aufbewahrungszeitraum
<a name="storage_lens_basics_data_queries"></a>

S3-Storage-Lens-Metriken werden beibehalten, damit Sie historische Trends erkennen und Unterschiede bei Speichernutzung und -aktivität im Zeitverlauf vergleichen können. Sie können Metriken von Amazon S3 Storage Lens für Abfragen verwenden, um historische Trends anzuzeigen und Unterschiede in Ihrer Speichernutzung und -aktivität im Zeitverlauf zu vergleichen. 

Alle Metriken für S3 Storage Lens werden für einen Zeitraum von 15 Monaten aufbewahrt. Metriken sind jedoch nur für Abfragen für eine bestimmte Dauer verfügbar, die von Ihrer [Metrikauswahl](#storage_lens_basics_metrics_selection) abhängt. Diese Dauer kann nicht geändert werden. Kostenlose Metriken stehen für Abfragen für einen Zeitraum von 14 Tagen zur Verfügung, und fortschrittliche Metriken stehen für Abfragen für 15 Monate zur Verfügung.

### Metrikkategorien
<a name="storage_lens_basics_metrics_types"></a>

In den kostenlosen und erweiterten Stufen sind die Metriken von S3 Storage Lens in Kategorien unterteilt, die auf wichtige Anwendungsfälle wie Kostenoptimierung und Datenschutz abgestimmt sind. Zu den kostenlosen Metriken gehören Zusammenfassung, Kostenoptimierung, Datenschutz, Zugriffsverwaltung, Leistung und Ereignismetriken. Wenn Sie auf erweiterte Metriken umsteigen, können Sie zusätzliche Kennzahlen zur Kostenoptimierung und zum Datenschutz aktivieren, mit denen Sie Ihre S3-Speicherkosten weiter senken und sicherstellen können, dass Ihre Daten geschützt sind. Sie können auch Aktivitätsmetriken und detaillierte Statuscode-Metriken aktivieren, um die Leistung von Anwendungs-Workloads zu verbessern.

Die folgende Liste enthält alle kostenlosen und erweiterten Metrikkategorien. Eine vollständige Liste der einzelnen Metriken, die in jeder Kategorie enthalten sind, finden Sie unter[Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md).

**Zusammenfassende Metriken**  
Zusammenfassende Metriken bieten allgemeine Erkenntnisse über Ihren S3-Speicher, einschließlich Ihrer gesamten Speicherbytes und der Anzahl der Objekte. 

**Kennzahlen zur Kostenoptimierung**  
Kennzahlen zur Kostenoptimierung bieten Einblicke, die Sie zur Verwaltung und Optimierung Ihrer Speicherkosten nutzen können. Sie können beispielsweise Buckets identifizieren, unvollständige mehrteilige Uploads enthalten, die älter als 7 Tage sind.

Mit erweiterten Metriken können Sie erweiterte Kennzahlen zur Kostenoptimierung aktivieren. Zu diesen Metriken gehören Metriken für die Anzahl der S3-Lebenszyklusregeln, mit denen Sie die Anzahl der S3-Lebenszyklusregeln pro Bucket für den Ablauf und für den Übergang ermitteln können. 

**Metriken zum Datenschutz**  
Datenschutzmetriken bieten Einblicke in Datenschutzfunktionen wie Verschlüsselung und S3-Versionierung. Sie können diese Messwerte verwenden, um Bereiche zu identifizieren, die nicht den bewährten Datenschutzpraktiken entsprechen. Sie können beispielsweise Buckets identifizieren, die keine Standardverschlüsselung mit AWS Key Management Service Schlüsseln (SSE-KMS) oder S3-Versionierung verwenden.

Mit erweiterten Metriken können Sie erweiterte Datenschutzmetriken aktivieren. Zu diesen Metriken gehören Metriken für die Anzahl der Replikationsregeln pro Bucket.

**Metriken zur Zugriffsverwaltung**  
Metriken zur Zugriffsverwaltung bieten Einblicke in den Besitz von S3-Objekten. Sie können diese Metriken verwenden, um zu sehen, welche Einstellungen Ihre Buckets für die Objekteigentümerschaft verwenden.

**Ereignismetriken**  
Ereignismetriken bieten Einblicke in S3-Ereignisbenachrichtigungen. Mithilfe von Ereignismetriken können Sie sehen, für welche Buckets S3-Ereignisbenachrichtigungen konfiguriert sind.

**Leistungsmetriken**  
Leistungsmetriken liefern relevante Erkenntnisse für S3 Transfer Acceleration. Anhand von Leistungsmetriken können Sie sehen, für welche Buckets Transfer Acceleration aktiviert ist.

**Aktivitätsmetriken (erweitert)**  
Wenn Sie Ihr Dashboard auf die **Stufe Advanced** aktualisieren, können Sie Aktivitätsmetriken aktivieren. Aktivitätsmetriken enthalten Informationen darüber, wie Ihr Speicherplatz angefordert wird (z. B. alle Anfragen, Abrufanforderungen, Put-Anfragen), wie hoch- oder heruntergeladen wurde und welche Fehler aufgetreten sind.

Anhand von Aktivitätsmetriken auf Präfixebene können Sie ermitteln, welche Präfixe selten verwendet werden, sodass Sie [im S3-Lebenszyklus zu einer optimaleren Speicherklasse wechseln](lifecycle-transition-general-considerations.md) können.

**Detaillierte Statuscode-Metriken (erweitert)**  
Wenn Sie Ihr Dashboard auf die **Stufe Advanced** aktualisieren, können Sie detaillierte Statuscode-Metriken aktivieren. Detaillierte Statuscode-Metriken bieten Einblicke in HTTP-Statuscodes wie 403 Forbidden und 503 Service Unavailable, die Sie zur Behebung von Zugriffs- oder Leistungsproblemen nutzen können. Sie können sich beispielsweise die Metrik **403 Forbidden error count** (Anzahl der Fehler 403 Forbidden) ansehen, um Workloads zu identifizieren, die auf Buckets zugreifen, ohne dass die korrekten Berechtigungen angewendet wurden.

Detaillierte Statuscode-Metriken auf Präfixebene können verwendet werden, um ein besseres Verständnis der Vorkommen des HTTP-Statuscodes nach Präfix zu erhalten. Mit den Metriken zur Anzahl der 503-Fehler können Sie beispielsweise Präfixe ermitteln, die während der Datenerfassung Drosselungsanfragen erhalten.

**Advanced cost optimization metrics (Erweiterte Kostenoptimierungsmetriken)**  
Erweiterte Kennzahlen zur Kostenoptimierung bieten detaillierte Einblicke in Ihre S3-Lebenszyklusmanagement-Konfigurationen, sodass Sie die Speicherkosten durch automatisierte Datenübertragungen und -löschungen optimieren können. Diese Metriken verfolgen die Anzahl der Lebenszyklusregeln, die für verschiedene Lebenszyklusregeltypen konfiguriert wurden. Mithilfe dieser Metriken können Sie sicherstellen, dass alle Lebenszyklusregeln in Ihren Bereichen umfassend abgedeckt werden, und Sie können Möglichkeiten zur Implementierung zusätzlicher Strategien zur Kostenoptimierung durch automatisiertes Datenmanagement identifizieren.

**Advanced data protection metrics (Erweiterte Datensicherheitsmetriken)**  
Erweiterte Datenschutzkennzahlen helfen Ihnen beim Schutz Ihrer Daten, indem sie Einblicke in die Anzahl der Replikationsregeln, die Verwendung der SSE-KMS-Verschlüsselung und Sicherheitslücken wie nicht unterstützte Signatur- und TLS-Anfragen bieten. (**Hinweis:** Metriken zur Anzahl der Replikationsregeln sind für Präfixe nicht verfügbar.)

Diese Transparenz ermöglicht es Ihnen, eine angemessene Datenredundanz sicherzustellen, die Einhaltung der Verschlüsselungsvorschriften zu überprüfen, Sicherheitsrisiken aufgrund veralteter Protokolle zu identifizieren, Fehler bei der Replikation zu beheben und robuste Datenschutzstrategien auf Unternehmens-, Konto- und Bucket-Ebene aufrechtzuerhalten.

**Erweiterte Leistungskennzahlen**  
Erweiterte Leistungskennzahlen zeigen, wie Ihre Anwendungen mit Daten in S3 interagieren, und können dabei helfen, Möglichkeiten zur Optimierung der Anwendungsleistung zu identifizieren, z. B. ineffiziente I/O Muster, regionsübergreifender Zugriff und die Anzahl eindeutiger Objektzugriffe. Die fortschrittlichen Leistungskennzahlen von Storage Lens machen teure benutzerdefinierte Überwachungstools überflüssig und ermöglichen es Kunden, S3-Best-Practices effektiver zu implementieren. Davon profitieren vor allem leistungssensitive Anwendungen wie maschinelles Lernen, Datenanalysen und andere Hochleistungs-Rechen-Workloads.

### Empfehlungen
<a name="storage_lens_basics_recommendations"></a>

S3 Storage Lens bietet automatisierte Empfehlungen, die Sie bei der Optimierung Ihres Speichers unterstützen. Die Empfehlungen werden kontextbasiert neben relevanten Metriken im S3-Storage-Lens-Dashboard platziert. Historische Daten kommen nicht für Empfehlungen in Betracht, da Empfehlungen nur für aktuelle Geschehnisse relevant sind. Empfehlungen werden nur angezeigt, wenn sie relevant sind.

Es gibt folgende Arten von S3-Storage-Lens-Empfehlungen:
+ **Vorschläge**

  Vorschläge machen Sie auf Trends bei Ihrem Speicher und Ihren Aktivitäten aufmerksam, die auf eine Möglichkeit zur Optimierung der Speicherkosten oder auf eine bewährte Methode für den Datenschutz hinweisen könnten. Anhand der vorgeschlagenen Themen können Sie im *Amazon-S3-Benutzerhandbuch* und im S3-Storage-Lens-Dashboard nach weiteren Informationen zu den spezifischen Regionen, Buckets oder Präfixen suchen.
+ **Callouts**

  Callouts sind Empfehlungen, die Sie auf interessante Anomalien in Bezug auf den Speicher und Aktivitäten aufmerksam machen, die über einen bestimmten Zeitraum auftreten und möglicherweise Maßnahmen erfordern oder überwacht werden sollten.
  + **Ausreißer-Callouts**

    S3 Storage Lens bietet Callouts für Metriken, bei denen es sich auf der Basis Ihres Trends der letzten 30 Tage um Ausreißer handelt. Der Ausreißer wird mit einem Standardwert berechnet, der auch als *Z-Score* bezeichnet wird. Bei diesem Score wird die Metrik des aktuellen Tages vom Durchschnitt der letzten 30 Tage für die Metrik subtrahiert. Die Metrik des aktuellen Tages wird dann durch die Standardabweichung für die Metrik in den letzten 30 Tagen dividiert. Der resultierende Score liegt normalerweise zwischen -3 und \$13. Diese Zahl stellt die Anzahl der Standardabweichungen dar, die die Metrik des aktuellen Tages vom Mittelwert entfernt ist. 

    Metriken mit einem Score von > 2 oder < -2 werden in S3 Storage Lens als Ausreißer erachtet, da sie über oder unter dem Wert von 95 Prozent der normal verteilten Daten liegen. 
  + **Callouts für signifikante Änderungen**

    Das Callout für signifikante Änderungen gilt für Metriken, die sich erwartungsgemäß selten ändern. Daher ist sie auf eine höhere Sensitivität eingestellt als die Berechnung der Ausreißer, die typischerweise im Bereich von \$1/- 20 Prozent gegenüber dem Tag, der Woche oder dem Monat davor liegt.

    **Bearbeiten von Callouts für den Speicher und Aktivitäten** – Wenn Sie ein Callout für signifikante Änderungen erhalten, muss das nicht auf ein Problem hinweisen. Das Callout könnte das Ergebnis einer erwarteten Änderung des Speichers sein. Beispielsweise können Sie vor Kurzem eine große Anzahl neuer Objekte hinzugefügt, eine große Anzahl von Objekten gelöscht oder ähnliche geplante Änderungen vorgenommen haben. 

    Wenn Sie in Ihrem Dashboard ein Callout für signifikante Änderungen sehen, sollten Sie zunächst bestimmen, ob es durch die jüngsten Umstände erklärt werden kann. Ist dies nicht der Fall, können Sie über das S3-Storage-Lens-Dashboard weitere Details abrufen, um herauszufinden, welchen spezifischen Regionen, Buckets oder Präfixen die Fluktuation zugrunde liegt.
+ **Erinnerungen**

  Erinnerungen bieten Einblicke in die Funktionsweise von Amazon S3. Sie können Ihnen helfen, mehr darüber zu erfahren, wie Sie S3-Funktionen nutzen können, um die Speicherkosten zu senken oder bewährte Datenschutzmethoden anzuwenden.

### Auswahl der Metriken
<a name="storage_lens_basics_metrics_selection"></a>

S3 Storage Lens bietet zwei Metriken, die Sie für Ihr Dashboard und den Export auswählen können: *kostenloses Kontingent* und *erweitertes Kontingent*.
+ **Kostenloses Kontingent**

  S3 Storage Lens bietet kostenlose Metriken für alle Dashboards und Konfigurationen. Kostenlose Metriken enthalten relevante Metriken für Ihre Speichernutzung, z. B. die Anzahl der Buckets und der Objekte in Ihrem Konto. Zu den kostenlosen Metriken gehören auch anwendungsfallbezogene Metriken (z. B. Kennzahlen zur Kostenoptimierung und zum Datenschutz), anhand derer Sie untersuchen können, ob Ihr Speicher gemäß den bewährten S3-Methoden konfiguriert ist. Alle Messwerte für das kostenlose Kontingent werden täglich erfasst und können entweder in einen S3-Allzweck-Bucket (CSV oder Parquet Format) oder in einen S3-Tabellen-Bucket (nur Parquet Format) exportiert werden. Daten sind 14 Tage lang in der Amazon S3 S3-Konsole für Abfragen verfügbar. Weitere Informationen darüber, welche Metriken kostenlos sind, finden Sie unter [Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md).
+ **Stufe „Fortgeschritten“**

  S3 Storage Lens bietet kostenlose Metriken für alle Dashboards und Konfigurationen mit der Option, ein Upgrade auf erweiterte Metriken durchzuführen. Es fallen zusätzliche Gebühren an. Weitere Informationen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing).

  Zu den Kennzahlen der erweiterten Stufe gehören alle Kennzahlen in Form kostenloser Kennzahlen sowie zusätzliche Kennzahlen wie erweiterte Kennzahlen zum Datenschutz und zur Kostenoptimierung, Aktivitätskennzahlen und detaillierte Statuscode-Metriken. Metriken für erweiterte Stufen bieten auch Empfehlungen, mit denen Sie Ihren Speicher optimieren können. Die Empfehlungen werden kontextbasiert neben relevanten Metriken im Dashboard platziert.

  Die erweiterte Stufe umfasst die folgenden Funktionen:
  + **Kategorien für erweiterte Metriken** — Generieren Sie zusätzliche Metriken. Eine vollständige Liste der erweiterten Metrikkategorien finden Sie unter [Metrikkategorien](#storage_lens_basics_metrics_types). Eine vollständige Liste der Metriken finden Sie unter [Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md).
  + **Amazon CloudWatch Publishing** — Veröffentlicht S3 Storage Lens-Metriken CloudWatch , um einen einheitlichen Überblick über Ihren Betriebsstatus in CloudWatch [Dashboards](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html) zu erhalten. Sie können auch CloudWatch API-Operationen und -Funktionen wie Alarme und ausgelöste Aktionen, metrische Berechnungen und Anomalieerkennung verwenden, um S3 Storage Lens-Metriken zu überwachen und entsprechende Maßnahmen zu ergreifen. Weitere Informationen finden Sie unter [Überwachen Sie die Metriken von S3 Storage Lens in CloudWatch](storage_lens_view_metrics_cloudwatch.md).
  + **Standardmetrikbericht** — Der Standardmetrikbericht in S3 Storage Lens enthält kostenlose Funktionen zur Metriken und Präfixaggregation für die wichtigsten Präfixe zur Objektspeichernutzung und zu Aktivitätstrends in Ihrem Unternehmen. AWS-Konten Mit dem Standardkennzahlbericht können Sie Möglichkeiten zur Kostenoptimierung identifizieren, ohne dass zusätzliche Kosten über die Standardkosten für S3-Speicher hinausgehen.
  + **Erweiterter Bericht über Präfix-Metriken — Der Bericht** mit den erweiterten Präfix-Metriken von Storage Lens bietet umfassende Analysen auf Präfixebene für Ihre gesamten S3-Speicherdaten und erweitert die Abdeckung auf die Unterstützung von bis zu Milliarden von Präfixen pro Bucket.
  + **Aggregation zusätzlicher Metriken**
    + **Präfixaggregation** – Metriken werden auf [Präfix](using-prefixes.md)ebene gesammelt. Diese Einstellung gibt die Präfixe an, die als Teil des Standardmetrikberichts aggregiert werden, der im Storage Lens-Dashboard angezeigt wird. Beachten Sie, dass Metriken, die auf Präfixebene gelten, mit **Präfixaggregation** verfügbar sind. Ausgenommen sind Einstellungen auf Bucket-Ebene und Metriken zur Regelanzahl. Metriken auf Präfixebene gelten nicht für den Export erweiterter Präfixe und werden auch nicht veröffentlicht. CloudWatch
    + **Aggregation von Storage-Lens-Gruppen** – Metriken werden auf Storage-Lens-Gruppenebene gesammelt. Nachdem Sie die erweiterten Tier-Metriken und die Storage Lens-Gruppenaggregation aktiviert haben, können Sie angeben, welche Storage Lens-Gruppen in Ihr Storage Lens-Dashboard aufgenommen oder daraus ausgeschlossen werden sollen. Es muss mindestens eine Storage-Lens-Gruppe angegeben werden. Die angegebenen Storage-Lens-Gruppen müssen sich in der angegebenen Heimatregion des Dashboard-Kontos befinden. Storage Lens-Metriken auf Gruppenebene werden nicht veröffentlicht. CloudWatch

  Alle fortschrittlichen Metriken werden täglich gesammelt. Daten können bis zu 15 Monate lang in der Amazon S3 S3-Konsole abgefragt werden. Weitere Informationen zu den Speichermetriken, die von S3 Storage Lens aggregiert werden, finden Sie unter [Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md).

### Präfix-Trennzeichen
<a name="storage_lens_basics_prefix_delimiter"></a>

Präfixtrennzeichen bestimmen, wie Storage Lens die Präfixtiefe berechnet, indem sie die Hierarchieebenen innerhalb der Objektschlüssel voneinander trennen. Sie können nur ein einziges Zeichen angeben, um jede Ebene innerhalb Ihrer Präfixe anzugeben. Wenn das Präfixtrennzeichen nicht definiert ist, verwendet Amazon S3 "`/`" als Standardtrennzeichen.

**Anmerkung**  
Wenn Sie Ihre Storage Lens-Dashboard-Konfiguration über die API aktualisieren, müssen das *Trennzeichen* und das aktualisierte *Präfixtrennzeichen* auf dieselbe Weise definiert werden. Andernfalls erhalten Sie eine Fehlermeldung. Das Trennzeichen gilt nur für Metriken auf Präfixebene, die in den Standardmetrikbericht exportiert werden. Das Präfixtrennzeichen gilt für alle Präfixe, die in den erweiterten Präfix-Metrikbericht exportiert werden.

### S3-Speicherlinse und AWS Organizations
<a name="storage_lens_basics_organizations"></a>

AWS Organizations ist ein Tool AWS-Service , mit dem Sie alle Ihre Organisationshierarchie AWS-Konten unter einer einzigen Organisation zusammenfassen können. Amazon S3 Storage Lens bietet AWS Organizations eine zentrale Ansicht des Objektspeichers und der Aktivitäten in Ihrem Amazon S3 S3-Speicher.

Weitere Informationen finden Sie unter [Verwenden von Amazon S3 Storage Lens mit AWS OrganizationsAktivieren des vertrauenswürdigen Zugriffs für S3 Storage Lens](storage_lens_with_organizations.md).
+ **Vertrauenswürdiger Zugriff**

  Sie müssen den vertrauenswürdigen Zugriff im Verwaltungskonto Ihrer Organisation aktivieren, damit S3 Storage Lens Speichermetriken und Nutzungsdaten für alle Mitgliedskonten in Ihrer Organisation aggregieren kann. Dann können Sie über das Verwaltungskonto Dashboards oder Exporte für Ihre Organisation erstellen oder delegierten Administratoren Zugriff auf andere Konten in der Organisation gewähren. 

  Sie können den vertrauenswürdigen Zugriff für S3 Storage Lens jederzeit deaktivieren, um die Aggregation von Metriken für Ihre Organisation zu beenden.
+ **Delegated Administrator**

  Sie können Dashboards und Metriken für S3 Storage Lens für Ihre Organisation erstellen, indem Sie Ihr AWS Organizations Verwaltungskonto verwenden oder indem Sie *delegierten Administratorzugriff* auf andere Konten in Ihrer Organisation gewähren. Sie können delegierte Administratoren jederzeit abmelden. Durch das Aufheben der Registrierung eines delegierten Administrators wird die Aggregation neuer Speichermetriken durch alle Dashboards auf Organisationsebene, die von diesem delegierten Administrator erstellt wurden, automatisch beendet.

Weitere Informationen finden Sie unter [Amazon S3 Storage Lens und AWS Organizations](https://docs.aws.amazon.com/organizations/latest/userguide/services-that-can-integrate-s3lens.html) im *AWS Organizations -Benutzerhandbuch*.

#### Serviceverknüpfte Rollen für Amazon S3 Storage Lens
<a name="storage_lens_basics_service_linked_role"></a>

Neben dem AWS Organizations vertrauenswürdigen Zugriff verwendet Amazon S3 Storage Lens AWS Identity and Access Management (IAM) service-verknüpfte Rollen. Eine serviceverknüpfte Rolle ist eine einzigartige Art von IAM-Rolle, die direkt mit S3 Storage Lens verknüpft ist. Serviceverknüpfte Rollen werden von S3 Storage Lens vordefiniert und enthalten alle Berechtigungen, die zum Erfassen der täglichen Speicher- und Aktivitätsmetriken aus Mitgliedskonten in Ihrer Organisation benötigt werden. 

Weitere Informationen finden Sie unter [Verwenden von serviceverknüpften Rollen für Amazon S3 Storage Lens](using-service-linked-roles.md).

# Amazon S3-Storage-Lens-Metrikglossar
<a name="storage_lens_metrics_glossary"></a>

Das Metrikglossar von Amazon S3 Storage Lens enthält eine vollständige Liste der kostenlosen und erweiterten Metriken für S3 Storage Lens.

S3 Storage Lens bietet kostenlose Metriken für alle Dashboards und Konfigurationen mit der Option zum Upgrade auf erweiterte Metriken. 
+ **Kostenlose Metriken** enthalten relevante Metriken für Ihre Speichernutzung, z. B. die Anzahl der Buckets und der Objekte in Ihrem Konto. Zu den kostenlosen Metriken gehören auch auf Anwendungsfällen basierende Metriken, etwa Metriken zur Kostenoptimierung und zum Datenschutz. Alle kostenlosen Metriken werden täglich erfasst und Daten stehen für Abfragen bis zu 14 Tage lang Daten zur Verfügung. 
+ **Erweiterte Metriken** umfassen alle Metriken in Form von kostenlosen Metriken sowie zusätzliche Metriken, wie z. B. erweiterte Leistung, erweiterter Datenschutz und erweiterte Kennzahlen zur Kostenoptimierung. Zu den erweiterten Metriken gehören auch zusätzliche Metrikkategorien wie Aktivitätsmetriken und detaillierte Statuscode-Metriken. Erweiterte Metrikdaten stehen 15 Monate für Abfragen zur Verfügung. 

  Für die Verwendung von S3 Storage Lens mit fortschrittlichen Metriken und Empfehlungen fallen zusätzliche Gebühren an. Weitere Informationen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/). Weitere Informationen über erweiterte Metriken und Empfehlungen finden Sie unter [Auswahl der Metriken](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).
**Anmerkung**  
Für Storage-Lens-Gruppen sind nur Speichermetriken des kostenlosen Kontingents verfügbar. Metriken für die Advanced-Stufe sind auf Storage-Lens-Gruppenebene nicht verfügbar.

**Metriknamen**  
Die Spalte **Metrikname** in der folgenden Tabelle enthält den Namen jeder S3 Storage Lens in der S3-Konsole. Die Spalte **CloudWatch und Export** enthält den Namen jeder Metrik in Amazon CloudWatch und die Metrik-Exportdatei, die Sie in Ihrem S3 Storage Lens-Dashboard konfigurieren können. 

**Abgeleitete Metrikformeln**  
Abgeleitete Metriken sind für den Metrikexport und die CloudWatch Veröffentlichungsoption nicht verfügbar. Sie können jedoch die in der Spalte **abgeleitete Metrikformeln** angegebenen Metrikformeln verwenden, um sie zu berechnen.

**Interpretieren der Präfix-Symbole von Amazon S3 Storage Lens für Vielfache von Metrikeinheiten (K, M, G usw.)**  
Metrikeinheiten von S3 Storage Lens werden mit mehreren Präfix-Symbolen geschrieben. Diese Präfixsymbole entsprechen den Symbolen des Internationalen Einheitensystems (SI), die vom Internationalen Büro für Maß und Gewicht (BIPM) standardisiert sind. Diese Symbole werden auch im Unified Code for Units of Measure (Einheitlicher Code für Maßeinheiten, UCUM) verwendet. Weitere Informationen finden Sie unter [Liste der SI-Präfix-Symbole](https://www.bipm.org/en/measurement-units/si-prefixes). 

**Anmerkung**  
Die Maßeinheit für S3-Speicherbytes ist in binären Gigabyte (GB) angegeben, wobei 1 GB 230 Byte, 1 TB 240 Byte und 1 PB 250 Byte entspricht. Diese Maßeinheit wird auch als Gibibyte (GiB) bezeichnet, entsprechend der Definition der International Electrotechnical Commission (IEC).
Wenn ein Objekt basierend auf seiner Lebenszykluskonfiguration das Ende seiner Lebensdauer erreicht hat, stellt Amazon S3 das Objekt zum Entfernen in eine Warteschlange und entfernt es asynchron. Daher kann es eine Verzögerung zwischen dem Ablaufdatum und dem Datum geben, an dem Amazon S3 ein Objekt entfernt. S3 Storage Lens enthält keine Metriken für Objekte, die abgelaufen sind, aber nicht entfernt wurden. Weitere Informationen über die Ablaufaktionen im S3-Lebenszyklus finden Sie unter [Ablauf von Objekten](lifecycle-expire-general-considerations.md).
Amazon S3 speichert Metadaten (Objektschlüssel, Zeitstempel usw.) für jedes Objekt, das selbst für 0-KB-Datendateien nur minimalen Speicherplatz benötigt. Aus diesem Grund werden 0-KB-Objekte im Größenbereich (0KB-128 KB] in S3 Storage Lens angezeigt.
S3 Storage Lens ermöglicht die bestmögliche Nachverfolgung regionsübergreifender Datenübertragungen, wobei der Schwerpunkt hauptsächlich auf Anfragen von vom Kunden verwalteten Ressourcen wie EC2-Instances liegt. Anfragen, die über AWS PrivateLink oder bestimmte Anfragen innerhalb einer Region gestellt werden, sind nicht klassifiziert.

 Die folgende Tabelle zeigt das Metrikglossar für S3 Storage Lens. 


| Metrikname | CloudWatch und exportieren | Description | Stufe 1 | Kategorie2 | Abgeleitet | Abgeleitete Metrikformel | Storage-Lens-Gruppen | 
| --- | --- | --- | --- | --- | --- | --- | --- | 
| Gesamtspeicher | StorageBytes | Gesamter Speicherplatz, einschließlich unvollständiger mehrteiliger Uploads, Objektmetadaten und Löschmarkierungen | Kostenfrei | Zusammenfassung | N | - | Y | 
| Anzahl Objekte | ObjectCount | Gesamtzahl der Objekte | Kostenfrei | Zusammenfassung | N | - | Y | 
| Durchschnittliche Objektgröße | - | Durchschnittliche Objektgröße | Kostenfrei | Zusammenfassung | Y | Summe (StorageBytes) /Summe () ObjectCount | Y | 
| Aktive Buckets | - | Anzahl der Buckets mit Speicher > 0 Byte | Kostenfrei | Zusammenfassung | Y | - | Y | 
| Buckets | - | Anzahl der Buckets | Kostenfrei | Zusammenfassung | Y | - | Y | 
| Konten | - | Anzahl der Konten, deren Speicherplatz in den Geltungsbereich fällt | Kostenfrei | Zusammenfassung | Y | - | Y | 
| Aktuelle Versions-Bytes | CurrentVersionStorageBytes | Anzahl der Byte, bei denen es sich um eine aktuelle Version eines Objekts handelt | Kostenfrei | Kostenoptimierung | N | - | Y | 
| % Bytes der aktuellen Version | - | Prozentsatz der Byte im Gültigkeitsbereich, bei denen es sich um aktuelle Versionen von Objekten handelt | Kostenfrei | Kostenoptimierung | Y | sum (CurrentVersionStorageBytes) /sum () StorageBytes | Y | 
| Anzahl der Objekte der aktuellen Version | CurrentVersionObjectCount | Anzahl der Objekte der aktuellen Version | Kostenfrei | Datenschutz | N | - | Y | 
| % Objekte der aktuellen Version | - | Prozentsatz der Objekte im Gültigkeitsbereich, bei denen es sich um eine aktuelle Version handelt | Kostenfrei | Kostenoptimierung | Y | Summe (CurrentVersionObjectCount) /Summe () ObjectCount | Y | 
| Nicht aktuelle Versions-Bytes | NonCurrentVersionStorageBytes | Anzahl der Byte der nicht aktuellen Version | Kostenfrei | Kostenoptimierung | N | - | Y | 
| % Bytes der nicht aktuellen Version | - | Prozentsatz der Byte im Gültigkeitsbereich, bei denen es sich um nicht aktuelle Versionen handelt | Kostenfrei | Kostenoptimierung | Y | sum (NonCurrentVersionStorageBytes) /sum () StorageBytes | Y | 
| Anzahl nicht aktueller Versionsobjekte | NonCurrentVersionObjectCount | Anzahl der nicht aktuellen Objektversionen | Kostenfrei | Kostenoptimierung | N | - | Y | 
| % Objekte der nicht aktuellen Version | - | Prozentsatz der Objekte im Gültigkeitsbereich, bei denen es sich um eine veraltete Version handelt | Kostenfrei | Kostenoptimierung | Y | Summe (NonCurrentVersionObjectCount) /Summe () ObjectCount | Y | 
| Löschmarkierungsbytes | DeleteMarkerStorageBytes | Anzahl der Byte im Gültigkeitsbereich, bei denen es sich um Löschmarken handelt | Kostenfrei | Kostenoptimierung | N | - | Y | 
| % Löschmarkierungsbytes | - | Prozentsatz der Byte im Gültigkeitsbereich, bei denen es sich um Löschmarkierungen handelt | Kostenfrei | Kostenoptimierung | Y | Summe (DeleteMarkerStorageBytes) /Summe () StorageBytes | Y | 
| Anzahl der Löschmarkierungsobjekte | DeleteMarkerObjectCount | Anzahl der Objekte mit einer Löschmarke | Kostenfrei | Kostenoptimierung | N | - | Y | 
| % Objekte mit Löschmarkierung | - | Prozentsatz der Objekte im Gültigkeitsbereich mit einer Löschmarkierung | Kostenfrei | Kostenoptimierung | Y | Summe (DeleteMarkerObjectCount) /Summe () ObjectCount | Y | 
| Unvollständige Bytes für mehrteilige Uploads | IncompleteMultipartUploadStorageBytes | Gesamtzahl der Byte im Gültigkeitsbereich für unvollständige mehrteilige Uploads | Kostenfrei | Kostenoptimierung | N | - | Y | 
| % unvollständige Bytes für mehrteilige Uploads | - | Prozentsatz der Byte im Gültigkeitsbereich, die das Ergebnis unvollständiger mehrteiliger Uploads sind | Kostenfrei | Kostenoptimierung | Y | Summe (IncompleteMultipartUploadStorageBytes) /Summe () StorageBytes | Y | 
| Anzahl unvollständiger mehrteiliger Uploads | IncompleteMultipartUploadObjectCount | Anzahl der Objekte im Gültigkeitsbereich, bei denen es sich um unvollständige mehrteilige Uploads handelt | Kostenfrei | Kostenoptimierung | N | - | Y | 
| % unvollständige mehrteilige Uploads | - | Prozentsatz der Objekte im Gültigkeitsbereich, bei denen es sich um unvollständige mehrteilige Uploads handelt | Kostenfrei | Kostenoptimierung | Y | Summe (IncompleteMultipartUploadObjectCount) /Summe () ObjectCount | Y | 
| Unvollständige mehrteilige Upload-Speicherbytes, die älter als 7 Tage sind | Unvollständig 7 Tage MPUStorage BytesOlderThan | Gesamtzahl der Byte im Gültigkeitsbereich für unvollständige mehrteilige Uploads, die älter als 7 Tage sind | Kostenfrei | Kostenoptimierung | N | - | Y | 
| % unvollständige mehrteilige Upload-Speicherbytes, die älter als 7 Tage sind | - | Prozentsatz der Byte für unvollständige mehrteilige Uploads, die älter als 7 Tage sind | Kostenfrei | Kostenoptimierung | Y | Summe (Unvollständig in MPUStorage BytesOlderThan 7 Tagen) /Summe () StorageBytes | Y | 
| Anzahl der unvollständigen mehrteiligen Upload-Objekte, die älter als 7 Tage sind | Unvollständig (7 Tage) MPUObject CountOlderThan | Anzahl der unvollständigen mehrteiligen Uploads, die älter als 7 Tage sind | Kostenfrei | Kostenoptimierung | N | - | Y | 
| % der Anzahl der unvollständigen mehrteiligen Upload-Objekte, die älter als 7 Tage sind | - | Prozentsatz der Objekte, bei denen es sich um unvollständige mehrteilige Uploads handelt, die älter als 7 Tage sind | Kostenfrei | Kostenoptimierung | Y | Summe (Unvollständig in MPUObject CountOlderThan 7 Tagen) /Summe () ObjectCount | Y | 
| Anzahl der Lebenszyklusregeln für den Übergang | TransitionLifecycleRuleCount | Anzahl der Lebenszyklusregeln für den Übergang von Objekten in eine andere Speicherklasse | Advanced | Kostenoptimierung | N | - | N | 
| Durchschnittliche Lebenszyklusregeln für den Übergang pro Bucket | - | Durchschnittliche Anzahl von Lebenszyklusregeln für den Übergang von Objekten in eine andere Speicherklasse | Advanced | Kostenoptimierung | Y | sum (TransitionLifecycleRuleCount) /sum () DistinctNumberOfBuckets | N | 
| Anzahl der Lebenszyklusregeln für den Ablauf | ExpirationLifecycleRuleCount | Anzahl der Lebenszyklusregeln, nach denen Objekte ablaufen | Advanced | Kostenoptimierung | N | - | N | 
| Durchschnittliche Lebenszyklusregeln für den Ablauf pro Bucket | - | Durchschnittliche Anzahl der Lebenszyklusregeln, nach denen Objekte ablaufen | Advanced | Kostenoptimierung | Y | sum (ExpirationLifecycleRuleCount) /sum () DistinctNumberOfBuckets | N | 
| Anzahl der Lebenszyklusregeln für den Übergang nicht aktueller Versionen | NoncurrentVersionTransitionLifecycleRuleCount | Anzahl der Lebenszyklusregeln für den Übergang veralteter Objektversionen in eine andere Speicherklasse | Advanced | Kostenoptimierung | N |  | N | 
| Durchschnittliche Lebenszyklusregeln für den Übergang von nicht aktuellen Objektversionen pro Bucket | - | Durchschnittliche Anzahl von Lebenszyklusregeln für den Übergang veralteter Objektversionen in eine andere Speicherklasse | Advanced | Kostenoptimierung | Y | sum (NoncurrentVersionTransitionLifecycleRuleCount) /sum () DistinctNumberOfBuckets  | N | 
| Anzahl der Lebenszyklusregeln für den Ablauf nicht aktueller Versionen | NoncurrentVersionExpirationLifecycleRuleCount | Anzahl der Lebenszyklusregeln, nach denen ältere Objektversionen ablaufen | Advanced | Kostenoptimierung | N | - | N | 
| Durchschnittliche Lebenszyklusregeln für den Ablauf von nicht aktuellen Objektversionen pro Bucket | - | Durchschnittliche Anzahl der Lebenszyklusregeln, bei denen nicht aktuelle Objektversionen ablaufen | Advanced | Kostenoptimierung | Y | sum (NoncurrentVersionExpirationLifecycleRuleCount) /sum () DistinctNumberOfBuckets  | N | 
| Anzahl der Lebenszyklusregeln zum Abbrechen unvollständiger mehrteiliger Uploads | AbortIncompleteMPULifecycleRuleCount | Anzahl der Lebenszyklusregeln zum Löschen unvollständiger mehrteiliger Uploads | Advanced | Kostenoptimierung | N | - | N | 
| Die durchschnittliche Anzahl von Lebenszyklusregeln zum Abbruch unvollständiger mehrteiliger Uploads pro Bucket | - | Durchschnittliche Anzahl von Lebenszyklusregeln zum Löschen unvollständiger mehrteiliger Uploads | Advanced | Kostenoptimierung | Y | Summe (AbortIncompleteMPULifecycleRuleCount) /Summe () DistinctNumberOfBuckets | N | 
| Anzahl der Lebenszyklusregeln für abgelaufene Objekte mit Löschmarkierung | ExpiredObjectDeleteMarkerLifecycleRuleCount | Anzahl der Lebenszyklusregeln zum Entfernen von Markierungen zum Löschen abgelaufener Objekte | Advanced | Kostenoptimierung | N | - | N | 
| Durchschnittliche Anzahl der Lebenszyklusregeln zum Entfernen abgelaufener Löschmarkierungen für Objekte | - | Durchschnittliche Anzahl von Lebenszyklusregeln zum Entfernen abgelaufener Objektlöschmarkierungen | Advanced | Kostenoptimierung | Y | sum (ExpiredObjectDeleteMarkerLifecycleRuleCount) /sum () DistinctNumberOfBuckets  | N | 
| Anzahl der gesamten Lebenszyklusregeln | TotalLifecycleRuleCount | Anzahl der Lebenszyklusregeln | Advanced | Kostenoptimierung | N | - | N | 
| Durchschnittliche Anzahl von Lebenszyklusregeln pro Bucket | - | Durchschnittliche Anzahl von Lebenszyklusregeln | Advanced | Kostenoptimierung | Y | sum (TotalLifecycleRuleCount) /sum () DistinctNumberOfBuckets | N | 
| Verschlüsselte Bytes | EncryptedStorageBytes | Anzahl der verschlüsselten Byte | Kostenfrei | Datenschutz | N | - | Y | 
| % verschlüsselte Bytes | - | Prozentsatz der gesamten verschlüsselten Byte | Kostenfrei | Datenschutz | Y | sum (EncryptedObjectCount) /sum () StorageBytes | Y | 
| Anzahl der verschlüsselten Objekte | EncryptedObjectCount | Anzahl der Objekte, die verschlüsselt sind | Kostenfrei | Datenschutz | N | - | Y | 
| % verschlüsselte Objekte | - | Prozentsatz der Objekte, die verschlüsselt sind | Kostenfrei | Datenschutz | Y | Summe (EncryptedStorageBytes) /Summe () ObjectCount | Y | 
| Unverschlüsselte Bytes | UnencryptedStorageBytes | Anzahl der unverschlüsselten Bytes | Kostenfrei | Datenschutz | Y | sum (StorageBytes) - sum () EncryptedStorageBytes | Y | 
| % unverschlüsselte Bytes | - | Prozentsatz der unverschlüsselten Bytes | Kostenfrei | Datenschutz | Y | sum (UnencryptedStorageBytes) /sum () StorageBytes | Y | 
| Unverschlüsselte Objektanzahl | UnencryptedObjectCount | Anzahl der unverschlüsselten Objekte | Kostenfrei | Datenschutz | Y | sum (ObjectCount) - Summe () EncryptedObjectCount | Y | 
| % unverschlüsselte Objekte | - | Prozentsatz unverschlüsselter Objekte | Kostenfrei | Datenschutz | Y | Summe (UnencryptedObjectCount) /Summe () ObjectCount | Y | 
| Replizierte Speicher-Bytes-Quelle | ReplicatedStorageBytesSource | Anzahl der Byte, die aus dem Quell-Bucket repliziert werden | Kostenfrei | Datenschutz | N | - | Y | 
| % replizierte Bytes-Quelle | - | Prozentsatz der gesamten Byte, die aus dem Quell-Bucket repliziert wurden | Kostenfrei | Datenschutz | Y | Summe (ReplicatedStorageBytesSource) /Summe () StorageBytes | Y | 
| Quelle der Anzahl der replizierten Objekte | ReplicatedObjectCountSource | Anzahl der replizierten Objekte aus dem Quell-Bucket | Kostenfrei | Datenschutz | N | - | Y | 
| % replizierte Objektquelle | - | Prozentsatz der gesamten Objekte, die aus dem Quell-Bucket repliziert wurden | Kostenfrei | Datenschutz | Y | Summe (ReplicatedStorageObjectCount) /Summe () ObjectCount | Y | 
| Replizierte Speicherbytes Ziel | ReplicatedStorageBytes | Anzahl der Byte, die in den Ziel-Bucket repliziert werden | Kostenfrei | Datenschutz | N | - | N | 
| % repliziertes Bytes-Ziel | - | Prozentsatz der gesamten Byte, die in den Ziel-Bucket repliziert wurden | Kostenfrei | Datenschutz | Y | sum (ReplicatedStorageBytes) /sum () StorageBytes | Y | 
| Ziel der Anzahl der replizierten Objekte | ReplicatedObjectCount | Anzahl der Objekte, die in den Ziel-Bucket repliziert werden | Kostenfrei | Datenschutz | N | - | Y | 
| % Ziel replizierter Objekte | - | Prozentsatz der gesamten Objekte, die in den Ziel-Bucket repliziert wurden | Kostenfrei | Datenschutz | Y | Summe (ReplicatedObjectCount) /Summe () ObjectCount | Y | 
| Bytes mit Objektsperre | ObjectLockEnabledStorageBytes | Anzahl der Speicherbytes, bei denen Object Lock aktiviert ist | Kostenfrei | Datenschutz | N | sum (UnencryptedStorageBytes) /sum (ObjectLockEnabledStorageCount) -sum () ObjectLockEnabledStorageBytes | Y | 
| % Bytes mit Objektsperre | - | Prozentsatz der Speicherbytes, für die Object Lock aktiviert ist | Kostenfrei | Datenschutz | Y | sum (ObjectLockEnabledStorageBytes) /sum () StorageBytes | Y | 
| Anzahl der Objekte mit aktivierter Objektsperre | ObjectLockEnabledObjectCount | Anzahl der Object Lock-Objekte | Kostenfrei | Datenschutz | N | - | Y | 
| % Objekte mit Objektsperre | - | Prozentsatz der Gesamtzahl der Objekte, für die die Objektsperre aktiviert ist | Kostenfrei | Datenschutz | Y |  Summe (ObjectLockEnabledObjectCount) /Summe () ObjectCount | Y | 
| Bucket-Anzahl mit aktiviertem Versioning | VersioningEnabledBucketCount | Anzahl der Buckets, für die S3 Versioning aktiviert ist | Kostenfrei | Datenschutz | N | - | N | 
| % Buckets mit aktiviertem Versioning | - | Prozentsatz der Buckets, für die S3-Versionierung aktiviert ist | Kostenfrei | Datenschutz | Y | sum (VersioningEnabledBucketCount) /sum () DistinctNumberOfBuckets | N | 
| Anzahl der MFA-löschaktivierten Buckets | MFADeleteEnabledBucketCount | Anzahl der Buckets, für die das Löschen von MFA (Multi-Faktor-Authentifizierung) aktiviert ist | Kostenfrei | Datenschutz | N | - | N | 
| % der MFA-löschaktivierten Buckets | - | Prozentsatz der Buckets, für die das Löschen von MFA (Multi-Faktor-Authentifizierung) aktiviert ist | Kostenfrei | Datenschutz | Y | Summe (MFADeleteEnabledBucketCount) /Summe () DistinctNumberOfBuckets | N | 
| SSE-KMS-fähige Bucket-Anzahl | SSEKMSEnabledBucketCount | Anzahl der Buckets, die serverseitige Verschlüsselung mit AWS Key Management Service Schlüsseln (SSE-KMS) für die Standard-Bucket-Verschlüsselung verwenden | Kostenfrei | Datenschutz | N | - | N | 
| % der SSE-KMS-fähigen Buckets | - | Prozentsatz der Buckets, die SSE-KMS für die Standard-Bucket-Verschlüsselung verwenden | Kostenfrei | Datenschutz | Y | Summe (SSEKMSEnabledBucketCount) /Summe () DistinctNumberOfBuckets | N | 
| Alle nicht unterstützten Signaturanforderungen | AllUnsupportedSignatureRequests | Gesamtzahl der Anfragen, die nicht unterstützte Signaturversionen AWS verwenden | Advanced | Datenschutz | N | - | N | 
| % aller nicht unterstützten Signaturanforderungen | - | Prozentsatz der Anfragen, die nicht unterstützte Signaturversionen AWS verwenden | Advanced | Datenschutz | Y | sum (AllUnsupportedSignatureRequests) /sum () AllRequests | N | 
| Alle nicht unterstützten TLS-Anforderungen | AllUnsupportedTLSRequests | Gesamtzahl der Anfragen, die nicht unterstützte Transport Layer Security (TLS) -Versionen verwenden | Advanced | Datenschutz | N | - | N | 
| % aller nicht unterstützten TLS-Anforderungen | - | Prozentsatz der Anfragen, die nicht unterstützte TLS-Versionen verwenden | Advanced | Datenschutz | Y | sum (AllUnsupportedTLSRequests) /sum () AllRequests | N | 
| Alle SSE-KMS-Anforderungen | Alle SSEKMSRequests | Gesamtzahl der Anfragen, die SSE-KMS spezifizieren | Advanced | Datenschutz | N | - | N | 
| % aller SSE-KMS-Anforderungen | - | Prozentsatz der Anfragen, die SSE-KMS angeben | Advanced | Datenschutz | Y | Summe (AlleSSEKMSRequests) /Summe () AllRequests | N | 
| Anzahl der Replikationsregeln für dieselbe Region | SameRegionReplicationRuleCount | Anzahl der Replikationsregeln für die Replikation in derselben Region (SRR) | Advanced | Datenschutz | N | - | N | 
| Durchschnittliche Replikationsregeln für Replikation innerhalb derselben Region | - | Durchschnittliche Anzahl von Replikationsregeln für SRR | Advanced | Datenschutz | Y | sum (SameRegionReplicationRuleCount) /sum () DistinctNumberOfBuckets | N | 
| Anzahl der regionsübergreifenden Replikationsregeln | CrossRegionReplicationRuleCount | Anzahl der Replikationsregeln für die regionsübergreifende Replikation (CRR) | Advanced | Datenschutz | N | - | N | 
| Durchschnittliche Replikationsregeln für regionsübergreifende Replikation pro Bucket | - | Durchschnittliche Anzahl von Replikationsregeln für CRR | Advanced | Datenschutz | Y | sum (CrossRegionReplicationRuleCount) /sum () DistinctNumberOfBuckets | N | 
| Anzahl der Replikationsregeln für dasselbe Konto | SameAccountReplicationRuleCount | Anzahl der Replikationsregeln für die Replikation innerhalb desselben Kontos | Advanced | Datenschutz | N | - | N | 
| Durchschnittliche Replikationsregeln für Replikation innerhalb desselben Kontos pro Bucket | - | Durchschnittliche Anzahl von Replikationsregeln für die Replikation innerhalb desselben Kontos | Advanced | Datenschutz | Y | sum (SameAccountReplicationRuleCount) /sum () DistinctNumberOfBuckets | N | 
| Kontenübergreifende Replikationsregelanzahl | CrossAccountReplicationRuleCount | Anzahl der Replikationsregeln für die kontenübergreifende Replikation | Advanced | Datenschutz | N | - | N | 
| Durchschnittliche Replikationsregeln für die kontoübergreifende Replikation pro Bucket | - | Durchschnittliche Anzahl von Replikationsregeln für die kontenübergreifende Replikation | Advanced | Datenschutz | Y | sum (CrossAccountReplicationRuleCount) /sum () DistinctNumberOfBuckets | N | 
| Ungültige Anzahl der Zielreplikationsregeln | InvalidDestinationReplicationRuleCount | Anzahl der Replikationsregeln mit einem ungültigen Replikationsziel | Advanced | Datenschutz | N | - | N | 
| Durchschnittliche ungültige Anzahl der Zielreplikationsregeln | - | Durchschnittliche Anzahl von Replikationsregeln mit einem ungültigen Replikationsziel | Advanced | Datenschutz | Y | sum (InvalidReplicationRuleCount) /sum () DistinctNumberOfBuckets | N | 
| Gesamte Replikationsregelnanzahl | - | Gesamte Replikationsregelnanzahl | Advanced | Datenschutz | Y | - | N | 
| Durchschnittliche Anzahl der Replikationsregeln pro Bucket | - | Durchschnittliche Gesamtzahl der Replikationsregeln | Advanced | Datenschutz | Y | sum (alle Metriken zur Anzahl der Replikationsregeln) /sum (DistinctNumberOfBuckets) | N | 
| Anzahl der Buckets mit Bucket-Eigentümer erzwungen für Objekteigentümerschaft | ObjectOwnershipBucketOwnerEnforcedBucketCount | Anzahl der Buckets, bei denen die Zugriffskontrolllisten (ACLs) mithilfe der vom Bucket-Besitzer erzwungenen Einstellung für Objekteigentümer deaktiviert wurden | Kostenfrei | Zugriffsverwaltung | N | - | N | 
| % Bucket-Eigentümer erzwungen für Objekteigentümerschaft | - | Prozentsatz der Buckets, die mithilfe der vom Bucket-Besitzer erzwungenen Einstellung für Objekteigentum ACLs deaktiviert wurden | Kostenfrei | Zugriffsverwaltung | Y | Summe (ObjectOwnershipBucketOwnerEnforcedBucketCount) /Summe () DistinctNumberOfBuckets  | N | 
| Anzahl der Buckets mit Bucket-Eigentümer bevorzugt für Objekteigentümerschaft | ObjectOwnershipBucketOwnerPreferredBucketCount | Anzahl der Buckets, die die bevorzugte Einstellung des Bucket-Besitzers für Objekteigentum verwenden | Kostenfrei | Zugriffsverwaltung | N | - | N | 
| % der Buckets mit Bucket-Eigentümer bevorzugt für Objekteigentümerschaft | - | Prozentsatz der Buckets, die die bevorzugte Einstellung des Bucket-Besitzers für Objekteigentum verwenden | Kostenfrei | Zugriffsverwaltung | Y | Summe (ObjectOwnershipBucketOwnerPreferredBucketCount) /Summe () DistinctNumberOfBuckets  | N | 
| Objekt-Autor Bucket-Anzahl des Objekt-Eigentümers | ObjectOwnershipObjectWriterBucketCount | Anzahl der Buckets, die die Object-Writer-Einstellung für Object Ownership verwenden | Kostenfrei | Zugriffsverwaltung | N | - | N | 
| % der Buckets mit Objektschreiber für Objekteigentümerschaft | - | Prozentsatz der Buckets, die die Object-Writer-Einstellung für Objekteigentum verwenden | Kostenfrei | Zugriffsverwaltung | Y | Summe (ObjectOwnershipObjectWriterBucketCount) /Summe () DistinctNumberOfBuckets | N | 
| Anzahl aktivierter Buckets für Transfer Acceleration | TransferAccelerationEnabledBucketCount | Anzahl der Buckets, für die Transfer Acceleration aktiviert ist | Kostenfrei | Leistung | N | - | N | 
| % der aktivierten Buckets für Transfer Acceleration | - | Prozentsatz der Buckets, für die die Übertragungsbeschleunigung aktiviert ist | Kostenfrei | Leistung | Y | Summe (TransferAccelerationEnabledBucketCount) /Summe () DistinctNumberOfBuckets | N | 
| Anzahl der aktivierten Buckets für Ereignisbenachrichtigungen | EventNotificationEnabledBucketCount | Anzahl der Buckets, für die Ereignisbenachrichtigungen aktiviert sind | Kostenfrei | Ereignisse | N |  | N | 
| % der aktivierten Buckets für Ereignisbenachrichtigungen | - | Prozentsatz der Buckets, für die Ereignisbenachrichtigungen aktiviert sind | Kostenfrei | Ereignisse | Y | Summe (EventNotificationEnabledBucketCount) /Summe () DistinctNumberOfBuckets | N | 
| Alle Anforderungen | AllRequests |  Gesamtzahl der gestellten Anfragen   | Advanced | Aktivität | N | - | N | 
| GET-Anforderungen | GetRequests |  Gesamtzahl der `GET` gestellten Anfragen  | Advanced | Aktivität | N | - | N | 
| PUT-Anforderungen | PutRequests |  Gesamtzahl der `PUT` gestellten Anfragen  | Advanced | Aktivität | N | - | N | 
| HEAD-Anforderungen | HeadRequests | Anzahl der HEAD gestellten Anfragen | Advanced | Aktivität | N | - | N | 
| DELETE-Anforderungen | DeleteRequests | Anzahl der DELETE gestellten Anfragen | Advanced | Aktivität | N | - | N | 
| Listenanforderungen | ListRequests | Anzahl der LIST gestellten Anfragen | Advanced | Aktivität | N | - | N | 
| POST-Anforderungen | PostRequests | Anzahl der POST gestellten Anfragen | Advanced | Aktivität | N | - | N | 
| SELECT-Anforderungen | SelectRequests | Anzahl der S3 Select-Anfragen | Advanced | Aktivität | N | - | N | 
| Ausgewählte gescannte Bytes | SelectScannedBytes | Anzahl der gescannten S3 Select-Byte | Advanced | Aktivität | N | - | N | 
| Ausgewählte zurückgegebene Bytes | SelectReturnedBytes | Anzahl der zurückgegebenen S3 Select-Byte | Advanced | Aktivität | N | - | N | 
| Heruntergeladene Bytes | BytesDownloaded | Anzahl der heruntergeladenen Byte | Advanced | Aktivität | N | - | N | 
| % Abrufrate | - | Prozentsatz der heruntergeladenen Byte | Advanced | Aktivität | Y | sum (BytesDownloaded) /sum () StorageBytes | N | 
| Hochgeladene Bytes | BytesUploaded | Anzahl der hochgeladenen Byte | Advanced | Aktivität | N | - | N | 
| % Aufnahmeverhältnis | - | Prozentsatz der hochgeladenen Byte | Advanced | Aktivität | Y | Summe (BytesUploaded) /Summe () StorageBytes | N | 
| 4xx-Fehler | 4xxErrors | Anzahl der HTTP 4xx-Statuscodes | Advanced | Aktivität | N | - | N | 
| 5xx-Fehler | 5xxErrors | Anzahl der HTTP 5xx-Statuscodes | Advanced | Aktivität | N | - | N | 
| Gesamtfehler | - | Die Summe aller 4xx- und 5xx-Fehler | Advanced | Aktivität | Y | sum(4xxErrors) \$1 sum(5xxErrors) | N | 
| % Fehlerrate | - |  Gesamtzahl der 4xx- und 5xx-Fehler als Prozentsatz der Gesamtzahl der Anfragen  | Advanced | Aktivität | Y | Summe (TotalErrors) /Summe () TotalRequests | N | 
| 200 OK Statusanzahl | 200 zählen OKStatus | Anzahl der 200 OK-Statuscodes | Advanced | Detaillierter Statuscode | N | - | N | 
| % Status 200 OK | - |  Gesamtzahl der 200 OK-Statuscodes als Prozentsatz der gesamten Anfragen  | Advanced | Detaillierter Statuscode | Y | Summe (200 OKStatus Anzahl) /Summe (AllRequests) | N | 
| Statusanzahl 206 unvollständige Inhalte | 206 PartialContentStatusCount | Anzahl der 206 Statuscodes für unvollständige Inhalte | Advanced | Detaillierter Statuscode | N | - | N | 
| % Status 206 unvollständige Inhalte | - | Anzahl der 206 Statuscodes für unvollständige Inhalte als Prozentsatz der gesamten Anfragen | Advanced | Detaillierter Statuscode | Y | Summe (206PartialContentStatusCount) /Summe (AllRequests) | N | 
| Anzahl der Fehler 400 Bad Request |  400 BadRequestErrorCount  | Anzahl der 400 Statuscodes für schlechte Anfragen | Advanced | Detaillierter Statuscode | N | - | N | 
| % Fehler 400 Bad Request | - | Anzahl der 400 Statuscodes für fehlerhafte Anfragen als Prozentsatz der Gesamtzahl der Anfragen | Advanced | Detaillierter Statuscode | Y | Summe (400BadRequestErrorCount) /Summe (AllRequests) | N | 
| Anzahl der Fehler 403 Forbidden |  403 ForbiddenErrorCount  | Anzahl der 403 Verbotenen Statuscodes | Advanced | Detaillierter Statuscode | N | - | N | 
| % Fehler 403 Forbidden | - | Anzahl der 403 Statuscodes „Verboten“ als Prozentsatz der Gesamtzahl der Anfragen | Advanced | Detaillierter Statuscode | Y | Summe (403ForbiddenErrorCount) /Summe (AllRequests) | N | 
| Anzahl der Fehler 404 Not Found | 404 NotFoundErrorCount | Anzahl der Statuscodes „404 Nicht gefunden“ | Advanced | Detaillierter Statuscode | N | - | N | 
| % Fehler 404 Not Found | - | Anzahl der Statuscodes „404 Nicht gefunden“ als Prozentsatz der Gesamtzahl der Anfragen | Advanced | Detaillierter Statuscode | Y | Summe (404NotFoundErrorCount) /Summe (AllRequests) | N | 
| Fehleranzahl 500 Internal Server Error | 500 InternalServerErrorCount | Anzahl der 500 Statuscodes für interne Serverfehler | Advanced | Detaillierter Statuscode | N | - | N | 
| % Fehler 500 Internal Server Error | - | Anzahl der 500 Statuscodes für interne Serverfehler als Prozentsatz der Gesamtzahl der Anfragen | Advanced | Detaillierter Statuscode | Y | Summe (500InternalServerErrorCount) /Summe (AllRequests) | N | 
| Anzahl der Fehler 503 Service Unavailable | 503 ServiceUnavailableErrorCount | Anzahl der 503 Statuscodes „Service Unavailable“ | Advanced | Detaillierter Statuscode | N | - | N | 
| % Fehler 503 Service Unavailable | - | Anzahl der 503 Statuscodes für den Status „Dienst nicht verfügbar“ als Prozentsatz der Gesamtzahl der Anfragen | Advanced | Detaillierter Statuscode | Y | Summe (503ServiceUnavailableErrorCount) /Summe (AllRequests) | N | 

1 Alle Metriken für das kostenlose Speicherkontingent sind auf Storage-Lens-Gruppenebene verfügbar. Metriken für die Advanced-Stufe sind auf Storage-Lens-Gruppenebene nicht verfügbar.

2 Metriken für die Anzahl der Regeln und Metriken für Bucket-Einstellungen sind auf Präfixebene nicht verfügbar.

Die folgende Tabelle zeigt die in S3 Storage Lens verfügbaren Leistungsmetriken und ihre Verfügbarkeit in CloudWatch:


| **Metrikname** | **CloudWatch und exportieren** | **Beschreibung** | **Stufe** | **Kategorie** | **Abgeleitet** | **Abgeleitete metrische Formel** | **Storage-Lens-Gruppen** | 
| --- | --- | --- | --- | --- | --- | --- | --- | 
| Durchschnittliche Latenz beim ersten Byte | AverageFirstByteLatency | Durchschnittliche Zeit pro Anfrage zwischen dem Zeitpunkt, an dem ein Amazon S3 S3-Bucket eine vollständige Anfrage empfängt, und dem Beginn der Rückmeldung der Antwort, gemessen in den letzten 24 Stunden | Advanced | Leistung | N | - | N | 
| Durchschnittliche Gesamtlatenz bei Anfragen | AverageTotalRequestLatency | Durchschnittlich verstrichene Zeit pro Anfrage zwischen dem ersten empfangenen Byte und dem letzten an einen Amazon S3 S3-Bucket gesendeten Byte, gemessen in den letzten 24 Stunden | Advanced | Leistung | N | - | N | 
| Anzahl der Anfragen von 0 KB lesen | Anzahl 0 lesen\$1 KBRequest | Anzahl der GetObject Anfragen mit Datengrößen von 0 KB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | Advanced | Leistung | N | - | N | 
| Anzahl der Anfragen von 0 KB bis 128 KB lesen | Anzahl 0 lesen\$1 KBTo128 KBRequest | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 0 KB und bis zu 128 KB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | Advanced | Leistung | N | - | N | 
| Anzahl der Anfragen von 128 KB bis 256 KB lesen | Anzahl 128 lesen\$1 KBTo256 KBRequest | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 128 KB und bis zu 256 KB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | Advanced | Leistung | N | - | N | 
| Anzahl der Anfragen von 256 KB bis 512 KB | Anzahl von 256 lesen\$1 KBTo512 KBRequest | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 256 KB und bis zu 512 KB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | Advanced | Leistung | N | - | N | 
| Anzahl der Anfragen von 512 KB bis 1 MB | Anzahl 512 lesen\$1 KBTo1 MBRequest | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 512 KB und bis zu 1 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | Advanced | Leistung | N | - | N | 
| Anzahl der Leseanforderungen von 1 MB bis 2 MB | Anzahl lesen\$1 MBTo2 MBRequest | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 1 MB und bis zu 2 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | Advanced | Leistung | N | - | N | 
| Anzahl der Leseanforderungen: 2 MB bis 4 MB | Anzahl gelesener Lesen\$1 MBTo4 MBRequest | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 2 MB und bis zu 4 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | Advanced | Leistung | N | - | N | 
| Anzahl der Leseanforderungen: 4 MB bis 8 MB | Anzahl der gelesenen Vierungen\$1 MBTo8 MBRequest | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 4 MB und bis zu 8 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | Advanced | Leistung | N | - | N | 
| Anzahl der Leseanforderungen: 8 MB bis 16 MB | Anzahl lesen\$1 MBTo16 MBRequest | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 8 MB und bis zu 16 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | Advanced | Leistung | N | - | N | 
| Anzahl der Leseanforderungen: 16 MB bis 32 MB | Anzahl der gelesenen 16\$1 MBTo32 MBRequest | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 16 MB und bis zu 32 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | Advanced | Leistung | N | - | N | 
| Anzahl der Leseanforderungen: 32 MB bis 64 MB | Anzahl der gelesenen 32-Zählen\$1 MBTo64 MBRequest | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 32 MB und bis zu 64 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | Advanced | Leistung | N | - | N | 
| Anzahl der Leseanforderungen: 64 MB bis 128 MB | Anzahl der Lesen/64\$1 MBTo128 MBRequest | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 64 MB und bis zu 128 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | Advanced | Leistung | N | - | N | 
| Anzahl der Leseanforderungen: 128 MB bis 256 MB | Anzahl von 128 lesen\$1 MBTo256 MBRequest | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 128 MB und bis zu 256 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | Advanced | Leistung | N | - | N | 
| Anzahl der Anfragen von 256 MB bis 512 MB | Anzahl der gelesenen 256\$1 MBTo512 MBRequest | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 256 MB und bis zu 512 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | Advanced | Leistung | N | - | N | 
| Anzahl der Leseanforderungen: 512 MB bis 1 GB | Anzahl 512 lesen\$1 MBTo1 GBRequest | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 512 MB und bis zu 1 GB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | Advanced | Leistung | N | - | N | 
| Anzahl der Leseanforderungen von 1 GB bis 2 GB | Anzahl lesen\$1 GBTo2 GBRequest | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 1 GB und bis zu 2 GB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | Advanced | Leistung | N | - | N | 
| Anzahl der Leseanforderungen von 2 GB bis 4 GB | Anzahl gelesener Lesen\$1 GBTo4 GBRequest | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 2 GB und bis zu 4 GB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | Advanced | Leistung | N | - | N | 
| Anzahl der Leseanforderungen von mehr als 4 GB | ReadLargerThanAnzahl 4\$1 GBRequest | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 4 GB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | Advanced | Leistung | N | - | N | 
| Anzahl der Anfragen auf 0 KB schreiben | Schreiben Sie 0 Zählen\$1 KBRequest | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von 0 KB | Advanced | Leistung | N | - | N | 
| Schreiben Sie 0 KB auf die Anzahl der Anfragen von 128 KB | Schreiben Sie 0 Count\$1 KBTo128 KBRequest | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 0 KB und bis zu 128 KB | Advanced | Leistung | N | - | N | 
| Schreiben Sie 128 KB auf die Anzahl der Anfragen von 256 KB | Schreiben Sie 128 Zähl\$1 KBTo256 KBRequest | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 128 KB und bis zu 256 KB | Advanced | Leistung | N | - | N | 
| Schreiben Sie 256 KB auf die Anzahl der Anfragen von 512 KB | Schreiben Sie 256 Zähl\$1 KBTo512 KBRequest | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 256 KB und bis zu 512 KB | Advanced | Leistung | N | - | N | 
| Schreiben Sie 512 KB auf die Anzahl der Anfragen von 1 MB | Schreiben Sie 512 Count\$1 KBTo1 MBRequest | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 512 KB und bis zu 1 MB | Advanced | Leistung | N | - | N | 
| Schreiben Sie eine Anzahl von Anfragen von 1 MB auf 2 MB | Schreiben Sie 1 Zähl\$1 MBTo2 MBRequest | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 1 MB und bis zu 2 MB | Advanced | Leistung | N | - | N | 
| Schreiben Sie 2 MB auf die Anzahl der Anfragen 4 MB | Schreiben Sie 2 Zählen\$1 MBTo4 MBRequest | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 2 MB und bis zu 4 MB | Advanced | Leistung | N | - | N | 
| Schreiben Sie 4 MB auf die Anzahl der Anfragen 8 MB | Schreiben Sie 4 Zählen\$1 MBTo8 MBRequest | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 4 MB und bis zu 8 MB | Advanced | Leistung | N | - | N | 
| Schreiben Sie 8 MB auf die Anzahl der Anfragen 16 MB | Schreiben Sie 8 Zähl\$1 MBTo16 MBRequest | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 8 MB und bis zu 16 MB | Advanced | Leistung | N | - | N | 
| Schreiben Sie 16 MB auf die Anzahl der Anfragen 32 MB | Schreiben Sie 16 Zähl\$1 MBTo32 MBRequest | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 16 MB und bis zu 32 MB | Advanced | Leistung | N | - | N | 
| Schreiben Sie 32 MB auf 64 MB, Anzahl Anfragen | Schreiben Sie 32 Zähl\$1 MBTo64 MBRequest | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 32 MB und bis zu 64 MB | Advanced | Leistung | N | - | N | 
| Schreiben Sie 64 MB auf die Anzahl der Anfragen 128 MB | Write64 Count\$1 MBTo128 MBRequest | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 64 MB und bis zu 128 MB | Advanced | Leistung | N | - | N | 
| Schreiben Sie 128 MB auf die Anzahl der Anfragen auf 256 MB | Schreiben Sie 128 Zähl\$1 MBTo256 MBRequest | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 128 MB und bis zu 256 MB | Advanced | Leistung | N | - | N | 
| Schreiben Sie 256 MB auf die Anzahl der Anfragen von 512 MB | Schreiben Sie 256 Zähl\$1 MBTo512 MBRequest | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 256 MB und bis zu 512 MB | Advanced | Leistung | N | - | N | 
| Schreiben Sie 512 MB auf die Anzahl der Anfragen 1 GB | Schreiben Sie 512 Count\$1 MBTo1 GBRequest | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 512 MB und bis zu 1 GB | Advanced | Leistung | N | - | N | 
| Anzahl der Anfragen von 1 GB auf 2 GB | Schreiben Sie 1 Zähl\$1 GBTo2 GBRequest | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 1 GB und bis zu 2 GB | Advanced | Leistung | N | - | N | 
| Anzahl der Anfragen von 2 GB auf 4 GB | Schreiben Sie 2 Zählen\$1 GBTo4 GBRequest | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 2 GB und bis zu 4 GB | Advanced | Leistung | N | - | N | 
| Anzahl der Schreibanfragen: mehr als 4 GB | WriteLargerThanAnzahl 4\$1 GBRequest | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 4 GB | Advanced | Leistung | N | - | N | 
| Anzahl der Objekte: 0 KB | Objekt 0 KBCount | Anzahl der Objekte mit einer Größe von 0 KB, einschließlich aktueller Versionen, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | Advanced | Leistung | N | - | N | 
| Anzahl der Objekte: 0 KB bis 128 KB | Objekt 0 KBTo128 KBCount | Anzahl der Objekte mit einer Größe von mehr als 0 KB und weniger als 128 KB, einschließlich aktueller Versionen, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | Advanced | Leistung | N | - | N | 
| Anzahl der Objekte: 128 KB bis 256 KB | Objekt 128 KBTo256 KBCount | Anzahl von Objekten mit einer Größe von mehr als 128 KB und weniger als 256 KB, einschließlich aktueller Versionen, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | Advanced | Leistung | N | - | N | 
| Anzahl der Objekte: 256 KB bis 512 KB | Objekt 256 KBTo512 KBCount | Anzahl von Objekten mit einer Größe von mehr als 256 KB und weniger als 512 KB, einschließlich aktueller Versionen, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | Advanced | Leistung | N | - | N | 
| Anzahl der Objekte 512 KB bis 1 MB | Objekt 512 KBTo1 MBCount | Anzahl von Objekten mit einer Größe von mehr als 512 KB und weniger als 1 MB, einschließlich aktueller Versionen, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | Advanced | Leistung | N | - | N | 
| Anzahl der Objekte: 1 MB bis 2 MB | Objekt 1 MBTo2 MBCount | Anzahl von Objekten mit einer Größe von mehr als 1 MB und weniger als 2 MB, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | Advanced | Leistung | N | - | N | 
| Anzahl der Objekte: 2 MB bis 4 MB | Objekt 2 MBTo4 MBCount | Anzahl der Objekte mit einer Größe von mehr als 2 MB und weniger als 4 MB, einschließlich aktueller Versionen, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | Advanced | Leistung | N | - | N | 
| Anzahl der Objekte: 4 MB bis 8 MB | Objekt 4 MBTo8 MBCount | Anzahl der Objekte mit einer Größe von mehr als 4 MB und weniger als 8 MB, einschließlich aktueller Versionen, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | Advanced | Leistung | N | - | N | 
| Anzahl der Objekte: 8 MB bis 16 MB | Objekt 8 MBTo16 MBCount | Anzahl der Objekte mit einer Größe von mehr als 8 MB und weniger als 16 MB, einschließlich aktueller Versionen, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | Advanced | Leistung | N | - | N | 
| Anzahl der Objekte: 16 MB bis 32 MB | Objekt 16 MBTo32 MBCount | Anzahl der Objekte mit einer Größe von mehr als 16 MB und weniger als 32 MB, einschließlich aktueller Versionen, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | Advanced | Leistung | N | - | N | 
| Anzahl der Objekte: 32 MB bis 64 MB | Objekt 32 MBTo64 MBCount | Anzahl der Objekte mit einer Größe von mehr als 32 MB und weniger als 64 MB, einschließlich aktueller Versionen, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | Advanced | Leistung | N | - | N | 
| Anzahl der Objekte: 64 MB bis 128 MB | Objekt 64 MBTo128 MBCount | Anzahl der Objekte mit einer Größe von mehr als 64 MB und weniger als 128 MB, einschließlich aktueller Versionen, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | Advanced | Leistung | N | - | N | 
| Anzahl der Objekte: 128 MB bis 256 MB | Objekt 128 MBTo256 MBCount | Anzahl der Objekte mit einer Größe von mehr als 128 MB und weniger als 256 MB, einschließlich aktueller Versionen, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | Advanced | Leistung | N | - | N | 
| Anzahl der Objekte: 256 MB bis 512 MB | Objekt 256 MBTo512 MBCount | Anzahl der Objekte mit einer Größe von mehr als 256 MB und weniger als 512 MB, einschließlich aktueller Versionen, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | Advanced | Leistung | N | - | N | 
| Anzahl der Objekte: 512 MB bis 1 GB | Objekt 512 MBTo1 GBCount | Anzahl der Objekte mit einer Größe von mehr als 512 MB und weniger als 1 GB, einschließlich aktueller Versionen, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | Advanced | Leistung | N | - | N | 
| Anzahl der Objekte: 1 GB bis 2 GB | Objekt 1 GBTo2 GBCount | Anzahl von Objekten mit einer Größe von mehr als 1 GB und weniger als 2 GB, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | Advanced | Leistung | N | - | N | 
| Anzahl der Objekte: 2 GB bis 4 GB | Objekt 2 GBTo4 GBCount | Anzahl von Objekten mit einer Größe von mehr als 2 GB und weniger als 4 GB, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | Advanced | Leistung | N | - | N | 
| Anzahl der Objekte: mehr als 4 GB | ObjectLargerThan4GBCount | Anzahl der Objekte mit einer Größe von mehr als 4 GB, einschließlich aktueller Versionen, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | Advanced | Leistung | N | - | N | 
| Anzahl gleichzeitiger Put 503-Fehler | ConcurrentPut503 ErrorCount | Anzahl der 503 Fehler, die aufgrund gleichzeitiger Schreibvorgänge auf dasselbe Objekt generiert werden | Advanced | Leistung | N | - | N | 
| % Gleichzeitiger Put 503-Fehler | - | Prozentsatz der 503-Fehler, die aufgrund gleichzeitiger Schreibvorgänge auf dasselbe Objekt generiert werden | Advanced | Leistung | Y | 100 \$1 ConcurrentPut 503 Fehler/ AllRequests | N | 
| Anzahl regionsübergreifender Anfragen | CrossRegionRequestCount | Anzahl der Anfragen, die von einem Kunden in einer anderen Region als der Heimatregion des Buckets stammen | Advanced | Leistung | N | - | N | 
| % regionsübergreifender Anfragen | - | Prozentsatz der Anfragen, die von einem Kunden in einer anderen Region als der Heimatregion von Bucket stammen | Advanced | Leistung | Y | 100 \$1 CrossRegionRequestCount / AllRequests | N | 
| Regionsübergreifend übertragene Byte | CrossRegionTransferredBytes | Anzahl der Byte, die von Aufrufen in einer anderen Region als der Heimatregion des Buckets übertragen wurden | Advanced | Leistung | N | - | N | 
| % regionsübergreifend übertragener Byte | - | Prozentsatz der übertragenen Byte, die von Aufrufen in einer anderen Region stammen, in der Heimatregion dieses Buckets | Advanced | Leistung | Y | 100 \$1 CrossRegionBytes /(BytesDownloaded \$1 BytesUploaded) | N | 
| Regionsübergreifend ohne Anzahl von Replikationsanfragen | CrossRegionWithoutReplicationRequestCount | Anzahl der Anfragen, die von einem Client in einer anderen Region als der Heimatregion des Buckets stammen, ausgenommen regionsübergreifende Replikationsanfragen | Advanced | Leistung | N | - | N | 
| % regionsübergreifend ohne Replikationsanfragen | - | Prozentsatz der Anfragen, die von einem Client in einer anderen Region in der Heimatregion dieses Buckets stammen, ausgenommen regionsübergreifende Replikationsanfragen | Advanced | Leistung | Y | 100 \$1/ CrossRegionRequestWithoutReplicationCount AllRequests | N | 
| Regionsübergreifend ohne Replikation übertragene Byte | CrossRegionWithoutReplicationTransferredBytes | Anzahl der Byte, die von Aufrufen in einer anderen Region als der Heimatregion des Buckets übertragen werden, ausgenommen regionsübergreifende Replikationsbytes | Advanced | Leistung | N | - | N | 
| % regionsübergreifend ohne Replikation übertragene Byte | - | Anzahl der Anfragen, die aus einer anderen Region als der Heimatregion des Buckets stammen, ausgenommen regionsübergreifende Replikationsanforderungen | Advanced | Leistung | Y | 100 \$1 CrossRegionBytesWithoutReplication /(BytesDownloaded \$1 BytesUploaded) | N | 
| Anzahl der Anfragen in der Region | InRegionRequestCount | Anzahl der Anfragen, die von einem Kunden in derselben Region wie die Heimatregion des Buckets stammen | Advanced | Leistung | N | - | N | 
| % der Anfragen in der Region | - | Prozentsatz der Anfragen, die von einem Kunden in derselben Region wie der Heimatregion des Buckets stammen | Advanced | Leistung | Y | 100 \$1 InRegionRequestCount / AllRequests | N | 
| In der Region übertragene Byte | InRegionTransferredBytes | Anzahl der Byte, die von Aufrufen aus derselben Region wie die Heimatregion des Buckets übertragen werden | Advanced | Leistung | N | - | N | 
| % der in der Region übertragenen Byte | - | Prozentsatz der übertragenen Byte, die von Aufrufen aus derselben Region stammen wie die Heimatregion des Buckets | Advanced | Leistung | Y | 100 \$1 InRegionBytes /(BytesDownloaded \$1 BytesUploaded) | N | 
| Einzigartige Objekte, auf die zugegriffen wird, zählen täglich | UniqueObjectsAccessedDailyCount | Anzahl der Objekte, auf die in den letzten 24 Stunden mindestens einmal zugegriffen wurde | Advanced | Leistung | N | - | N | 
| Anzahl der täglich abgerufenen eindeutigen Objekte in% | - | Prozentsatz der Objekte, auf die in den letzten 24 Stunden mindestens einmal zugegriffen wurde | Advanced | Leistung | Y | 100 \$1 UniqueObjectsAccessedDailyCount / ObjectCount | N | 

# Festlegen der Berechtigungen für Amazon S3 Storage Lens
<a name="storage_lens_iam_permissions"></a>

Amazon S3 Storage Lens benötigt neue Berechtigungen in AWS Identity and Access Management (IAM), um den Zugriff auf S3 Storage Lens-Aktionen zu autorisieren. Zum Erteilen dieser Berechtigungen können Sie eine identitätsbasierte IAM-Richtlinie verwenden. Die Richtlinie lässt sich an IAM-Benutzer, -Gruppen oder -Rollen anhängen, wodurch diese die entsprechenden Berechtigungen erhalten. Diese Berechtigungen können die Fähigkeit beinhalten, S3 Storage Lens zu aktivieren oder zu deaktivieren oder auf ein beliebiges Dashboard oder eine Konfiguration von S3 Storage Lens zuzugreifen. 

Der IAM-Benutzer oder die IAM-Rolle muss zu dem Konto gehören, das das Dashboard oder die Konfiguration erstellt hat oder besitzt, sofern nicht beide der folgenden Bedingungen zutreffen: 
+ Ihr Konto ist Mitglied von. AWS Organizations
+ Sie haben über Ihr Verwaltungskonto als delegierter Administrator Zugriff auf die Erstellung von Dashboards auf Organisationsebene erhalten.



**Anmerkung**  
Sie können Dashboards von Amazon S3 Storage Lens nicht mithilfe der Stammbenutzer-Anmeldeinformationen Ihres Kontos aufrufen. Für den Zugriff auf S3-Storage-Lens-Dashboards müssen Sie die erforderlichen IAM-Berechtigungen einem neuen oder bestehenden IAM-Benutzer erteilen. Anschließend können Sie sich mit diesen Anmeldeinformationen anmelden, um auf S3-Storage-Lens-Dashboards zuzugreifen. Weitere Informationen finden Sie unter [Bewährte Methoden für die Sicherheit in IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/best-practices.html) im *IAM-Benutzerhandbuch*. 
Die Verwendung von S3 Storage Lens in der Amazon S3-Konsole kann mehrere Berechtigungen erfordern. Zum Bearbeiten eines Dashboards in der Konsole benötigen Sie beispielsweise die folgenden Berechtigungen:  
`s3:ListStorageLensConfigurations`
`s3:GetStorageLensConfiguration`
`s3:PutStorageLensConfiguration`

**Topics**
+ [Festlegen von Kontoberechtigungen für die Verwendung von S3 Storage Lens](#storage_lens_iam_permissions_account)
+ [Festlegen von Kontoberechtigungen für die Verwendung von S3-Storage-Lens-Gruppen](#storage_lens_groups_permissions)
+ [Einrichten von Berechtigungen für die Verwendung von S3 Storage Lens mit AWS Organizations](#storage_lens_iam_permissions_organizations)

## Festlegen von Kontoberechtigungen für die Verwendung von S3 Storage Lens
<a name="storage_lens_iam_permissions_account"></a>

Zum Erstellen und Verwalten von S3-Storage-Lens-Dashboards und Storage-Lens-Dashboard-Konfigurationen benötigen Sie je nachdem, welche Aktionen Sie ausführen möchten, die folgenden Berechtigungen: 

 Die folgende Tabelle enthält die IAM-Berechtigungen für Amazon S3 Storage Lens. 


| Action | IAM-Berechtigungen | 
| --- | --- | 
| Erstellen oder Aktualisieren eines S3-Storage-Lens-Dashboards in der Amazon S3-Konsole. |  `s3:ListStorageLensConfigurations` `s3:GetStorageLensConfiguration` `s3:GetStorageLensConfigurationTagging` `s3:PutStorageLensConfiguration` `s3:PutStorageLensConfigurationTagging`  | 
| Abrufen der Tags eines S3-Storage-Lens-Dashboards in der Amazon-S3-Konsole. |  `s3:ListStorageLensConfigurations` `s3:GetStorageLensConfigurationTagging`  | 
| Ansehen eines S3-Storage-Lens-Dashboards in der Amazon S3-Konsole. |  `s3:ListStorageLensConfigurations` `s3:GetStorageLensConfiguration` `s3:GetStorageLensDashboard`  | 
| Löschen eines S3-Storage-Lens-Dashboards in der Amazon S3-Konsole. |  `s3:ListStorageLensConfigurations` `s3:GetStorageLensConfiguration` `s3:DeleteStorageLensConfiguration`  | 
| Erstellen oder aktualisieren Sie eine S3 Storage Lens-Konfiguration mithilfe des AWS CLI oder eines AWS SDK. |  `s3:PutStorageLensConfiguration` `s3:PutStorageLensConfigurationTagging`  | 
| Rufen Sie die Tags einer S3 Storage Lens-Konfiguration mithilfe des AWS CLI oder eines AWS SDK ab. |  `s3:GetStorageLensConfigurationTagging`  | 
| Zeigen Sie eine S3 Storage Lens-Konfiguration mithilfe des AWS CLI oder eines AWS SDK an. |  `s3:GetStorageLensConfiguration`  | 
| Löschen Sie eine S3 Storage Lens-Konfiguration mithilfe des AWS SDK AWS CLI oder. |  `s3:DeleteStorageLensConfiguration`  | 

**Anmerkung**  
Sie können Ressourcen-Markierungen in einer IAM-Richtlinie verwenden, um Berechtigungen zu verwalten.
Ein IAM-Benutzer oder eine IAM-Rolle mit diesen Berechtigungen kann Metriken aus Buckets und Präfixen einsehen, für die der Benutzer bzw. die Rolle keine direkte Berechtigung zum Lesen oder Auflisten von Objekten hat.
Wenn bei S3-Storage-Lens-Dashboards mit aktivierten Metriken auf Präfixebene ein ausgewählter Präfixpfad mit einem Objektschlüssel übereinstimmt, zeigt das Dashboard den Objektschlüssel möglicherweise als anderes Präfix an.
Für Metrikexporte, die in einem Bucket in Ihrem Konto gespeichert werden, werden Berechtigungen mithilfe der bestehenden `s3:GetObject`-Berechtigung in der IAM-Richtlinie erteilt. In ähnlicher Weise können bei einer AWS Organizations Entität das Verwaltungskonto der Organisation oder delegierte Administratorkonten IAM-Richtlinien verwenden, um Zugriffsberechtigungen für Dashboards und Konfigurationen auf Organisationsebene zu verwalten.

## Festlegen von Kontoberechtigungen für die Verwendung von S3-Storage-Lens-Gruppen
<a name="storage_lens_groups_permissions"></a>

Mithilfe von S3-Storage-Lens-Gruppen können Sie die Speicherverteilung innerhalb von Buckets anhand von Präfix, Suffix, Objekt-Tag, Objektgröße oder Objektalter nachvollziehen. Sie können Storage-Lens-Gruppe an Dashboards anhängen, um ihre aggregierten Metriken anzuzeigen.

Für die Verwendung von Storage-Lens-Gruppen benötigen Sie bestimmte Berechtigungen. Weitere Informationen finden Sie unter [Berechtigungen für Storage-Lens-Gruppen](storage-lens-groups.md#storage-lens-group-permissions). 



## Einrichten von Berechtigungen für die Verwendung von S3 Storage Lens mit AWS Organizations
<a name="storage_lens_iam_permissions_organizations"></a>

Sie können Amazon S3 Storage Lens verwenden, um Speichermetriken und Nutzungsdaten für alle Konten zu sammeln, die Teil Ihrer AWS Organizations Hierarchie sind. Im der folgenden Tabelle finden Sie die Aktionen und Berechtigungen für die Verwendung von S3 Storage Lens mit Organizations.


| Action | IAM-Berechtigungen | 
| --- | --- | 
| Aktivieren des vertrauenswürdigen Zugriffs für S3 Storage Lens für Ihre Organisation. |  `organizations:EnableAWSServiceAccess`  | 
| Deaktivieren des vertrauenswürdigen Zugriffs für S3 Storage Lens für Ihre Organisation. |  `organizations:DisableAWSServiceAccess`  | 
| Registrieren eines delegierten Administrators für die Erstellung von S3-Storage-Lens-Dashboards oder -Konfigurationen für Ihre Organisation. |  `organizations:RegisterDelegatedAdministrator`  | 
| Abmelden eines delegierten Administrators, damit dieser keine S3 Storage Lens-Dashboards oder -Konfigurationen mehr für Ihre Organisation erstellen kann. |  `organizations:DeregisterDelegatedAdministrator`  | 
|  Zusätzliche Berechtigungen zum Erstellen von organisationsweiten S3-Storage-Lens-Konfigurationen  |  `organizations:DescribeOrganization` `organizations:ListAccounts` `organizations:ListAWSServiceAccessForOrganization` `organizations:ListDelegatedAdministrators` `iam:CreateServiceLinkedRole`  | 

# Arbeiten mit Amazon S3 Storage Lens unter Verwendung der Konsole und der API
<a name="S3LensExamples"></a>

Amazon S3 Storage Lens ist eine Cloud-Speicheranalysefunktion, mit der Sie unternehmensweite Einblicke in die Nutzung und Aktivität von Objektspeichern erhalten können. Sie können Metriken von S3 Storage Lens verwenden, um zusammenfassende Erkenntnisse zu gewinnen und z. B. herauszufinden, wie viel Speicher Sie in Ihrer gesamten Organisation haben oder welche Buckets und Präfixe am schnellsten wachsen. Außerdem können Sie anhand der Metriken von S3 Storage Lens umfassende Möglichkeiten zur Kostenoptimierung aufdecken, bewährte Methoden für den Datenschutz implementieren und die Leistung von Anwendungs-Workloads verbessern. Sie können beispielsweise Buckets identifizieren, für die keine S3-Lebenszyklusregeln gelten, damit unvollständige mehrteilige Uploads, die älter als 7 Tage sind, ablaufen. Sie können auch Buckets identifizieren, die nicht den bewährten Datenschutzmethoden entsprechen, z. B. die Verwendung von S3 Replication oder S3 Versionierung. S3 Storage Lens analysiert Metriken, um kontextbezogene Empfehlungen zur Optimierung der Speicherkosten und zur Anwendung bewährter Datenschutzmethoden zu geben. 

S3 Storage Lens aggregiert Ihre Metriken und zeigt die Informationen im Abschnitt **Konto-Snapshot** der Seite **Buckets** der Amazon-S3-Konsole an. S3 Storage Lens bietet auch ein interaktives Dashboard, mit dem Sie Erkenntnisse und Trends visualisieren, Ausreißer kennzeichnen und Empfehlungen zur Optimierung der Speicherkosten und zur Anwendung bewährter Datenschutzpraktiken erhalten können. Ihr Dashboard bietet Drilldown-Optionen zur Generierung und Visualisierung von Erkenntnissen auf Organisations-, Konto-, Speicherklassen- AWS-Region, Bucket-, Präfix- oder Storage Lens-Gruppenebene. Sie können auch einen täglichen Metrikbericht im CSV- oder Parquet Format an einen S3-Bucket für allgemeine Zwecke senden oder die Metriken direkt in einen AWS verwalteten S3-Tabellen-Bucket exportieren. 

**Anmerkung**  
Storage Lens aggregiert nur Metriken für [S3-Allzweck-Buckets](UsingBucket.md).

Dieser Abschnitt enthält Beispiele für das Erstellen, Aktualisieren und Anzeigen von S3-Storage-Lens-Konfigurationen und das Ausführen von funktionsbezogenen Vorgängen. Wenn Sie S3 Storage Lens mit verwenden AWS Organizations, decken diese Beispiele auch diese Anwendungsfälle ab. Ersetzen Sie in den Beispielen alle Platzhalterwerte.

**Topics**
+ [Erstellen eines Amazon-S3-Storage-Lens-Dashboards](storage_lens_creating_dashboard.md)
+ [Anzeigen eines Amazon-S3-Storage-Lens-Dashboards](storage_lens_editing.md)
+ [Deaktivieren eines Amazon-S3-Storage-Lens-Dashboards](storage_lens_disabling.md)
+ [Löschen eines Amazon-S3-Storage-Lens-Dashboards](storage_lens_deleting.md)
+ [Auflisten von Amazon-S3-Storage-Lens-Dashboards](storage_lens_list_dashboard.md)
+ [Ansehen von Konfigurationsdetails von Amazon-S3-Storage-Lens-Dashboards](storage_lens_viewing.md)
+ [Verwaltung von AWS Ressourcen-Tags mit S3 Storage Lens](storage-lens-groups-manage-tags-dashboard.md)
+ [Hilfsdateien für die Verwendung von Amazon S3 Storage Lens](S3LensHelperFilesCLI.md)

# Erstellen eines Amazon-S3-Storage-Lens-Dashboards
<a name="storage_lens_creating_dashboard"></a>

Sie können zusätzliche benutzerdefinierte S3 Storage Lens-Dashboards erstellen, die auf Ihr Unternehmen AWS Organizations oder auf bestimmte AWS-Regionen Bereiche innerhalb eines Kontos zugeschnitten werden können. 

**Anmerkung**  
Es kann bis zu 48 Stunden dauern, bis Änderungen an der Dashboard-Konfiguration genau angezeigt bzw. visualisiert werden.

## Verwenden der S3-Konsole
<a name="storage_lens_console_creating"></a>

Verwenden Sie die folgenden Schritte, um ein Amazon S3-Storage-Lens-Dashboard auf der Amazon S3-Konsole zu erstellen.

**Schritt 1: Konfigurieren Sie die allgemeinen Einstellungen**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie in der Navigationsleiste oben auf der Seite den Namen der aktuell angezeigten Datei aus AWS-Region. Wählen Sie dann die Region aus, zu der Sie wechseln möchten. 

1. Wählen Sie im linken Navigationsbereich unter **S3 Storage Lens** die Option **Dashboards** aus.

1. Klicken Sie auf **Create dashboard (Dashboard erstellen)**.

1. Führen Sie auf der Seite **Dashboard** im Abschnitt **Allgemein** die folgenden Schritte aus:

   1. Zeigen Sie die **Heimatregion** für Ihr Dashboard an. In der Heimatregion werden die AWS-Region Konfiguration und die Metriken für dieses Storage Lens-Dashboard gespeichert.

   1. Geben Sie einen Dashboard-Namen ein. 

      Dashboard-Namen müssen weniger als 65 Zeichen lang sein und dürfen keine Sonderzeichen oder Leerzeichen enthalten. 
**Anmerkung**  
Nach dem Erstellen des Dashboards kann der Name nicht mehr geändert werden.

   1. Wählen Sie **Aktiviert**, um aktualisierte Tagesmetriken in Ihrem Dashboard anzuzeigen.

   1. (Optional) Sie können wählen, ob Sie Ihrem Dashboard **Tags** hinzufügen möchten. Sie können Markierungen verwenden, um Berechtigungen für Ihr Dashboard zu verwalten und die Kosten für S3 Storage Lens nachzuverfolgen. Weitere Informationen finden Sie unter [Steuern des Zugriffs auf AWS Ressourcen mithilfe von Tags](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_tags.html) im *IAM-Benutzerhandbuch* und [Verwenden von AWS-generierten Tags](https://docs.aws.amazon.com/awsaccountbilling/latest/aboutv2/aws-tags.html) im *AWS Billing Benutzerhandbuch*.
**Anmerkung**  
Sie können Ihrer Dashboard-Konfiguration bis zu 50 Markierungen hinzufügen.

1. Wählen Sie **Weiter**, um Ihre Änderungen zu speichern und fortzufahren.

**Schritt 2: Definieren Sie den Umfang des Dashboards**

1. Wählen Sie im **Bereich Dashboard-Bereich** die Regionen und Buckets aus, die S3 Storage Lens im Dashboard ein- oder ausschließen soll.

1. Wählen Sie die Buckets in den ausgewählten Regionen aus, die S3 Storage Lens ein- oder ausschließen soll. Sie können Buckets entweder ein- oder ausschließen. Beides ist nicht möglich. Diese Option ist nicht verfügbar, wenn Sie Dashboards auf Organisationsebene erstellen.
**Anmerkung**  
Sie können Regionen und Buckets entweder ein- oder ausschließen. Diese Option ist nur auf Regionen beschränkt, wenn Sie Dashboards auf Organisationsebene für alle Mitgliedskonten in Ihrer Organisation erstellen. 
Sie können bis zu 50 Buckets auswählen, die Sie einschließen oder ausschließen möchten.

1. Wählen Sie **Weiter**, um Ihre Änderungen zu speichern und fortzufahren.

**Schritt 3: Wählen Sie Ihre Storage Lens-Stufe**

1. Wählen Sie im **Abschnitt Storage Lens-Stufe** die Funktionsstufe aus, die Sie für dieses Dashboard zusammenfassen möchten.

   1. Wählen Sie „Kostenloses **Kontingent**“, um kostenlose Messwerte einzubeziehen, die auf Bucket-Ebene aggregiert und 14 Tage lang für Abfragen verfügbar sind.

   1. Um erweiterte Metriken zu aktivieren, wählen Sie das **Kontingent „Erweitert**“. Zu diesen Optionen gehören die Aggregation von Präfix- oder Storage Lens-Gruppen, CloudWatch Amazon-Veröffentlichung, der erweiterte Präfixbericht und kontextuelle Empfehlungen. Daten stehen für Abfragen für 15 Monate zur Verfügung. Erweiterte Metriken und Empfehlungen sind mit zusätzlichen Kosten verbunden. Weitere Informationen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).

      Weitere Informationen zu erweiterten und zu kostenlosen Metriken finden Sie unter [Auswahl der Metriken](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

1. Wählen Sie unter **Erweiterte Metrikkategorien** die Metrikkategorie aus, die Sie aktivieren möchten:
   + **Metriken für Aktivitäten**
   + **Detailed status code metrics** (Detaillierte Statuscode-Metriken)
   + **Kennzahlen zur Kostenoptimierung**
   + **Kennzahlen zum Datenschutz**
   + **Leistungskennzahlen**

   Um eine Vorschau der Metriken anzuzeigen, die in den einzelnen Kategorien enthalten sind, verwenden Sie den Dropdown-Pfeil unter der Checkbox-Liste der Metrik-Kategorien. Weitere Informationen zu den Metrikkategorien finden Sie unter [Metrikkategorien](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_types). Eine vollständige Liste der Metriken finden Sie unter [Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md).

1. Wählen oder geben Sie ein **Präfix-Trennzeichen** an, um die Stufen innerhalb der einzelnen Präfixe voneinander zu unterscheiden. Mit diesem Wert werden die einzelnen Präfixebenen identifiziert. Der Standardwert in Amazon S3 ist das Zeichen "`/`", aber Ihre Speicherstruktur verwendet möglicherweise andere Trennzeichen.

1. Wählen Sie **Weiter**, um Ihre Änderungen zu speichern und fortzufahren.

**Schritt 4: (Optional) Wählen Sie Ihre Metrik-Aggregation**

1. Wählen Sie unter **Aggregation zusätzlicher Metriken** aus, welche Metriken Sie aggregieren möchten:
   + Präfixzusammenfassung
   + Aggregation von Storage-Lens-Gruppen

1. Wenn Sie die **Präfixaggregation** aktiviert haben, geben Sie den **Mindestpräfixschwellenwert** für Ihr Dashboard und die **Präfixtiefe** an. Wählen Sie dann **Weiter**, um zu speichern und fortzufahren.
**Anmerkung**  
Die Einstellung für die **Präfixtiefe** bestimmt, wie viele Hierarchieebenen S3 Storage Lens Ihre Objektpräfixe analysiert, wobei die maximale Grenze bei 10 Ebenen liegt. Der **Präfix-Schwellenwert** gibt den Mindestprozentsatz des Gesamtspeichers an, den ein Präfix repräsentieren muss, bevor es in die Storage Lens-Metriken aufgenommen wird.

1. Wenn Sie die **Storage Lens-Gruppenaggregation** aktiviert haben, wählen Sie eine der folgenden Optionen:
   + **Storage Lens-Gruppen einbeziehen**
   + **Schließen Sie Storage Lens-Gruppen aus**

1. Wenn Sie Storage Lens-Gruppen in Ihre Aggregation aufnehmen, können Sie entweder **alle Storage Lens-Gruppen in Ihrer Heimatregion einbeziehen** oder Storage Lens-Gruppen angeben, die eingeschlossen werden sollen.

1. Wählen Sie **Weiter**, um Ihre Änderungen zu speichern und fortzufahren.

**Schritt 5: (Optional) Wählen Sie Ihre Einstellungen für den Export und die Veröffentlichung von Kennzahlen**

1. Wählen Sie unter **Veröffentlichung von Metriken** die Option **CloudWatchVeröffentlichen** aus, wenn Sie in Ihrem CloudWatch Dashboard auf Ihre Storage Lens-Metriken zugreifen möchten.
**Anmerkung**  
Metriken auf Präfix-Ebene sind in nicht verfügbar. CloudWatch

1. Wählen Sie unter **Metrikexport** aus, welche Storage Lens-Dashboard-Daten Sie täglich exportieren möchten:
   + **Standardbericht über Metriken**
   + **Erweiterter Bericht über Präfix-Metriken**

1. (Optional) Wenn Sie den **Standardmetrikbericht** ausgewählt haben, wählen Sie in den Einstellungen für den **Standardmetrikbericht** den Bucket-Typ aus. Sie können den Bericht entweder in einen Amazon S3 S3-Bucket für allgemeine Zwecke oder in einen AWS verwalteten S3-Tabellen-Bucket exportieren. Aktualisieren Sie je nach ausgewähltem Bucket-Typ die Zieleinstellungen für **Allzweck-Buckets oder Zieleinstellungen** für **Table-Buckets**.
**Anmerkung**  
Der **Standardmetrikbericht** enthält nur Präfixe innerhalb des in den Präfixaggregationseinstellungen festgelegten Schwellenwerts und der Tiefe.  
Wenn Sie einen Verschlüsselungsschlüssel angeben möchten, müssen Sie einen AWS KMS Schlüssel (SSE-KMS) oder einen von Amazon S3 verwalteten Schlüssel (SSE-S3) wählen. Wenn Ihre Ziel-Bucket-Richtlinie eine Verschlüsselung erfordert, müssen Sie einen Verschlüsselungsschlüssel für Ihren Metrikexport angeben. Ohne den Verschlüsselungsschlüssel schlägt der Export nach S3 fehl. Weitere Informationen finden Sie unter [Verwenden Sie eine AWS KMS key , um Ihre Metrikexporte zu verschlüsseln](storage_lens_encrypt_permissions.md).

1. (Optional) Wenn Sie den **Bericht mit erweiterten Präfix-Metriken** ausgewählt haben, wählen Sie in den Einstellungen für den **Bericht mit erweiterten Präfixen** den Bucket-Typ aus. Sie können den Bericht entweder in einen Amazon S3 S3-Bucket für allgemeine Zwecke oder in einen schreibgeschützten S3-Tabellen-Bucket exportieren. Aktualisieren Sie je nach ausgewähltem Bucket-Typ die Zieleinstellungen für **Allzweck-Buckets oder **Table-Bucket-Zieleinstellungen****.
**Anmerkung**  
Der **Bericht mit den Metriken für erweiterte Präfixe** enthält alle Präfixe bis zur Präfixtiefe 50 in allen ausgewählten Bereichen, die in Ihrem Dashboard-Bereich angegeben sind.  
Wenn Sie einen Verschlüsselungsschlüssel angeben möchten, müssen Sie einen AWS KMS Schlüssel (SSE-KMS) oder einen von Amazon S3 verwalteten Schlüssel (SSE-S3) wählen. Wenn Ihre Ziel-Bucket-Richtlinie eine Verschlüsselung erfordert, müssen Sie einen Verschlüsselungsschlüssel für Ihren Metrikexport angeben. Ohne den Verschlüsselungsschlüssel schlägt der Export nach S3 fehl. Weitere Informationen finden Sie unter [Verwenden Sie eine AWS KMS key , um Ihre Metrikexporte zu verschlüsseln](storage_lens_encrypt_permissions.md).

1. Wählen Sie **Weiter**, um Ihre Änderungen zu speichern und fortzufahren.

1. Überprüfe alles auf der Seite **„Überprüfen und erstellen**“. Wenn es keine weiteren Änderungen gibt, wählen Sie **Weiter**, um Ihre Änderungen zu speichern und Ihr Dashboard zu erstellen.

**Schritt 6: Überprüfen Sie Ihre Dashboard-Konfiguration und erstellen Sie Ihr Dashboard**

1. Überprüfen Sie im Bereich **Allgemein** Ihre Einstellungen. Wählen Sie **Bearbeiten**, um Änderungen vorzunehmen.

1. Überprüfen Sie im Bereich **Dashboard-Umfang** Ihre Einstellungen. Wählen Sie **Bearbeiten**, um Änderungen vorzunehmen.

1. Überprüfen Sie im Bereich **Storage Lens Tier** Ihre Einstellungen. Wählen Sie **Bearbeiten**, um Änderungen vorzunehmen.

1. Überprüfen Sie im Abschnitt **Metrik-Aggregation** Ihre Einstellungen. Wählen Sie **Bearbeiten**, um Änderungen vorzunehmen.

1. Überprüfen Sie im Abschnitt **Metrikexport** Ihre Einstellungen. Wählen Sie **Bearbeiten**, um Änderungen vorzunehmen.

1. Nachdem Sie alle Ihre Dashboard-Konfigurationseinstellungen überprüft und bestätigt haben, wählen Sie **Senden**, um Ihr Dashboard zu erstellen.

Nachdem Sie Ihr neues Storage Lens-Dashboard erfolgreich erstellt haben, können Sie Ihr neues Dashboard auf Ihrer Storage **Lens-Dashboard-Seite** einsehen.

## Verwenden Sie AWS CLI
<a name="S3PutStorageLensConfigurationTagsCLI"></a>

**Example**  
Der folgende Beispielbefehl erstellt eine Amazon-S3-Storage-Lens-Konfiguration mit Tags. Wenn Sie diese Beispiele verwenden möchten, ersetzen Sie die `user input placeholders` durch Ihre Informationen.  

```
aws s3control put-storage-lens-configuration --account-id=111122223333 --config-id=example-dashboard-configuration-id --region=us-east-1 --storage-lens-configuration=file://./config.json --tags=file://./tags.json
```

**Example**  
Der folgende Beispielbefehl erstellt eine Amazon-S3-Storage-Lens-Konfiguration ohne Tags. Wenn Sie diese Beispiele verwenden möchten, ersetzen Sie die `user input placeholders` durch Ihre Informationen.  

```
aws s3control put-storage-lens-configuration --account-id=222222222222 --config-id=your-configuration-id --region=us-east-1 --storage-lens-configuration=file://./config.json
```

## Verwenden des AWS SDK for Java
<a name="S3CreateandUpdateStorageLensConfigurationJava"></a>

**Example – Erstellen und Aktualisieren einer Konfiguration für Amazon S3 Storage Lens**  
Das folgende Beispiel erstellt und aktualisiert eine Konfiguration für Amazon S3 Storage Lens im SDK für Java:  

```
package aws.example.s3control;

import software.amazon.awssdk.awscore.exception.AwsServiceException;
import software.amazon.awssdk.core.exception.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.AccountLevel;
import software.amazon.awssdk.services.s3control.model.ActivityMetrics;
import software.amazon.awssdk.services.s3control.model.AdvancedCostOptimizationMetrics;
import software.amazon.awssdk.services.s3control.model.AdvancedDataProtectionMetrics;
import software.amazon.awssdk.services.s3control.model.AdvancedPerformanceMetrics;
import software.amazon.awssdk.services.s3control.model.BucketLevel;
import software.amazon.awssdk.services.s3control.model.CloudWatchMetrics;
import software.amazon.awssdk.services.s3control.model.DetailedStatusCodesMetrics;
import software.amazon.awssdk.services.s3control.model.Format;
import software.amazon.awssdk.services.s3control.model.Include;
import software.amazon.awssdk.services.s3control.model.OutputSchemaVersion;
import software.amazon.awssdk.services.s3control.model.PrefixLevel;
import software.amazon.awssdk.services.s3control.model.PrefixLevelStorageMetrics;
import software.amazon.awssdk.services.s3control.model.PutStorageLensConfigurationRequest;
import software.amazon.awssdk.services.s3control.model.S3BucketDestination;
import software.amazon.awssdk.services.s3control.model.SSES3;
import software.amazon.awssdk.services.s3control.model.SelectionCriteria;
import software.amazon.awssdk.services.s3control.model.StorageLensAwsOrg;
import software.amazon.awssdk.services.s3control.model.StorageLensConfiguration;
import software.amazon.awssdk.services.s3control.model.StorageLensDataExport;
import software.amazon.awssdk.services.s3control.model.StorageLensDataExportEncryption;
import software.amazon.awssdk.services.s3control.model.StorageLensExpandedPrefixesDataExport;
import software.amazon.awssdk.services.s3control.model.StorageLensTableDestination;
import software.amazon.awssdk.services.s3control.model.StorageLensTag;

import java.util.Arrays;
import java.util.List;

public class CreateAndUpdateDashboard {

    public static void main(String[] args) {
        String configurationId = "ConfigurationId";
        String sourceAccountId = "111122223333";
        String exportAccountId = "Destination Account ID";
        String exportBucketArn = "arn:aws:s3:::destBucketName"; // The destination bucket for your metrics export must be in the same Region as your S3 Storage Lens configuration.
        String awsOrgARN = "arn:aws:organizations::123456789012:organization/o-abcdefgh";
        Format exportFormat = Format.CSV;

        try {
            SelectionCriteria selectionCriteria = SelectionCriteria.builder()
                    .delimiter("/")
                    .maxDepth(5)
                    .minStorageBytesPercentage(10.0)
                    .build();

            PrefixLevelStorageMetrics prefixStorageMetrics = PrefixLevelStorageMetrics.builder()
                    .isEnabled(true)
                    .selectionCriteria(selectionCriteria)
                    .build();

            BucketLevel bucketLevel = BucketLevel.builder()
                    .activityMetrics(ActivityMetrics.builder().isEnabled(true).build())
                    .advancedCostOptimizationMetrics(AdvancedCostOptimizationMetrics.builder().isEnabled(true).build())
                    .advancedDataProtectionMetrics(AdvancedDataProtectionMetrics.builder().isEnabled(true).build())
                    .advancedPerformanceMetrics(AdvancedPerformanceMetrics.builder().isEnabled(true).build())
                    .detailedStatusCodesMetrics(DetailedStatusCodesMetrics.builder().isEnabled(true).build())
                    .prefixLevel(PrefixLevel.builder().storageMetrics(prefixStorageMetrics).build())
                    .build();

            AccountLevel accountLevel = AccountLevel.builder()
                    .activityMetrics(ActivityMetrics.builder().isEnabled(true).build())
                    .advancedCostOptimizationMetrics(AdvancedCostOptimizationMetrics.builder().isEnabled(true).build())
                    .advancedPerformanceMetrics(AdvancedPerformanceMetrics.builder().isEnabled(true).build())
                    .advancedDataProtectionMetrics(AdvancedDataProtectionMetrics.builder().isEnabled(true).build())
                    .detailedStatusCodesMetrics(DetailedStatusCodesMetrics.builder().isEnabled(true).build())
                    .bucketLevel(bucketLevel)
                    .build();

            Include include = Include.builder()
                    .buckets(Arrays.asList("arn:aws:s3:::bucketName"))
                    .regions(Arrays.asList("us-west-2"))
                    .build();

            StorageLensDataExportEncryption exportEncryption = StorageLensDataExportEncryption.builder()
                    .sses3(SSES3.builder().build())
                    .build();

            S3BucketDestination s3BucketDestination = S3BucketDestination.builder()
                    .accountId(exportAccountId)
                    .arn(exportBucketArn)
                    .encryption(exportEncryption)
                    .format(exportFormat)
                    .outputSchemaVersion(OutputSchemaVersion.V_1)
                    .prefix("Prefix")
                    .build();

            StorageLensTableDestination s3TablesDestination = StorageLensTableDestination.builder()
                    .encryption(exportEncryption)
                    .isEnabled(true)
                    .build();

            CloudWatchMetrics cloudWatchMetrics = CloudWatchMetrics.builder()
                    .isEnabled(true)
                    .build();

            StorageLensDataExport dataExport = StorageLensDataExport.builder()
                    .cloudWatchMetrics(cloudWatchMetrics)
                    .s3BucketDestination(s3BucketDestination)
                    .storageLensTableDestination(s3TablesDestination)
                    .build();

            StorageLensAwsOrg awsOrg = StorageLensAwsOrg.builder()
                    .arn(awsOrgARN)
                    .build();

            StorageLensExpandedPrefixesDataExport expandedPrefixesDataExport = StorageLensExpandedPrefixesDataExport.builder()
                    .s3BucketDestination(s3BucketDestination)
                    .storageLensTableDestination(s3TablesDestination)
                    .build();

            StorageLensConfiguration configuration = StorageLensConfiguration.builder()
                    .id(configurationId)
                    .accountLevel(accountLevel)
                    .include(include)
                    .dataExport(dataExport)
                    .awsOrg(awsOrg)
                    .expandedPrefixesDataExport(expandedPrefixesDataExport)
                    .prefixDelimiter("/")
                    .isEnabled(true)
                    .build();

            List<StorageLensTag> tags = Arrays.asList(
                    StorageLensTag.builder().key("key-1").value("value-1").build(),
                    StorageLensTag.builder().key("key-2").value("value-2").build()
            );

            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();

            s3ControlClient.putStorageLensConfiguration(PutStorageLensConfigurationRequest.builder()
                    .accountId(sourceAccountId)
                    .configId(configurationId)
                    .storageLensConfiguration(configuration)
                    .tags(tags)
                    .build()
            );

        } catch (AwsServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

Für den Zugriff auf S3 Storage Lens-Gruppen oder erweiterte Präfixe müssen Sie Ihr Dashboard aktualisieren, um die erweiterte Stufe zu verwenden. Es fallen zusätzliche Gebühren an. Weitere Informationen zu den Tarifen „Kostenlos“ und „Erweitert“ finden Sie unter[Auswahl der Metriken](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection). Weitere Informationen zur Verwendung von S3-Storage-Lens-Gruppen finden Sie unter [Arbeiten mit S3-Storage-Lens-Gruppen zum Filtern und Aggregieren von Metriken](storage-lens-groups-overview.md). 

# Anzeigen eines Amazon-S3-Storage-Lens-Dashboards
<a name="storage_lens_editing"></a>

 Das Standard-Dashboard von Amazon S3 Storage Lens ist `default-account-dashboard`. Dieses Dashboard ist von Amazon S3 vorkonfiguriert, damit Sie zusammengefasste Erkenntnisse und Trends der aggregierten kostenlosen und erweiterten Metriken Ihres gesamten Kontos in der Konsole visualisieren können. Sie können den Konfigurationsbereich des Standard-Dashboards nicht ändern, können aber die Metrikauswahl von den kostenlosen Metriken auf die kostenpflichtigen erweiterten Metriken und Empfehlungen upgraden, den optionalen Metrikexport konfigurieren oder sogar das Standard-Dashboard deaktivieren. Das Standard-Dashboard kann nicht gelöscht, sondern nur deaktiviert werden. Weitere Informationen finden Sie unter [Verwenden der S3-Konsole](storage_lens_console_deleting.md).

## Verwenden der S3-Konsole
<a name="storage_lens_console_editing"></a>

Verwenden Sie die folgenden Schritte, um ein Amazon S3-Storage-Lens-Dashboard auf der Amazon S3-Konsole zu aktualisieren.

**Schritt 1: Aktualisieren Sie Ihr Dashboard und konfigurieren Sie Ihre allgemeinen Einstellungen**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens, Dashboards** aus.

1. Wählen Sie das Dashboard aus, das Sie bearbeiten möchten.

1. Wählen Sie **Dashboard-Konfigurationen anzeigen** aus.

1. Wählen Sie **Bearbeiten** aus. Sie können die Dashboard-Konfiguration nun Schritt für Schritt überprüfen. Um Änderungen an einem der Schritte vorzunehmen, können Sie über die linke Navigationsleiste direkt auf den Schritt klicken. Anweisungen zur Aktualisierung dieser Schritte finden Sie unter
**Anmerkung**  
Folgendes können Sie nicht ändern:  
Den Dashboard-Namen
Die Heimatregion

1. Auf der **Dashboard-Seite** können Sie im Abschnitt **Allgemein** folgende Änderungen vornehmen:
   + Wählen Sie **Aktiviert** oder **Deaktiviert**, um in Ihrem Dashboard zu aktualisieren, ob Sie tägliche Messwerte erhalten.
   + (Optional) Sie können wählen, ob Sie Ihrem Dashboard **Tags** hinzufügen möchten. Sie können Markierungen verwenden, um Berechtigungen für Ihr Dashboard zu verwalten und die Kosten für S3 Storage Lens nachzuverfolgen. Weitere Informationen finden Sie unter [Steuern des Zugriffs auf AWS Ressourcen mithilfe von Tags](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_tags.html) im *IAM-Benutzerhandbuch* und [Verwenden von AWS-generierten Tags](https://docs.aws.amazon.com/awsaccountbilling/latest/aboutv2/aws-tags.html) im *AWS Billing Benutzerhandbuch*.
**Anmerkung**  
Sie können Ihrer Dashboard-Konfiguration bis zu 50 Markierungen hinzufügen.

1. Wählen Sie **Weiter**, um Ihre Änderungen zu speichern und fortzufahren.

**Schritt 2: Aktualisieren Sie den Umfang des Dashboards**

1. Aktualisieren Sie im **Bereich Dashboard-Bereich** die Regionen und Buckets, die S3 Storage Lens im Dashboard ein- oder ausschließen soll.
**Anmerkung**  
Sie können Regionen und Buckets entweder ein- oder ausschließen. Diese Option ist nur auf Regionen beschränkt, wenn Sie Dashboards auf Organisationsebene für alle Mitgliedskonten in Ihrer Organisation erstellen. 
Sie können bis zu 50 Buckets auswählen, die Sie einschließen oder ausschließen möchten.

1. Wählen Sie die Buckets in den ausgewählten Regionen aus, die S3 Storage Lens ein- oder ausschließen soll. Sie können Buckets entweder ein- oder ausschließen. Beides ist nicht möglich. Diese Option ist nicht verfügbar, wenn Sie Dashboards auf Organisationsebene erstellen.
**Anmerkung**  
Sie können Regionen und Buckets entweder ein- oder ausschließen. Diese Option ist nur auf Regionen beschränkt, wenn Sie Dashboards auf Organisationsebene für alle Mitgliedskonten in Ihrer Organisation erstellen.
Sie können bis zu 50 Buckets auswählen, die Sie einschließen oder ausschließen möchten.

1. Wählen Sie **Weiter**, um Ihre Änderungen zu speichern und fortzufahren.

**Schritt 3: Aktualisieren Sie Ihre Storage Lens-Stufe Konfigurieren Sie die Metrikauswahl**

1. Aktualisieren Sie im Abschnitt **Auswahl der Kennzahlen** für die **Storage Lens-Stufe** die Ebene der Metriken, die Sie für dieses Dashboard zusammenfassen möchten.
**Anmerkung**  
Wenn Sie vom Tarif „**Kostenlos“ auf den Tarif** „**Erweitert“ umsteigen**, müssen Sie Ihre **Aggregationseinstellungen für Metrics** aktualisieren. Informationen zum Aktualisieren Ihrer **Einstellungen für die Metrik-Aggregation** finden Sie unter **Schritt 4: Aktualisieren Sie Ihre Metrik-Aggregation**.
Wenn Sie Ihr Storage Lens-Tarif vom **Advanced-Tarif** auf das **kostenlose Kontingent** aktualisieren, müssen Sie keine **Metric-Aggregationseinstellungen** aktualisieren. Die Funktion zur **Aggregation von Metriken** gilt nur für Metrikkategorien des **Advanced-Tarifs**.

1. **Wählen Sie „Kostenloses Kontingent“, um kostenlose Messwerte einzubeziehen, die auf Bucket-Ebene aggregiert wurden und 14 Tage lang für Abfragen verfügbar sind.**

1. Um erweiterte Metriken zu aktivieren, wählen Sie das **Kontingent „Erweitert**“. Zu diesen Optionen gehören Präfixaggregation, CloudWatch Amazon-Veröffentlichung und kontextuelle Empfehlungen. Daten stehen für Abfragen für 15 Monate zur Verfügung. Erweiterte Metriken und Empfehlungen sind mit zusätzlichen Kosten verbunden. Weitere Informationen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).

   Weitere Informationen zu erweiterten und zu kostenlosen Metriken finden Sie unter [Auswahl der Metriken](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

1. Wählen Sie unter **Erweiterte Metrikkategorien** die Metrikkategorie aus, die Sie aktivieren möchten:
   + **Metriken für Aktivitäten**
   + **Detailed status code metrics** (Detaillierte Statuscode-Metriken)
   + **Kennzahlen zur Kostenoptimierung**
   + **Kennzahlen zum Datenschutz**
   + **Leistungskennzahlen**

   Um eine Vorschau der Metriken anzuzeigen, die in den einzelnen Kategorien enthalten sind, verwenden Sie den Dropdown-Pfeil unter der Checkbox-Liste der Metrik-Kategorien. Weitere Informationen zu den Metrikkategorien finden Sie unter [Metrikkategorien](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_types). Eine vollständige Liste der Metriken finden Sie unter [Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md).

1. Wählen oder geben Sie ein **Präfix-Trennzeichen** an, um die Stufen innerhalb der einzelnen Präfixe voneinander zu unterscheiden. Mit diesem Wert werden die einzelnen Präfixebenen identifiziert. Der Standardwert in Amazon S3 ist das Zeichen "`/`", aber Ihre Speicherstruktur verwendet möglicherweise andere Trennzeichen.

1. Wählen Sie **Weiter**, um Ihre Änderungen zu speichern und fortzufahren.

**Schritt 4: (Optional) Aktualisieren Sie Ihre Metrikaggregation**

1. Aktualisieren Sie unter **Aggregation zusätzlicher Metriken**, welche Metriken Sie aggregieren möchten, indem Sie eine der folgenden Optionen auswählen:
   + Präfixzusammenfassung
   + Aggregation von Storage-Lens-Gruppen

1. Wenn Sie die **Präfixaggregation** aktiviert haben, geben Sie den **Präfix-Mindestschwellenwert** für Ihr Dashboard und die **Präfixtiefe** an. Wählen Sie dann **Weiter**, um zu speichern und fortzufahren.

1. Wenn Sie die **Storage Lens-Gruppenaggregation** aktiviert haben, wählen Sie eine der folgenden Optionen:
   + **Storage Lens-Gruppen einbeziehen**
   + **Schließen Sie Storage Lens-Gruppen aus**

1. Wenn Sie Storage Lens-Gruppen in Ihre Aggregation aufnehmen, können Sie entweder **alle Storage Lens-Gruppen in Ihrer Heimatregion einbeziehen** oder Storage Lens-Gruppen angeben, die eingeschlossen werden sollen.

1. Wählen Sie **Weiter**, um Ihre Änderungen zu speichern und fortzufahren.

**Schritt 5: (Optional) Aktualisieren Sie Ihre Einstellungen für den Export und die Veröffentlichung von Kennzahlen**

1. Wählen Sie unter **Veröffentlichung von Metriken** die Option **CloudWatchVeröffentlichen** aus, wenn Sie in Ihrem CloudWatch Dashboard auf Ihre Storage Lens-Metriken zugreifen möchten.
**Anmerkung**  
Metriken auf Präfix-Ebene sind in nicht verfügbar. CloudWatch

1. Wählen Sie unter **Metrikexport** aus, welche Storage Lens-Dashboard-Daten Sie täglich exportieren möchten:
   + **Standardbericht über Metriken**
   + **Erweiterter Bericht über Präfix-Metriken**

1. (Optional) Wenn Sie den **Standardmetrikbericht** ausgewählt haben, wählen Sie in den Einstellungen für den **Standardmetrikbericht** den Bucket-Typ aus. Sie können den Bericht entweder in einen S3-Bucket für allgemeine Zwecke oder in einen schreibgeschützten S3-Tabellen-Bucket exportieren. Aktualisieren Sie je nach ausgewähltem Bucket-Typ die Zieleinstellungen für den **Allzweck-Bucket oder die Zieleinstellungen** für den **Tabellen-Bucket**.
**Anmerkung**  
Der **Standardmetrikbericht** enthält nur Präfixe innerhalb des in den Präfixaggregationseinstellungen festgelegten Schwellenwerts und der Tiefe. Wenn Ihre Präfixaggregation noch nicht konfiguriert ist, umfasst der Schwellenwert bis zu 100 der größten Präfixe nach Größe.
Wenn Sie einen Verschlüsselungsschlüssel angeben möchten, müssen Sie einen AWS KMS Schlüssel (SSE-KMS) oder einen von Amazon S3 verwalteten Schlüssel (SSE-S3) wählen. Wenn Ihre Ziel-Bucket-Richtlinie eine Verschlüsselung erfordert, müssen Sie einen Verschlüsselungsschlüssel für Ihren Metrikexport angeben. Ohne den Verschlüsselungsschlüssel schlägt der Export nach S3 fehl. Weitere Informationen finden Sie unter [Verwenden Sie eine AWS KMS key , um Ihre Metrikexporte zu verschlüsseln](storage_lens_encrypt_permissions.md).

1. Wählen Sie **Weiter**, um Ihre Änderungen zu speichern und fortzufahren.

1. (Optional) Wenn Sie den **Bericht mit erweiterten Präfix-Metriken** ausgewählt haben, wählen Sie in den Einstellungen für den **Bericht mit erweiterten Präfixen** den Bucket-Typ aus. Sie können den Bericht entweder in einen S3-Bucket für allgemeine Zwecke oder in einen schreibgeschützten S3-Tabellen-Bucket exportieren. Aktualisieren Sie je nach ausgewähltem Bucket-Typ die Zieleinstellungen für den **Allzweck-Bucket oder die Zieleinstellungen** für den **Tabellen-Bucket**.
**Anmerkung**  
Der **Bericht mit den Metriken für erweiterte Präfixe** enthält Präfixe in allen Buckets, die in Ihrem Dashboard-Bereich angegeben sind.
Wenn Sie einen Verschlüsselungsschlüssel angeben möchten, müssen Sie einen AWS KMS Schlüssel (SSE-KMS) oder einen von Amazon S3 verwalteten Schlüssel (SSE-S3) wählen. Wenn Ihre Ziel-Bucket-Richtlinie eine Verschlüsselung erfordert, müssen Sie einen Verschlüsselungsschlüssel für Ihren Metrikexport angeben. Ohne den Verschlüsselungsschlüssel schlägt der Export nach S3 fehl. Weitere Informationen finden Sie unter [Verwenden Sie eine AWS KMS key , um Ihre Metrikexporte zu verschlüsseln](storage_lens_encrypt_permissions.md).

1. Wählen Sie **Weiter**, um Ihre Änderungen zu speichern und fortzufahren.

**Schritt 6: Überprüfen und aktualisieren Sie Ihre Dashboard-Konfiguration**

1. Überprüfen Sie im Bereich **Allgemein** Ihre Einstellungen. Wählen Sie **Bearbeiten**, um Änderungen vorzunehmen.

1. Überprüfen Sie im Bereich **Dashboard-Umfang** Ihre Einstellungen. Wählen Sie **Bearbeiten**, um Änderungen vorzunehmen.

1. Überprüfen Sie im Bereich **Storage Lens Tier** Ihre Einstellungen. Wählen Sie **Bearbeiten**, um Änderungen vorzunehmen.

1. Überprüfen Sie im Abschnitt **Metrik-Aggregation** Ihre Einstellungen. Wählen Sie **Bearbeiten**, um Änderungen vorzunehmen.

1. Überprüfen Sie im Abschnitt **Metrikexport** Ihre Einstellungen. Wählen Sie **Bearbeiten**, um Änderungen vorzunehmen.

1. Nachdem Sie alle Ihre Dashboard-Konfigurationseinstellungen überprüft und bestätigt haben, wählen Sie **Senden**, um Ihr Dashboard zu aktualisieren.

Nachdem Sie Ihr neues Storage Lens-Dashboard erfolgreich aktualisiert haben, können Sie Ihre aktualisierte Dashboard-Konfiguration auf Ihrer Storage **Lens-Dashboard-Seite** einsehen.

## Verwenden Sie AWS CLI
<a name="S3PutStorageLensConfigurationTagsCLI"></a>

**Example**  
Der folgende Beispielbefehl aktualisiert eine Konfiguration des Amazon-S3-Storage-Lens-Dashboards. Wenn Sie diese Beispiele verwenden möchten, ersetzen Sie die `user input placeholders` durch Ihre Informationen.  

```
aws s3control put-storage-lens-configuration --account-id=111122223333 --config-id=example-dashboard-configuration-id --region=us-east-1 --storage-lens-configuration=file://./config.json --tags=file://./tags.json
```

## Verwenden des AWS SDK for Java
<a name="S3UpdateStorageLensConfigurationAdvancedJava"></a>

**Example – Aktualisieren einer Konfiguration von Amazon S3 Storage Lens mit erweiterten Metriken und Empfehlungen**  
In den folgenden Beispielen wird gezeigt, wie Sie die Standardkonfiguration von S3 Storage Lens mit erweiterten Metriken und Empfehlungen im SDK für Java aktualisieren.  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.AccountLevel;
import com.amazonaws.services.s3control.model.ActivityMetrics;
import com.amazonaws.services.s3control.model.BucketLevel;
import com.amazonaws.services.s3control.model.Format;
import com.amazonaws.services.s3control.model.Include;
import com.amazonaws.services.s3control.model.OutputSchemaVersion;
import com.amazonaws.services.s3control.model.PrefixLevel;
import com.amazonaws.services.s3control.model.PrefixLevelStorageMetrics;
import com.amazonaws.services.s3control.model.PutStorageLensConfigurationRequest;
import com.amazonaws.services.s3control.model.S3BucketDestination;
import com.amazonaws.services.s3control.model.SSES3;
import com.amazonaws.services.s3control.model.SelectionCriteria;
import com.amazonaws.services.s3control.model.StorageLensAwsOrg;
import com.amazonaws.services.s3control.model.StorageLensConfiguration;
import com.amazonaws.services.s3control.model.StorageLensDataExport;
import com.amazonaws.services.s3control.model.StorageLensDataExportEncryption;
import com.amazonaws.services.s3control.model.StorageLensTag;

import java.util.Arrays;
import java.util.List;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class UpdateDefaultConfigWithPaidFeatures {

    public static void main(String[] args) {
        String configurationId = "default-account-dashboard"; // This configuration ID cannot be modified.
        String sourceAccountId = "111122223333";

        try {
            SelectionCriteria selectionCriteria = new SelectionCriteria()
                    .withDelimiter("/")
                    .withMaxDepth(5)
                    .withMinStorageBytesPercentage(10.0);
            PrefixLevelStorageMetrics prefixStorageMetrics = new PrefixLevelStorageMetrics()
                    .withIsEnabled(true)
                    .withSelectionCriteria(selectionCriteria);
            BucketLevel bucketLevel = new BucketLevel()
                    .withActivityMetrics(new ActivityMetrics().withIsEnabled(true))
                    .withPrefixLevel(new PrefixLevel().withStorageMetrics(prefixStorageMetrics));
            AccountLevel accountLevel = new AccountLevel()
                    .withActivityMetrics(new ActivityMetrics().withIsEnabled(true))
                    .withBucketLevel(bucketLevel);

            StorageLensConfiguration configuration = new StorageLensConfiguration()
                    .withId(configurationId)
                    .withAccountLevel(accountLevel)
                    .withIsEnabled(true);

            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            s3ControlClient.putStorageLensConfiguration(new PutStorageLensConfigurationRequest()
                    .withAccountId(sourceAccountId)
                    .withConfigId(configurationId)
                    .withStorageLensConfiguration(configuration)
            );

        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

Für den Zugriff auf S3 Storage Lens-Gruppen oder erweiterte Präfixe müssen Sie Ihr Dashboard aktualisieren, um die erweiterte Stufe zu verwenden. Es fallen zusätzliche Gebühren an. Weitere Informationen zu den Tarifen „Kostenlos“ und „Erweitert“ finden Sie unter[Auswahl der Metriken](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection). Weitere Informationen zur Verwendung von S3-Storage-Lens-Gruppen finden Sie unter [Arbeiten mit S3-Storage-Lens-Gruppen zum Filtern und Aggregieren von Metriken](storage-lens-groups-overview.md). 

# Deaktivieren eines Amazon-S3-Storage-Lens-Dashboards
<a name="storage_lens_disabling"></a>

Sie können ein Amazon S3-Storage-Lens-Dashboard in der Amazon-S3-Konsole deaktivieren. Durch das Deaktivieren eines Dashboards wird verhindert, dass es weitere Metriken generiert. Ein deaktiviertes Dashboard behält seine Konfigurationsinformationen, sodass es bei erneuter Aktivierung einfach wieder genutzt werden kann. Ein deaktiviertes Dashboard behält seine Verlaufsdaten bei, bis es nicht mehr für Abfragen verfügbar ist.

# Verwenden der S3-Konsole
<a name="storage_lens_console_disabling"></a>

Verwenden Sie die folgenden Schritte, um ein Amazon-S3-Storage-Lens-Dashboard in der Amazon-S3-Konsole zu deaktivieren.

**So deaktivieren Sie ein Amazon-S3-Storage-Lens-Dashboard**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie in der Liste **Dashboards** das Dashboard aus, das Sie deaktivieren möchten, und gehen Sie dann oben in der Liste auf **Deaktivieren**.

1. Bestätigen Sie auf der Bestätigungsseite, dass Sie das Dashboard deaktivieren möchten, indem Sie den Namen des Dashboards in das Textfeld eingeben und dann **Bestätigen** auswählen.

# Löschen eines Amazon-S3-Storage-Lens-Dashboards
<a name="storage_lens_deleting"></a>

Das Standard-Dashboard können Sie nicht löschen. Eine Deaktivierung ist jedoch möglich. Bevor Sie ein selbst erstelltes Dashboard löschen, sollten Sie Folgendes beachten:
+ Als Alternative zum Löschen können Sie das Dashboard *deaktivieren*, damit es in Zukunft wieder aktiviert werden kann. Weitere Informationen finden Sie unter [Verwenden der S3-Konsole](storage_lens_console_disabling.md).
+ Durch das Löschen eines Dashboards werden alle damit verbundenen Konfigurationseinstellungen gelöscht.
+ Sobald Sie ein Dashboard löschen, können die historischen Metrikdaten nicht mehr abgerufen werden. Diese historischen Daten werden weiterhin für eine Dauer von 15 Monaten aufbewahrt. Wenn Sie wieder auf diese Daten zugreifen möchten, müssen Sie ein neues Dashboard mit dem gleichen Namen erstellen, dass sich in derselben Heimatregion befindet wie das gelöschte Dashboard. 

# Verwenden der S3-Konsole
<a name="storage_lens_console_deleting"></a>

Sie können ein Amazon-S3-Storage-Lens-Dashboard in der Amazon-S3-Konsole löschen. Durch das Löschen eines Dashboards wird jedoch verhindert, dass es weitere Metriken generiert.

**Löschen eines Amazon S3-Storage-Lens-Dashboards**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie in der Liste **Dashboards** das Dashboard aus, das Sie löschen möchten, und gehen Sie dann oben in der Liste auf **Löschen**.

1. Bestätigen Sie auf der Seite **Dashboards löschen**, dass Sie das Dashboard löschen möchten, indem Sie den Namen des Dashboards in das Textfeld eingeben. Wählen Sie dann **Confirm** (Bestätigen) aus. 

# Verwenden Sie den AWS CLI
<a name="storage_lens_cli_deleting"></a>

**Example**  
 Das folgende Beispiel löscht eine S3-Storage-Lens-Konfiguration. Wenn Sie diese Beispiele verwenden möchten, ersetzen Sie die `user input placeholders` durch Ihre Informationen.  

```
aws s3control delete-storage-lens-configuration --account-id=222222222222 --region=us-east-1 --config-id=your-configuration-id
```

## Verwenden des AWS SDK for Java
<a name="S3DeleteStorageLensConfigurationJava"></a>

**Example – Löschen der Konfiguration eines Amazon-S3-Storage-Lens-Dashboards**  
Das folgende Beispiel zeigt, wie Sie eine S3-Storage-Lens-Konfiguration mit SDK für Java löschen:  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.DeleteStorageLensConfigurationRequest;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class DeleteDashboard {

    public static void main(String[] args) {
        String configurationId = "ConfigurationId";
        String sourceAccountId = "111122223333";
        try {
            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            s3ControlClient.deleteStorageLensConfiguration(new DeleteStorageLensConfigurationRequest()
                    .withAccountId(sourceAccountId)
                    .withConfigId(configurationId)
            );
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Auflisten von Amazon-S3-Storage-Lens-Dashboards
<a name="storage_lens_list_dashboard"></a>

 

# Verwenden der S3-Konsole
<a name="storage_lens_console_listing"></a>

**So listen Sie ein S3-Storage-Lens-Dashboard auf**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Navigieren Sie im linken Navigationsbereich zu **Storage Lens**.

1. Wählen Sie **Dashboards** aus. Sie können jetzt die Dashboards in Ihrem AWS-Konto anzeigen.

## Mit dem AWS CLI
<a name="S3ListStorageLensConfigurationsCLI"></a>

**Example**  
Der folgende Beispielbefehl listet die S3 Storage Lens-Dashboards in Ihrem AWS-Konto auf. Wenn Sie diese Beispiele verwenden möchten, ersetzen Sie die `user input placeholders` durch Ihre Informationen.  

```
aws s3control list-storage-lens-configurations --account-id=222222222222 --region=us-east-1 --next-token=abcdefghij1234
```

**Example**  
Das folgende Beispiel listet S3-Storage-Lens-Konfigurationen ohne das nächste Token auf. Wenn Sie diese Beispiele verwenden möchten, ersetzen Sie die `user input placeholders` durch Ihre Informationen.  

```
aws s3control list-storage-lens-configurations --account-id=222222222222 --region=us-east-1
```

## Verwenden des AWS SDK for Java
<a name="S3ListStorageLensConfigurationsJava"></a>

**Example – Auflisten von Konfigurationen des S3-Storage-Lens-Dashboards**  
In den folgenden Beispielen wird gezeigt, wie S3-Storage-Lens-Konfigurationen im SDK für Java aufgelistet werden. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.“ zu jeder Beispielbeschreibung.  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.ListStorageLensConfigurationEntry;
import com.amazonaws.services.s3control.model.ListStorageLensConfigurationsRequest;

import java.util.List;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class ListDashboard {

    public static void main(String[] args) {
        String sourceAccountId = "111122223333";
        String nextToken = "nextToken";

        try {
            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            final List<ListStorageLensConfigurationEntry> configurations =
                    s3ControlClient.listStorageLensConfigurations(new ListStorageLensConfigurationsRequest()
                            .withAccountId(sourceAccountId)
                            .withNextToken(nextToken)
                    ).getStorageLensConfigurationList();

            System.out.println(configurations.toString());
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Ansehen von Konfigurationsdetails von Amazon-S3-Storage-Lens-Dashboards
<a name="storage_lens_viewing"></a>

Sie können ein Amazon S3 Storage Lens-Dashboard über die Amazon S3 S3-Konsole und das SDK for Java aufrufen. AWS CLI

# Verwenden der S3-Konsole
<a name="storage_lens_console_viewing"></a>

**So sehen Sie die Konfigurationsdetails eines S3-Storage-Lens-Dashboards an**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Klicken Sie im linken Navigationsbereich auf **Storage Lens**.

1. Wählen Sie **Dashboards** aus.

1. Klicken Sie in der Liste **Dashboards** auf das Dashboard, das Sie ansehen möchten. Jetzt können Sie die Details Ihres Storage-Lens-Dashboards ansehen.

## Verwenden Sie den AWS CLI
<a name="S3ListStorageLensConfigurationsCLI"></a>

**Example**  
Im folgenden Beispiel wird eine S3-Storage-Lens-Konfiguration abgerufen, sodass Sie die Konfigurationsdetails ansehen können. Wenn Sie diese Beispiele verwenden möchten, ersetzen Sie die `user input placeholders` durch Ihre Informationen.  

```
aws s3control get-storage-lens-configuration --account-id=222222222222 --config-id=your-configuration-id --region=us-east-1
```

## Verwenden des AWS SDK for Java
<a name="S3GetStorageLensConfigurationJava"></a>

**Example – Abrufen und Anzeigen einer S3-Storage-Lens-Konfiguration**  
Das folgende Beispiel zeigt Ihnen, wie Sie eine S3-Storage-Lens-Konfiguration im SDK für Java abrufen, sodass Sie die Konfigurationsdetails ansehen können. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.GetStorageLensConfigurationRequest;
import com.amazonaws.services.s3control.model.GetStorageLensConfigurationResult;
import com.amazonaws.services.s3control.model.StorageLensConfiguration;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class GetDashboard {

    public static void main(String[] args) {
        String configurationId = "ConfigurationId";
        String sourceAccountId = "111122223333";

        try {
            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            final StorageLensConfiguration configuration =
                    s3ControlClient.getStorageLensConfiguration(new GetStorageLensConfigurationRequest()
                            .withAccountId(sourceAccountId)
                            .withConfigId(configurationId)
                    ).getStorageLensConfiguration();

            System.out.println(configuration.toString());
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Verwaltung von AWS Ressourcen-Tags mit S3 Storage Lens
<a name="storage-lens-groups-manage-tags-dashboard"></a>

Jedes Amazon S3 Storage Lens-Dashboard wird als AWS Ressource mit eigenem Amazon-Ressourcennamen (ARN) gezählt. Daher können Sie bei der Konfiguration Ihres Storage Lens-Dashboards optional AWS Ressourcen-Tags zum Dashboard hinzufügen. Sie können bis zu 50 Tags für jedes Storage-Lens-Dashboard hinzufügen. Um ein Storage-Lens-Dashboard mit Tags zu erstellen, müssen Sie über die folgenden [S3-Storage-Lens-Berechtigungen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_iam_permissions.html) verfügen:
+ `s3:ListStorageLensConfigurations`
+ `s3:GetStorageLensConfiguration`
+ `s3:GetStorageLensConfigurationTagging`
+ `s3:PutStorageLensConfiguration`
+ ` s3:PutStorageLensConfigurationTagging`

Sie können AWS Ressourcen-Tags verwenden, um Ressourcen nach Abteilung, Geschäftsbereich oder Projekt zu kategorisieren. Dies ist nützlich, wenn Sie viele Ressourcen desselben Typs haben. Durch die Anwendung von Tags können Sie ein bestimmtes S3-Storage-Lens-Dashboard auf Grundlage der ihm zugewiesenen Tags schnell identifizieren. Sie können Tags auch verwenden, um Ihre Kosten zu kategorisieren und zu verfolgen.

Wenn Sie Ihrem Storage Lens-Dashboard ein AWS Ressourcen-Tag hinzufügen, aktivieren Sie außerdem die [attributebasierte Zugriffskontrolle](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction_attribute-based-access-control.html) (ABAC). ABAC ist eine Autorisierungsstrategie, die Berechtigungen basierend auf Attributen wie Tags definiert. [Sie können auch Bedingungen verwenden, die Ressourcen-Tags in Ihren IAM-Richtlinien angeben, um den Zugriff auf Ressourcen zu kontrollieren. AWS](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_tags.html#access_tags_control-resources)

Sie können Tag (Markierung)-Schlüssel und -Werte bearbeiten und Tags (Markierungen) jederzeit von einer Ressource entfernen. Beachten Sie folgende Einschränkungen:
+ Bei Tag-Schlüsseln und Tag-Werten muss die Groß- und Kleinschreibung beachtet werden.
+ Wenn Sie ein Tag (Markierung) mit demselben Schlüssel wie ein vorhandener Tag (Markierung) für die Ressource hinzufügen, wird der alte Wert mit dem neuen überschrieben.
+ Wenn Sie eine Ressource löschen, werden alle Tags (Markierungen) der Ressource ebenfalls gelöscht. 
+ Nehmen Sie keine privaten oder sensiblen Daten in Ihre AWS Ressourcen-Tags auf.
+ System-Tags (mit Tag-Schlüsseln, die mit `aws:` beginnen) werden nicht unterstützt.
+ Die einzelnen Tag-Schlüssel dürfen maximal 128 Zeichen lang sein. Die einzelnen Tag-Werte dürfen maximal 256 Zeichen lang sein.

Die folgenden Beispiele zeigen, wie Sie AWS Ressourcen-Tags mit dem Storage Lens-Dashboard verwenden.

**Topics**
+ [Fügen Sie AWS Ressourcen-Tags zu einem Storage Lens-Dashboard hinzu](storage-lens-add-tags.md)
+ [Rufen Sie AWS Ressourcen-Tags für ein Storage Lens-Dashboard ab](storage-lens-get-tags.md)
+ [Aktualisieren von Storage-Lens-Dashboard-Tags](storage-lens-update-tags.md)
+ [Löschen von AWS Ressourcen-Tags aus einem S3 Storage Lens-Dashboard](storage-lens-dashboard-delete-tags.md)

# Fügen Sie AWS Ressourcen-Tags zu einem Storage Lens-Dashboard hinzu
<a name="storage-lens-add-tags"></a>

Die folgenden Beispiele zeigen, wie Sie einem S3 Storage Lens-Dashboard AWS Ressourcen-Tags hinzufügen. Sie können Ressourcen-Tags mithilfe der Amazon S3 S3-Konsole hinzufügen, AWS Command Line Interface (AWS CLI) und AWS SDK für Java.

## Verwenden der S3-Konsole
<a name="storage-lens-add-tags-console"></a>

**Um AWS Ressourcen-Tags zu einem Storage Lens-Dashboard hinzuzufügen**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Navigieren Sie im linken Navigationsbereich zu **Storage Lens**.

1. Wählen Sie **Dashboards** aus.

1. Aktivieren Sie das Optionsfeld für das Storage-Lens-Dashboard, das Sie aktualisieren möchten. Wählen Sie dann **Edit** (Bearbeiten) aus.

1. Wählen Sie unter **Allgemein** die Option **Tag hinzufügen** aus.

1. Fügen Sie auf der Seite **Tag hinzufügen** das neue Schlüssel-Wert-Paar hinzu.
**Anmerkung**  
Wenn Sie ein neues Tag hinzufügen, dessen Schlüssel mit dem eines vorhandenen Tags identisch ist, wird der vorherige Tag-Wert überschrieben.

1. (Optional) Um mehrere neue Tags hinzuzufügen, wählen Sie erneut **Tag hinzufügen** aus und fügen Sie weiterhin neue Einträge hinzu. Sie können Ihrem Storage Lens-Dashboard bis zu 50 AWS Ressourcen-Tags hinzufügen.

1. (Optional) Wenn Sie einen neu hinzugefügten Eintrag entfernen möchten, wählen Sie neben dem zu entfernenden Tag **Entfernen** aus.

1. Wählen Sie **Änderungen speichern ** aus.

## Verwenden Sie den AWS CLI
<a name="storage-lens-add-tags-cli"></a>

**Example**  
Der folgende Beispielbefehl fügt Tags zu einer Konfiguration eines S3-Storage-Lens-Dashboards hinzu. Wenn Sie diese Beispiele verwenden möchten, ersetzen Sie die `user input placeholders` durch Ihre Informationen.  

```
aws s3control put-storage-lens-configuration-tagging --account-id=222222222222 --region=us-east-1 --config-id=your-configuration-id --tags=file://./tags.json
```

## Verwenden des AWS SDK for Java
<a name="storage-lens-add-tags-sdk-java"></a>

Das folgende Beispiel fügt Tags zu einer Konfiguration von Amazon S3 Storage Lens im SDK für Java hinzu. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.

**Example – Hinzufügen von Tags zu einer Konfiguration von S3 Storage Lens**  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.PutStorageLensConfigurationTaggingRequest;
import com.amazonaws.services.s3control.model.StorageLensTag;

import java.util.Arrays;
import java.util.List;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class PutDashboardTagging {

    public static void main(String[] args) {
        String configurationId = "ConfigurationId";
        String sourceAccountId = "111122223333";

        try {
            List<StorageLensTag> tags = Arrays.asList(
                    new StorageLensTag().withKey("key-1").withValue("value-1"),
                    new StorageLensTag().withKey("key-2").withValue("value-2")
            );

            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            s3ControlClient.putStorageLensConfigurationTagging(new PutStorageLensConfigurationTaggingRequest()
                    .withAccountId(sourceAccountId)
                    .withConfigId(configurationId)
                    .withTags(tags)
            );
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Rufen Sie AWS Ressourcen-Tags für ein Storage Lens-Dashboard ab
<a name="storage-lens-get-tags"></a>

Die folgenden Beispiele zeigen, wie Sie AWS Ressourcen-Tags für ein S3 Storage Lens-Dashboard abrufen. Sie können Ressourcen-Tags mithilfe der Amazon S3 S3-Konsole AWS Command Line Interface (AWS CLI) und abrufen AWS SDK für Java.

# Verwenden der S3-Konsole
<a name="storage-lens-get-tags-console"></a>

**Um die AWS Ressourcen-Tags für ein Storage Lens-Dashboard abzurufen**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Navigieren Sie im linken Navigationsbereich zu **Storage Lens**.

1. Wählen Sie **Dashboards** aus.

1. Aktivieren Sie das Optionsfeld für die Konfiguration des Storage-Lens-Dashboards, die Sie anzeigen möchten. Wählen Sie dann **Dashboard-Konfigurationen anzeigen** aus.

1. Überprüfen Sie unter **Tags** die mit dem Dashboard verknüpften Tags.

1. (Optional) Wenn Sie einen neuen Tag hinzufügen möchten, wählen Sie **Bearbeiten** aus. Wählen Sie dann **Tag hinzufügen** aus. Fügen Sie auf der Seite **Tag hinzufügen** das neue Schlüssel-Wert-Paar hinzu.
**Anmerkung**  
Wenn Sie ein neues Tag hinzufügen, dessen Schlüssel mit dem eines vorhandenen Tags identisch ist, wird der vorherige Tag-Wert überschrieben.

1. (Optional) Wenn Sie einen neu hinzugefügten Eintrag entfernen möchten, wählen Sie neben dem zu entfernenden Tag **Entfernen** aus.

1. Wählen Sie **Änderungen speichern ** aus.

## Verwenden Sie den AWS CLI
<a name="storage-lens-get-tags-cli"></a>

**Example**  
Der folgende Beispielbefehl ruft Tags für eine Konfiguration des S3-Storage-Lens-Dashboards ab. Wenn Sie diese Beispiele verwenden möchten, ersetzen Sie die `user input placeholders` durch Ihre Informationen.  

```
aws s3control get-storage-lens-configuration-tagging --account-id=222222222222 --region=us-east-1 --config-id=your-configuration-id --tags=file://./tags.json
```

## Verwenden des AWS SDK for Java
<a name="S3GetStorageLensConfigurationTaggingJava"></a>

**Example – Abrufen von Tags für eine Konfiguration des S3-Storage-Lens-Dashboards**  
Das folgende Beispiel zeigt, wie Sie Tags für eine Konfiguration des S3-Storage-Lens-Dashboards im SDK für Java abrufen. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.DeleteStorageLensConfigurationRequest;
import com.amazonaws.services.s3control.model.GetStorageLensConfigurationTaggingRequest;
import com.amazonaws.services.s3control.model.StorageLensTag;

import java.util.List;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class GetDashboardTagging {

    public static void main(String[] args) {
        String configurationId = "ConfigurationId";
        String sourceAccountId = "111122223333";
        try {
            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            final List<StorageLensTag> s3Tags = s3ControlClient
                    .getStorageLensConfigurationTagging(new GetStorageLensConfigurationTaggingRequest()
                            .withAccountId(sourceAccountId)
                            .withConfigId(configurationId)
                    ).getTags();

            System.out.println(s3Tags.toString());
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Aktualisieren von Storage-Lens-Dashboard-Tags
<a name="storage-lens-update-tags"></a>

Die folgenden Beispiele zeigen, wie Sie die Dashboard-Tags von Storage Lens mithilfe der Amazon S3 S3-Konsole, AWS Command Line Interface (AWS CLI) und aktualisieren AWS SDK für Java.

## Verwenden der S3-Konsole
<a name="storage-lens-dashboard-update-tags-console"></a>

**Um ein AWS Ressourcen-Tag für ein Storage Lens-Dashboard zu aktualisieren**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Navigieren Sie im linken Navigationsbereich zu **Storage Lens**.

1. Wählen Sie **Dashboards** aus.

1. Aktivieren Sie das Optionsfeld für die Konfiguration des Storage-Lens-Dashboards, die Sie anzeigen möchten. Wählen Sie dann **Dashboard-Konfigurationen anzeigen** aus.

1. Überprüfen Sie unter **Tags** die mit dem Dashboard verknüpften Tags.

1. (Optional) Wenn Sie einen neuen Tag hinzufügen möchten, wählen Sie **Bearbeiten** aus. Wählen Sie dann **Tag hinzufügen** aus. Fügen Sie auf der Seite **Tag hinzufügen** das neue Schlüssel-Wert-Paar hinzu.
**Anmerkung**  
Wenn Sie ein neues Tag hinzufügen, dessen Schlüssel mit dem eines vorhandenen Tags identisch ist, wird der vorherige Tag-Wert überschrieben.

1. (Optional) Wenn Sie einen neu hinzugefügten Eintrag entfernen möchten, wählen Sie neben dem zu entfernenden Tag **Entfernen** aus.

1. Wählen Sie **Änderungen speichern ** aus.

## Verwenden Sie den AWS CLI
<a name="storage-lens-dashboard-update-tags-cli"></a>

**Example**  
Der folgende Beispielbefehl fügt Tags zu einer vorhandenen Konfiguration des Amazon-S3-Storage Lens-Dashboards hinzu oder ersetzt sie. Wenn Sie diese Beispiele verwenden möchten, ersetzen Sie die `user input placeholders` durch Ihre Informationen.  

```
aws s3control put-storage-lens-configuration-tagging --account-id=111122223333 --config-id=example-dashboard-configuration-id --region=us-east-1 --config-id=your-configuration-id
```

## Verwenden des AWS SDK for Java
<a name="storage-lens-dashboard-update-tags-sdk-java"></a>

Im folgenden AWS SDK für Java Beispiel werden die AWS Ressourcen-Tags in einem vorhandenen Storage Lens-Dashboard aktualisiert. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.

**Example – Aktualisieren von Tags in einer vorhandenen Storage Lens-Dashboard-Konfiguration**  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.PutStorageLensConfigurationTaggingRequest;
import com.amazonaws.services.s3control.model.StorageLensTag;

import java.util.Arrays;
import java.util.List;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class PutDashboardTagging {

    public static void main(String[] args) {
        String configurationId = "ConfigurationId";
        String sourceAccountId = "111122223333";

        try {
            List<StorageLensTag> tags = Arrays.asList(
                    new StorageLensTag().withKey("key-1").withValue("value-1"),
                    new StorageLensTag().withKey("key-2").withValue("value-2")
            );

            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            s3ControlClient.putStorageLensConfigurationTagging(new PutStorageLensConfigurationTaggingRequest()
                    .withAccountId(sourceAccountId)
                    .withConfigId(configurationId)
                    .withTags(tags)
            );
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Löschen von AWS Ressourcen-Tags aus einem S3 Storage Lens-Dashboard
<a name="storage-lens-dashboard-delete-tags"></a>

Die folgenden Beispiele zeigen, wie Sie AWS Ressourcen-Tags aus einem vorhandenen Storage Lens-Dashboard löschen. Sie können Tags mithilfe der Amazon S3 S3-Konsole AWS Command Line Interface (AWS CLI) und löschen AWS SDK für Java.

## Verwenden der S3-Konsole
<a name="storage-lens-groups-delete-tags-console"></a>

**Um AWS Ressourcen-Tags aus einem vorhandenen Storage Lens-Dashboard zu löschen**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Navigieren Sie im linken Navigationsbereich zu **Storage Lens**.

1. Wählen Sie **Dashboards** aus.

1. Aktivieren Sie das Optionsfeld für die Konfiguration des Storage-Lens-Dashboards, die Sie anzeigen möchten. Wählen Sie dann **Dashboard-Konfigurationen anzeigen** aus.

1. Überprüfen Sie unter **Tags** die mit dem Dashboard verknüpften Tags.

1. Wählen Sie neben dem zu entfernenden Tag **Entfernen** aus.

1. Wählen Sie **Änderungen speichern ** aus.

## Verwenden Sie den AWS CLI
<a name="storage-lens-dashboard-delete-tags-cli"></a>

Mit dem folgenden AWS CLI Befehl werden AWS Ressourcen-Tags aus einem vorhandenen Storage Lens-Dashboard gelöscht. Wenn Sie diese Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

**Example**  

```
aws s3control delete-storage-lens-configuration-tagging --account-id=222222222222 --config-id=your-configuration-id --region=us-east-1
```

## Verwenden des AWS SDK for Java
<a name="storage-lens-dashboard-delete-tags-sdk-java"></a>

Im folgenden AWS SDK für Java Beispiel wird mithilfe des AWS Amazon-Ressourcennamens (ARN), den Sie im Konto `111122223333` angeben, ein Ressourcen-Tag aus dem Storage Lens-Dashboard gelöscht. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.

**Example – Löschen von Tags für eine Konfiguration des S3-Storage-Lens-Dashboards**  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.DeleteStorageLensConfigurationTaggingRequest;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class DeleteDashboardTagging {

    public static void main(String[] args) {
        String configurationId = "ConfigurationId";
        String sourceAccountId = "111122223333";
        try {
            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            s3ControlClient.deleteStorageLensConfigurationTagging(new DeleteStorageLensConfigurationTaggingRequest()
                    .withAccountId(sourceAccountId)
                    .withConfigId(configurationId)
            );
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Hilfsdateien für die Verwendung von Amazon S3 Storage Lens
<a name="S3LensHelperFilesCLI"></a>

Verwenden Sie die folgenden JSON-Dateien und die zugehörigen wichtigen Eingaben für Ihre Beispiele.

## Beispiel für S3-Storage-Lens-Konfiguration in JSON
<a name="S3LensHelperFilesSampleConfigurationCLI"></a>

**Example `config.json`**  
Die Datei `config.json` enthält Details einer S3-Storage-Lens-Konfiguration auf Organisationsebene mit *erweiterten Metriken und Empfehlungen*. Wenn Sie das folgende Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` durch Ihre eigenen Informationen.  
Für erweiterte Metriken und Empfehlungen fallen zusätzliche Gebühren an. Weitere Informationen finden Sie unter [Erweiterte Metriken und Empfehlungen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_basics_metrics_recommendations.html#storage_lens_basics_metrics_selection).

```
{
  "Id": "SampleS3StorageLensConfiguration", //Use this property to identify your S3 Storage Lens configuration.
  "AwsOrg": { //Use this property when enabling S3 Storage Lens for AWS Organizations.
    "Arn": "arn:aws:organizations::123456789012:organization/o-abcdefgh"
  },
  "AccountLevel": {
    "ActivityMetrics": {
      "IsEnabled":true
    },
    "AdvancedCostOptimizationMetrics": {
      "IsEnabled":true
    },
    "AdvancedDataProtectionMetrics": {
      "IsEnabled":true
    },
    "DetailedStatusCodesMetrics": {
      "IsEnabled":true
    },
    "BucketLevel": {
      "ActivityMetrics": {
        "IsEnabled":true
      },
      "AdvancedDataProtectionMetrics": {
      "IsEnabled":true
      },
      "AdvancedCostOptimizationMetrics": {
        "IsEnabled":true
      },
      "DetailedStatusCodesMetrics": {
        "IsEnabled":true
      },
      "PrefixLevel":{
        "StorageMetrics":{
          "IsEnabled":true,
          "SelectionCriteria":{
            "MaxDepth":5,
            "MinStorageBytesPercentage":1.25,
            "Delimiter":"/"
          }
        }
      }
    }
  },
  "Exclude": { //Replace with "Include" if you prefer to include Regions.
    "Regions": [
      "eu-west-1"
    ],
    "Buckets": [ //This attribute is not supported for AWS Organizations-level configurations.
      "arn:aws:s3:::amzn-s3-demo-source-bucket"
    ]
  },
  "IsEnabled": true, //Whether the configuration is enabled
  "DataExport": { //Details about the metrics export
    "S3BucketDestination": {
      "OutputSchemaVersion": "V_1",
      "Format": "CSV", //You can add "Parquet" if you prefer.
      "AccountId": "111122223333",
      "Arn": "arn:aws:s3:::
amzn-s3-demo-destination-bucket", // The destination bucket for your metrics export must be in the same Region as your S3 Storage Lens configuration. 
      "Prefix": "prefix-for-your-export-destination",
      "Encryption": {
        "SSES3": {}
      }
    },
    "CloudWatchMetrics": {
      "IsEnabled": true
    }
  }
}
```

## Beispiel für S3-Storage-Lens-Konfiguration mit Storage-Lens-Gruppen in JSON
<a name="StorageLensGroupsHelperFilesCLI"></a>

**Example `config.json`**  

Die Datei `config.json` enthält die Details, die Sie bei Verwendung von Storage-Lens-Gruppen auf die Storage-Lens-Konfiguration anwenden möchten. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` durch Ihre Informationen.

Um alle Storage-Lens-Gruppen an das Dashboard anzuhängen, aktualisieren Sie die Storage-Lens-Konfiguration mit der folgenden Syntax:

```
{
  "Id": "ExampleS3StorageLensConfiguration",
  "AccountLevel": {
    "ActivityMetrics": {
      "IsEnabled":true
    },
    "AdvancedCostOptimizationMetrics": {
      "IsEnabled":true
    },
    "AdvancedDataProtectionMetrics": {
      "IsEnabled":true
    },
    "BucketLevel": {
      "ActivityMetrics": {
      "IsEnabled":true
      },
    "StorageLensGroupLevel": {},
  "IsEnabled": true
}
```

Um nur zwei Storage Lens-Gruppen in Ihre Storage Lens-Dashboard-Konfiguration (*slg-1*und*slg-2*) aufzunehmen, verwenden Sie die folgende Syntax:

```
{
  "Id": "ExampleS3StorageLensConfiguration",
  "AccountLevel": {
    "ActivityMetrics": {
      "IsEnabled":true
    },
    "AdvancedCostOptimizationMetrics": {
      "IsEnabled":true
    },
    "AdvancedDataProtectionMetrics": {
      "IsEnabled":true
    },
    "BucketLevel": {
      "ActivityMetrics": {
      "IsEnabled":true
      },
   "StorageLensGroupLevel": {
        "SelectionCriteria": {
            "Include": [
                "arn:aws:s3:us-east-1:111122223333:storage-lens-group/slg-1",
                "arn:aws:s3:us-east-1:444455556666:storage-lens-group/slg-2"
            ]
    },
  "IsEnabled": true
}
```

Verwenden Sie die folgende Syntax, um bestimmte Storage-Lens-Gruppen vom Anhängen an die Dashboard-Konfiguration auszuschließen:

```
{
  "Id": "ExampleS3StorageLensConfiguration",
  "AccountLevel": {
    "ActivityMetrics": {
      "IsEnabled":true
    },
    "AdvancedCostOptimizationMetrics": {
      "IsEnabled":true
    },
    "AdvancedDataProtectionMetrics": {
      "IsEnabled":true
    },
    "BucketLevel": {
      "ActivityMetrics": {
      "IsEnabled":true
      },
   "StorageLensGroupLevel": {
        "SelectionCriteria": {
            "Exclude": [
                "arn:aws:s3:us-east-1:111122223333:storage-lens-group/slg-1",
                "arn:aws:s3:us-east-1:444455556666:storage-lens-group/slg-2"
            ]
    },
  "IsEnabled": true
}
```

## Beispiel für S3-Storage-Lens-Konfiguration mit Tags in JSON
<a name="S3LensHelperFilesSampleConfigurationTagsCLI"></a>

**Example `tags.json`**  
Die Datei `tags.json` enthält die Tags, die Sie auf Ihre S3-Storage-Lens-Konfiguration anwenden möchten. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.  

```
[
    {
        "Key": "key1",
        "Value": "value1"
    },
    {
        "Key": "key2",
        "Value": "value2"
    }
]
```

## Beispiel für S3-Storage-Lens-Konfiguration für IAM Berechtigungen
<a name="S3LensHelperFilesSampleConfigurationIAMPermissionsCLI"></a>

**Example `permissions.json` – Spezifischer Dashboard-Name**  
Diese Beispielrichtlinie zeigt eine IAM-Datei `permissions.json` von S3 Storage Lens mit einem bestimmten Dashboard-Namen. Ersetzen Sie *`value1`*, `us-east-1`, `your-dashboard-name` und `example-account-id` durch Ihre eigenen Werte.    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "s3:GetStorageLensConfiguration",
                "s3:DeleteStorageLensConfiguration",
                "s3:PutStorageLensConfiguration"
            ],
            "Condition": {
                "StringEquals": {
                    "aws:ResourceTag/key1": "value1"
                }
            },
            "Resource": "arn:aws:s3:us-east-1:111122223333:storage-lens/your-dashboard-name"
        }
    ]
}
```

**Example `permissions.json` – Kein spezifischer Dashboard-Name**  
Diese Beispielrichtlinie zeigt eine IAM-Datei `permissions.json` von S3 Storage Lens ohne einen bestimmten Dashboard-Namen. Ersetzen Sie *`value1`*, `us-east-1` und `example-account-id` durch Ihre eigenen Werte.    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "s3:GetStorageLensConfiguration",
                "s3:DeleteStorageLensConfiguration",
                "s3:PutStorageLensConfiguration"
            ],
            "Condition": {
                "StringEquals": {
                    "aws:ResourceTag/key1": "value1"
                }
            },
            "Resource": "arn:aws:s3:us-east-1:111122223333:storage-lens/*"
        }
    ]
}
```

# Anzeigen von Metriken mit Amazon S3 Storage Lens
<a name="storage_lens_view_metrics"></a>

S3 Storage Lens aggregiert Ihre Metriken und zeigt die Informationen im Abschnitt **Konto-Snapshot** der Seite **Buckets** der Amazon-S3-Konsole an. S3 Storage Lens bietet außerdem ein interaktives Dashboard, mit dem Sie Erkenntnisse und Trends visualisieren, Ausreißer kennzeichnen und Empfehlungen zur Optimierung der Speicherkosten und zur Anwendung bewährter Datenschutzpraktiken erhalten können. Ihr Dashboard bietet Drilldown-Optionen zur Generierung und Visualisierung von Erkenntnissen auf Organisations-, Konto-, Speicherklassen- AWS-Region, Bucket-, Präfix- oder Storage Lens-Gruppenebene. Sie können auch einen täglichen Metrikbericht im CSV- oder Parquet Format an einen S3-Bucket für allgemeine Zwecke senden oder die Metriken direkt in einen AWS verwalteten S3-Tabellen-Bucket exportieren.

Standardmäßig sind alle Dashboards mit kostenlosen Metriken konfiguriert. Dazu gehören Metriken, anhand derer Sie die Nutzung und Aktivität in Ihrem S3-Speicher nachvollziehen, Ihre Speicherkosten optimieren und bewährte Methoden für Datenschutz und Zugriffsverwaltung implementieren können. Kostenlose Metriken werden bis auf Bucket-Ebene aggregiert. Bei kostenlosen Metriken stehen Daten bis zu 14 Tage lang für Abfragen zur Verfügung.

Zu den erweiterten Metriken und Empfehlungen gehören die folgenden zusätzlichen Funktionen, mit denen Sie weitere Einblicke in die Nutzung und Aktivität in Ihrem Speicher sowie bewährte Methoden zur Speicheroptimierung erhalten können:
+ Kontextbezogene Empfehlungen (nur im Dashboard verfügbar)
+ Erweiterte Metriken (einschließlich nach Buckets aggregierter Aktivitätsmetriken)
+ Präfixzusammenfassung
+ Aggregation von Storage-Lens-Gruppen
+ Aggregation von Storage-Lens-Gruppen
+  CloudWatch Amazon-Verlagswesen

Erweiterte Metrikdaten stehen 15 Monate für Abfragen zur Verfügung. Für die Verwendung von S3 Storage Lens mit fortschrittlichen Metriken fallen zusätzliche Gebühren an. Weitere Informationen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing). Weitere Informationen über kostenlose und erweiterte Metriken finden Sie unter [Auswahl der Metriken](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

**Topics**
+ [Anzeigen von S3-Storage-Lens-Metriken in den Dashboards](storage_lens_view_metrics_dashboard.md)
+ [Anzeigen von Amazon S3-Storage-Lens-Metriken mit einem Datenexport](storage_lens_view_metrics_export.md)
+ [Überwachen Sie die Metriken von S3 Storage Lens in CloudWatch](storage_lens_view_metrics_cloudwatch.md)
+ [Anwendungsfälle für Metriken von Amazon S3 Storage Lens](storage-lens-use-cases.md)

# Anzeigen von S3-Storage-Lens-Metriken in den Dashboards
<a name="storage_lens_view_metrics_dashboard"></a>

In der Amazon-S3-Konsole bietet S3 Storage Lens ein interaktives Standard-Dashboard, mit dem Sie Erkenntnisse zu Daten sowie entsprechende Trends visualisieren können. Zudem lässt sich das Dashboard verwenden, um Ausreißer zu kennzeichnen und Empfehlungen zur Optimierung der Speicherkosten sowie zur Anwendung bewährter Datenschutzmethoden einzusehen. Das Dashboard verfügt über Drilldown-Optionen, um Erkenntnisse auf Konto-, Bucket-, AWS-Region-, Präfix- oder Storage-Lens-Gruppenebene zu generieren. Wenn Sie die Verwendung von S3 Storage Lens aktiviert haben AWS Organizations, können Sie auch Erkenntnisse auf Organisationsebene generieren (z. B. Daten für alle Konten, die Teil Ihrer AWS Organizations Hierarchie sind). Das Dashboard wird immer für das letzte Datum geladen, für das Metriken verfügbar sind.

Das Standard-Dashboard von S3 Storage Lens auf der Konsole hat den Namen **default-account-dashboard**. Gemäß Amazon-S3-Vorkonfiguration werden in diesem Dashboard die zusammengefassten Erkenntnisse und Trends Ihres gesamten Kontos visualisiert und täglich in der S3-Konsole aktualisiert. Sie können den Konfigurationsbereich des Standard-Dashboards nicht ändern, aber Sie haben die Möglichkeit, statt der kostenlosen Metriken die kostenpflichtigen erweiterten Metriken und Empfehlungen auszuwählen. Mit erweiterten Metriken und Empfehlungen können Sie auf zusätzliche Metriken und Funktionen zugreifen. Zu diesen Funktionen gehören erweiterte Metrikkategorien, Aggregation auf Präfixebene, kontextuelle Empfehlungen und Amazon-Veröffentlichungen. CloudWatch 

Sie können das Standard-Dashboard deaktivieren, aber nicht löschen. Wenn Sie Ihr Standard-Dashboard deaktivieren, wird es nicht mehr aktualisiert. Sie erhalten keine neuen täglichen Metriken mehr in S3 Storage Lens oder im **Konto-Snapshot** auf der Seite **Buckets**. Sie können im Standard-Dashboard weiterhin historische Daten anzeigen, bis der Zeitraum von 14 Tagen für Datenabfragen abläuft. Wenn Sie erweiterte Metriken und Empfehlungen aktiviert haben, beträgt dieser Zeitraum 15 Monate. Sie können das Standard-Dashboard innerhalb des Ablaufzeitraums wieder aktivieren, um auf diese Daten zuzugreifen.

Sie können zusätzliche S3 Storage Lens-Dashboards erstellen und sie nach AWS-Regionen S3-Buckets oder Konten eingrenzen. Sie können Ihre Dashboards auch nach Organisation eingrenzen, wenn Sie die Verwendung von Storage Lens aktiviert haben. AWS Organizations Wenn Sie ein S3-Storage-Lens-Dashboard erstellen oder bearbeiten, definieren Sie den Dashboard-Umfang und die Metrikauswahl. 

 

Sie können zusätzliche Dashboards, die Sie erstellen, deaktivieren oder löschen. 
+ Wenn Sie ein Dashboard deaktivieren, wird es nicht mehr aktualisiert und Sie erhalten keine neuen täglichen Metriken mehr. Sie können historische Daten für kostenlose Metriken dann noch bis zum Ende des Ablaufzeitraums von 14 Tagen einsehen. Wenn Sie erweiterte Metriken und Empfehlungen für das Dashboard aktiviert haben, beträgt dieser Zeitraum 15 Monate. Sie können das Dashboard innerhalb des Ablaufzeitraums wieder aktivieren, um auf diese Daten zuzugreifen. 
+ Wenn Sie ein Dashboard löschen, gehen alle Dashboard-Konfigurationseinstellungen verloren. Sie erhalten dann keine neuen täglichen Metriken mehr und können nicht mehr auf die mit dem Dashboard verbundenen historischen Daten zugreifen. Wenn Sie auf die historischen Daten eines gelöschten Dashboards zugreifen möchten, müssen Sie ein neues Dashboard mit demselben Namen in derselben Heimatregion erstellen.

**Topics**
+ [Anzeigen eines Amazon S3-Storage-Lens-Dashboards](#storage_lens_console_viewing)
+ [Grundlegendes zum S3-Storage-Lens-Dashboard](#storage_lens_console_viewing_dashboard)

## Anzeigen eines Amazon S3-Storage-Lens-Dashboards
<a name="storage_lens_console_viewing"></a>

Das folgende Verfahren zeigt, wie Sie ein S3-Storage-Lens-Dashboard in der S3-Konsole ansehen können. Anwendungsfallbasierte Anleitungen, die zeigen, wie Sie das Dashboard verwenden können, um Ihre Kosten zu optimieren, bewährte Verfahren zu implementieren und die Leistung von Anwendungen zu verbessern, die auf S3-Buckets zugreifen, finden Sie unter [Anwendungsfälle für Metriken von Amazon S3 Storage Lens](storage-lens-use-cases.md).

**Anmerkung**  
Sie können Dashboards von Amazon S3 Storage Lens nicht mithilfe der Root–Benutzer-Anmeldeinformationen Ihres Kontos aufrufen. Um auf S3 Storage Lens-Dashboards zugreifen zu können, müssen Sie einem neuen oder vorhandenen IAM-Benutzer die erforderlichen AWS Identity and Access Management (IAM-) Berechtigungen erteilen. Anschließend können Sie sich mit diesen Anmeldeinformationen anmelden, um auf S3-Storage-Lens-Dashboards zuzugreifen. Weitere Informationen finden Sie unter [Festlegen der Berechtigungen für Amazon S3 Storage Lens](storage_lens_iam_permissions.md) und [Bewährte Methoden für die Sicherheit in IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/best-practices.html) im *IAM-Benutzerhandbuch*.

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie in der Liste **Dashboards** das Dashboard aus, das Sie anzeigen möchten.

   Ihr Dashboard wird in S3 Storage Lens geöffnet. Der Abschnitt **Snapshot for *date*** (Snapshot für Datum) zeigt das letzte Datum an, an dem S3 Storage Lens Metriken gesammelt hat. Ihr Dashboard wird immer für das letzte Datum geladen, für das Metriken verfügbar sind.

1. (Optional) Wenn Sie das Datum für Ihr S3-Storage-Lens-Dashboard ändern möchten, wählen Sie in der oberen rechten Datumsauswahl ein neues Datum aus.

1. (Optional) Gehen Sie wie folgt vor, wenn Sie temporäre Filter anwenden möchten, mit denen Sie den Umfang Ihrer Dashboard-Daten weiter einschränken können:

   1. Erweitern Sie den Bereich **Filter**.

   1. Um nach bestimmten Konten, Speicherklassen, Buckets AWS-Regionen, Präfixen oder Storage Lens-Gruppen zu filtern, wählen Sie die Optionen aus, nach denen gefiltert werden soll.
**Anmerkung**  
Der Filter **Präfixe** und der Filter **Storage-Lens-Gruppen** können nicht gleichzeitig angewendet werden.

   1. Wenn Sie einen Filter aktualisieren möchten, wählen Sie **Apply** (Anwenden) aus.

   1. Zum Entfernen eines Filters klicken Sie auf das **X** neben dem Filter.

1. Wählen Sie zum Anzeigen von Daten für eine bestimmte Metrik in einem beliebigen Abschnitt Ihres S3-Storage-Lens-Dashboards im Feld **Metric** (Metrik) den Namen der entsprechenden Metrik aus.

1. In jedem Diagramm oder jeder Visualisierung in Ihrem S3 Storage Lens Dashboard können Sie mit Hilfe der **Accounts**in tiefere Aggregationsebenen vordringen, **AWS-Regionen**, **Speicherklassen**, **Buckets**, **Präfixe**oder **Storage-Lens-Gruppen**. Ein Beispiel finden Sie unter [Entdecken Sie kalte Amazon S3-Buckets](storage-lens-optimize-storage.md#uncover-cold-buckets).

## Grundlegendes zum S3-Storage-Lens-Dashboard
<a name="storage_lens_console_viewing_dashboard"></a>

Ihr S3-Storage-Lens-Dashboard enthält eine primäre Registerkarte **Overview** (Übersicht) und bis zu fünf zusätzlichen Registerkarten für die einzelnen Aggregationsebenen:
+ **Konten**
+ **AWS-Regionen**
+ **Speicherklassen**
+ **Buckets**
+ **Präfixe**
+ **Storage-Lens-Gruppen**

Auf der Registerkarte **Overview** (Übersicht) werden Ihre Dashboard-Daten in drei verschiedene Abschnitte zusammengefasst: **Snapshot for *date*** (Snapshot für Datum), **Trends and distributions** (Trends und Verteilungen) und **Top N overview** (Top N-Übersicht). 

Weitere Informationen zur Verwendung Ihres S3-Storage-Lens-Dashboards finden Sie in den folgenden Abschnitten.

### Schnappschuss
<a name="storage-lens-snapshot"></a>

Der Abschnitt **Snapshot for *date*** (Snapshot für Datum) zeigt zusammenfassende Metriken an, die S3 Storage Lens für das ausgewählte Datum gesammelt hat. Diese zusammenfassenden Metriken umfassen die folgenden Metriken:
+ **Gesamtspeicher** – Die Gesamtmenge des verwendeten Speichers in Byte
+ **Anzahl der Objekte** – Die Gesamtanzahl der Objekte im AWS-Konto
+ **Durchschnittliche Objektgröße** – Die durchschnittliche Objektgröße
+ **Aktive Buckets** – Die Gesamtanzahl der aktiven Buckets in aktiver Nutzung mit Speicher > 0 Byte im Konto
+ **Konten** – Die Anzahl der Konten, deren Speicher zum Umfang gehören. Dieser Wert ist **1**, es sei denn, Sie verwenden S3 Storage Lens AWS Organizations und Ihr S3 Storage Lens verfügt über einen vertrauenswürdigen Zugriff mit einer gültigen serviceverknüpften Rolle. Weitere Informationen finden Sie unter [Verwenden von serviceverknüpften Rollen für Amazon S3 Storage Lens](using-service-linked-roles.md). 
+ **Buckets** – Die Gesamtanzahl der Buckets im Konto

**Metrik-Daten**  
Für jede Metrik, die im Snapshot angezeigt wird, können Sie die folgenden Daten sehen:
+ **Metrikname** – Der Name der Metrik
+ **Metrikkategorie** – Die Kategorie, in der die Metrik organisiert ist
+ **Gesamtsumme für *Datum*** – Die Gesamtzahl für das ausgewählte Datum
+ **% Änderung** – Die prozentuale Änderung seit dem letzten Snapshot-Datum
+ **30-Tage-Trend** – Eine Trendlinie, die die Änderungen der Metrik über einen Zeitraum von 30 Tagen zeigt
+ **Empfehlung** – Eine kontextbezogene Empfehlung, die auf den Daten basiert, die im Snapshot bereitgestellt werden. Empfehlungen sind mit erweiterten Metriken und Empfehlungen verfügbar. Weitere Informationen finden Sie unter [Empfehlungen](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_recommendations).

**Metrikkategorien**  
Sie können optional Ihren Dashboard-Abschnitt **Snapshot for *date*** (Snapshot für Datum) aktualisieren, um Metriken für andere Kategorien anzuzeigen. Wenn Sie Snapshot-Daten für zusätzliche Metriken sehen möchten, können Sie aus den folgenden **Metrics categories** (Metrikkategorien) wählen:
+ **Kostenoptimierung** 
+ **Datenschutz**
+ **Aktivität** (mit erweiterten Metriken verfügbar)
+ **Zugriffsverwaltung**
+ **Leistung**
+ **-**-Ereignisse

Im Abschnitt **Snapshot for *date*** (Snapshot für Datum) wird nur eine Auswahl von Metriken für jede Kategorie angezeigt. Um alle Metriken für eine bestimmte Kategorie anzuzeigen, wählen Sie die Metrik in den Abschnitten **Trends and distributions** (Trends und Verteilungen) oder **Top N overview** (Top N-Übersicht) aus. Weitere Informationen zu den Metrikkategorien finden Sie unter [Metrikkategorien](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_types). Eine vollständige Liste der Metriken von S3 Storage Lens finden Sie unter [Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md).

### Trends und Verteilungen
<a name="storage-lens-trends"></a>

Der zweite Abschnitt der Registerkarte **Overview** (Übersicht) lautet **Trends and distributions** ( Trends und Verteilungen). Im Abschnitt **Trends and distributions** (Trends und Verteilungen) können Sie zwei Metriken auswählen, um sie über einen von Ihnen definierten Zeitraum zu vergleichen. Der Abschnitt **Trends and distributions** (Trends und Verteilungen) zeigt die Beziehung zwischen zwei Metriken im Zeitverlauf. Dieser Abschnitt enthält Diagramme, mit denen Sie die Verteilung von **Storage class** (Speicherklasse) und **Region** zwischen den beiden Trends sehen können, die Sie beobachten. Sie können optional einen Datenpunkt in einem der Diagramme aufschlüsseln, um ihn eingehender zu analysieren.

 Eine Anleitung, die den Abschnitt **Trends and distribution** (Trends und Verteilungen) verwendet, finden Sie unter [Identifizieren Sie Buckets, die keine serverseitige Verschlüsselung verwenden, mit der Standardverschlüsselung (SSE-KMS) AWS KMS](storage-lens-data-protection.md#storage-lens-sse-kms).

### Top N-Übersicht
<a name="storage-lens-top-n"></a>

Der dritte Abschnitt des S3-Storage-Lens-Dashboards ist die **Top-N-Übersicht** (in aufsteigender oder absteigender Reihenfolge sortiert). In diesem Abschnitt werden Ihre ausgewählten Metriken für die höchste Anzahl von Konten, Buckets AWS-Regionen, Präfixen oder Storage Lens-Gruppen angezeigt. Wenn Sie die Verwendung von S3 Storage Lens aktiviert haben AWS Organizations, können Sie auch Ihre ausgewählten Metriken in Ihrer gesamten Organisation sehen.

Eine Anleitung, die den Abschnitt **Top N overview** (Top N-Übersicht) verwendet, finden Sie unter [Identifizieren Sie Ihre größten S3-Buckets](storage-lens-optimize-storage.md#identify-largest-s3-buckets).

### Aufschlüsselung und Analyse nach Optionen
<a name="storage-lens-drill-down"></a>

Um für eine reibungslose Analyse zu sorgen, bietet das S3-Storage-Lens-Dashboard ein Menü mit Aktionen, das bei Auswahl eines Diagrammwerts angezeigt wird. Wenn Sie dieses Menü verwenden möchten, wählen Sie einen beliebigen Diagrammwert aus, um die zugehörigen Metrikwerte zu sehen. Es stehen zwei Optionen zur Auswahl:
+ Mit der Aktion **Drill down** (Aufgliedern) wird der ausgewählte Wert als Filter auf alle Registerkarten Ihres Dashboards angewendet. Sie können dann einen Drilldown für eine ausführlichere Analyse durchführen.
+ Bei Auswahl der Aktion **Analysieren nach** wird die ausgewählte Registerkarte **Dimension** im Dashboard geöffnet und der Wert wird als Filter angewendet. Zu diesen Registerkarten gehören **Konten**, **AWS-Regionen**, **Speicherklassen**, **Buckets**, **Präfixe** (für Dashboards mit aktivierten Optionen **Erweiterte Metriken** und **Präfixaggregation**) sowie **Storage-Lens-Gruppen** (für Dashboards mit aktivierten Optionen **Erweiterte Metriken** und **Aggregation von Storage-Lens-Gruppen**). Mit **Analysieren nach** lassen sich die Daten im Kontext der neuen Dimension anzeigen und noch ausführlicher analysieren.

Die Aktionen **Aufgliedern** und **Analysieren nach** sind möglicherweise deaktiviert, wenn das Ergebnis unlogische Ergebnisse liefern würde oder keinen Wert hätte. Beide Aktionen **Aufgliedern** und **Analysieren nach** führen dazu, dass Filter auf alle Registerkarten des Dashboards angewendet werden (zusätzlich zu den vorhandenen Filtern). Bei Bedarf lassen sich Filter auch entfernen.

### Registerkarten
<a name="storage-lens-dimension-tabs"></a>

Die Registerkarten auf Dimensionsebene bieten eine detaillierte Ansicht aller Werte innerhalb einer bestimmten Dimension. Die Registerkarte **AWS-Regionen** zeigt beispielsweise Metriken für alle AWS-Regionen an und die Registerkarte **Buckets** Metriken für alle Buckets. Jeder Dimensions-Tab hat das gleiche Layout, das aus vier Abschnitten besteht:
+ Im Trenddiagramm werden Ihre Top-*N*-Elemente innerhalb der Dimension in den letzten 30 Tagen für die ausgewählte Metrik angezeigt. Standardmäßig enthält dieses Diagramm die Top 10 Elemente. Sie können die Anzahl auf minimal 3 Elemente verringern oder auf maximal 50 Elemente erhöhen.
+ Das Histogramm enthält ein vertikales Balkendiagramm für die ausgewählte Kombination aus Datum und Metrik. Wenn Sie eine große Anzahl von Elementen in diesem Diagramm anzeigen möchten, müssen Sie ggf. horizontal scrollen.
+ Im Blasen-Analysediagramm werden alle Elemente innerhalb der Dimension dargestellt. In diesem Diagramm wird die erste Metrik auf der X-Achse und die zweite Metrik auf der Y-Achse dargestellt. Die dritte Metrik wird durch die Größe der Blase repräsentiert. 
+ Die metrische Rasteransicht enthält jedes Element in der Dimension. Die Werte werden in Zeilen aufgeführt. Die Spalten stellen jede verfügbare Metrik dar, die zur einfacheren Navigation nach Tabs mit Metrikkategorien angeordnet sind. 

# Anzeigen von Amazon S3-Storage-Lens-Metriken mit einem Datenexport
<a name="storage_lens_view_metrics_export"></a>

Amazon S3 Storage Lens-Metriken werden täglich in CSV- oder Apache Parquet -formatierten Metrik-Exportdateien generiert und in einem S3-Allzweck-Bucket in Ihrem Konto gespeichert. Von dort aus können Sie den Metrikexport in die Analysetools Ihrer Wahl wie Amazon Quick und Amazon Athena aufnehmen, wo Sie die Speichernutzung und die Aktivitätstrends analysieren können. Sie können auch tägliche Metrikexporte an einen AWS verwalteten S3-Tabellen-Bucket senden, um sie mithilfe von AWS Analysediensten oder Tools von Drittanbietern sofort abzufragen.

**Topics**
+ [Verwenden Sie eine AWS KMS key , um Ihre Metrikexporte zu verschlüsseln](storage_lens_encrypt_permissions.md)
+ [Was ist ein S3-Storage-Lens-Exportmanifest?](storage_lens_whatis_metrics_export_manifest.md)
+ [Grundlegendes zu den Exportschemas von Amazon S3 Storage Lens](storage_lens_understanding_metrics_export_schema.md)

# Verwenden Sie eine AWS KMS key , um Ihre Metrikexporte zu verschlüsseln
<a name="storage_lens_encrypt_permissions"></a>

Um Amazon S3 Storage Lens die Berechtigung zum Verschlüsseln Ihrer Metrikexporte mit einem kundenverwalteten Schlüssel zu erteilen, müssen Sie eine Schlüsselrichtlinie verwenden. Gehen Sie folgendermaßen vor, um Ihre Schlüsselrichtlinie zu aktualisieren, damit Sie S3-Storage-Lens-Metrik-Exporte mit einem KMS-Schlüssel verschlüsseln können. 

**So gewähren Sie S3 Storage Lens Berechtigungen zum Verschlüsseln mithilfe Ihres KMS-Schlüssels**

1. Melden Sie sich mit dem AWS-Managementkonsole vom Kunden verwalteten Schlüssel an AWS-Konto , dem der Kunde gehört.

1. Öffnen Sie die AWS KMS Konsole unter [https://console.aws.amazon.com/kms](https://console.aws.amazon.com/kms).

1. Um das zu ändern AWS-Region, verwenden Sie die **Regionsauswahl** in der oberen rechten Ecke der Seite.

1. Klicken Sie im linken Navigationsbereich auf **Customer managed keys (Vom Kunden verwaltete Schlüssel)**. 

1. Wählen Sie unter **Vom Kunden verwaltete Schlüssel** den Schlüssel aus, den Sie zur Verschlüsselung der Metrikexporte verwenden möchten. AWS KMS keys sind regionsspezifisch und müssen sich in derselben Region befinden wie der S3-Bucket, in dem der Metrikexport ausgeführt wird.

1. Wählen Sie unter **Key policy (Schlüsselrichtlinie)** die Option **Switch to policy view (Zur Richtlinienansicht wechseln)** aus. 

1. Um die Schlüsselrichtlinie zu aktualisieren, wählen Sie **Bearbeiten** aus. 

1. Fügen Sie unter **Edit key policy (Schlüsselrichtlinie bearbeiten)** die folgende Schlüsselrichtlinie zu der vorhandenen Schlüsselrichtlinie hinzu. Wenn Sie diese Richtlinie verwenden möchten, ersetzen Sie ` user input placeholders ` durch eigene Informationen.

   ```
   {
       "Sid": "Allow Amazon S3 Storage Lens use of the KMS key",
        "Effect": "Allow",
       "Principal": {
           "Service": "storage-lens.s3.amazonaws.com"
       },
       "Action": [
           "kms:GenerateDataKey"
       ],
       "Resource": "*",
       "Condition": {
          "StringEquals": {
              "aws:SourceArn": "arn:aws:s3:us-east-1:        source-account-id:storage-lens/your-dashboard-name",
              "aws:SourceAccount": "source-account-id"
           }
        }
   }
   ```

1. Wählen Sie **Änderungen speichern ** aus. 

Weitere Informationen zum Erstellen von kundenverwalteten Schlüsseln und zum Verwenden von Schlüsselrichtlinien finden Sie unter den folgenden Themen im *AWS Key Management Service Entwicklerhandbuch*: 
+  [Erstellen Sie einen KMS-Schlüssel](https://docs.aws.amazon.com/kms/latest/developerguide/create-keys.html) 
+  [Wichtige Richtlinien in AWS KMS](https://docs.aws.amazon.com/kms/latest/developerguide/key-policies.html) 

Sie können die AWS KMS `PUT` Schlüsselrichtlinien-API-Operation ([https://docs.aws.amazon.com/kms/latest/APIReference/API_PutKeyPolicy.html](https://docs.aws.amazon.com/kms/latest/APIReference/API_PutKeyPolicy.html)) auch verwenden, um die Schlüsselrichtlinie in die vom Kunden verwalteten Schlüssel zu kopieren, die Sie zur Verschlüsselung der Metrikexporte mithilfe der REST-API AWS CLI, und SDKs verwenden möchten.

# Was ist ein S3-Storage-Lens-Exportmanifest?
<a name="storage_lens_whatis_metrics_export_manifest"></a>

Die täglichen Metrikexporte von S3 Storage Lens in Allzweck-Buckets können aufgrund der großen aggregierten Datenmenge in mehrere Dateien aufgeteilt werden. Die Manifestdatei `manifest.json` beschreibt, wo sich die Metrik-Exportdateien für den jeweiligen Tag befinden. Immer wenn ein neuer Export geliefert wird, wird er von einem neuen Manifest begleitet. Jedes in der `manifest.json`-Datei enthaltene Manifest bietet Metadaten und andere grundlegende Informationen zum Export. 

Die Manifestinformationen umfassen die folgenden Eigenschaften:
+  `sourceAccountId` – Die Konto-ID des Konfigurationsinhabers.
+  `configId` – Eine eindeutige ID für das Dashboard.
+  `destinationBucket` – Der Amazon-Ressourcenname (ARN) des Ziel-Buckets, in dem der Metrik-Export abgelegt wird.
+  `reportVersion` – Die Version des Exports.
+  `reportDate` – Das Datum des Berichts.
+  `reportFormat` – Das Format des Berichts.
+  `reportSchema` – Das Schema des Berichts.
+  `reportFiles` – Die tatsächliche Liste der Exportberichtsdateien, die sich im Ziel-Bucket befinden.

Beispiel für einen Manifest-Zielpfad:

```
user-defined-prefix/StorageLens/111122223333/example-dashboard-configuration-id/V_1/manifests/dt=2025-03-18/manifest.json
```

Das folgende Beispiel zeigt eine `manifest.json` Datei für einen Standard-Metrikbericht von Storage Lens im CSV-Format:

```
{  
   "sourceAccountId": "111122223333",  
   "configId": "example-dashboard-configuration-id",  
   "destinationBucket": "arn:aws:s3:::amzn-s3-demo-destination-bucket",  
   "reportVersion": "V_1",  
   "reportDate": "2025-07-15",  
   "reportFormat": "CSV",  
   "reportSchema": "version_number,configuration_id,report_date,aws_account_number,aws_region,storage_class,record_type,record_value,bucket_name,metric_name,metric_value",  
   "reportFiles": [  
        {  
            "key": "DestinationPrefix/StorageLens/111122223333/example-dashboard-configuration-id/V_1/reports/dt=2025-07-15/12345678-1234-1234-1234-123456789012.csv",  
            "size": 1603959,  
            "md5Checksum": "2177e775870def72b8d84febe1ad3574"  
        }  
   ]  
}
```

Das folgende Beispiel zeigt eine `manifest.json` Datei für einen Bericht mit erweiterten Präfixen für Storage Lens im CSV-Format:

```
{  
   "sourceAccountId": "111122223333",  
   "configId": "example-dashboard-configuration-id",  
   "destinationBucket": "arn:aws:s3:::amzn-s3-demo-destination-bucket",   
   "reportVersion": "V_1",  
   "reportDate": "2025-11-03",  
   "reportFormat": "CSV",  
   "reportSchema": "version_number,configuration_id,report_date,aws_account_number,aws_region,storage_class,record_type,record_value,bucket_name,metric_name,metric_value",  
   "reportFiles": [  
        {  
            "key": "DestinationPrefix/StorageLensExpandedPrefixes/111122223333/example-dashboard-configuration-id/V_1/reports/dt=2025-11-03/EXAMPLE1234-56ab-78cd-90ef-EXAMPLE11111.csv",  
            "size": 1603959,  
            "md5Checksum": "2177e775870def72b8d84febe1ad3574"  
        }  
      ]  
}
```

Das folgende Beispiel zeigt eine `manifest.json` Datei für einen Storage Lens-Standardmetrikbericht im Parquet -Format:

```
{  
   "sourceAccountId": "111122223333",  
   "configId": "example-dashboard-configuration-id",  
   "destinationBucket": "arn:aws:s3:::amzn-s3-demo-destination-bucket",  
   "reportVersion": "V_1",  
   "reportDate": "2025-11-03",  
   "reportFormat": "Parquet",  
   "reportSchema": "message s3.storage.lens { required string version_number; required string configuration_id; required string report_date; required string aws_account_number; required string aws_region; required string storage_class; required string record_type; required string record_value; required string bucket_name; required string metric_name; required long metric_value; }",  
   "reportFiles": [  
      {  
         "key": "DestinationPrefix/StorageLens/111122223333/example-dashboard-configuration-id/V_1/reports/dt=2025-11-03/bd23de7c-b46a-4cf4-bcc5-b21aac5be0f5.par",  
         "size": 14714,  
         "md5Checksum": "b5c741ee0251cd99b90b3e8eff50b944"  
      }  
   ]  
}
```

Das folgende Beispiel zeigt eine `manifest.json` Datei für einen Metrikbericht mit erweiterten Storage Parquet Lens-Präfixen im -Format:

```
{  
   "sourceAccountId": "111122223333",  
   "configId": "example-dashboard-configuration-id",  
   "destinationBucket": "arn:aws:s3:::amzn-s3-demo-destination-bucket",  
   "reportVersion": "V_1",  
   "reportDate": "2025-11-03",  
   "reportFormat": "Parquet",  
   "reportSchema": "message s3.storage.lens { required string version_number; required string configuration_id; required string report_date; required string aws_account_number; required string aws_region; required string storage_class; required string record_type; required string record_value; required string bucket_name; required string metric_name; required long metric_value; }",  
   "reportFiles": [  
      {  
         "key": "DestinationPrefix/StorageLensExpandedPrefixes/111122223333/example-dashboard-configuration-id/V_1/reports/dt=2025-11-03/bd23de7c-b46a-4cf4-bcc5-b21aac5be0f5.par",  
         "size": 14714,  
         "md5Checksum": "b5c741ee0251cd99b90b3e8eff50b944"  
      }  
   ]  
}
```

Sie können Ihren Metrikexport so konfigurieren, dass er als Teil Ihrer Dashboard-Konfiguration in der Amazon S3 S3-Konsole oder mithilfe der Amazon S3 S3-REST-API, AWS CLI, und generiert wird SDKs.

# Grundlegendes zu den Exportschemas von Amazon S3 Storage Lens
<a name="storage_lens_understanding_metrics_export_schema"></a>

Die Exportschemas von S3 Storage Lens variieren je nach Ihrem Exportziel. Wählen Sie das passende Schema aus, je nachdem, ob Sie in S3-Allzweck-Buckets oder S3-Tabellen exportieren.

**Topics**
+ [Exportieren Sie das Schema für S3-Allzweck-Buckets](#storage_lens_general_purpose_bucket_schema)
+ [Exportieren Sie Schemas für S3-Tabellen](#storage_lens_s3_tables_schema)

## Exportieren Sie das Schema für S3-Allzweck-Buckets
<a name="storage_lens_general_purpose_bucket_schema"></a>

Die folgende Tabelle enthält das Schema für den Export Ihrer S3 Storage Lens-Metriken beim Export in S3-Allzweck-Buckets.


| Attributname  | Datentyp | Spaltenname | Beschreibung | 
| --- | --- | --- | --- | 
|  VersionNumber  | Zeichenfolge |  version\$1number  | Die Version der verwendeten S3-Storage-Lens-Metriken. | 
|  ConfigurationId  | Zeichenfolge |  configuration\$1id  | Die  configuration\$1id Ihrer S3-Storage-Lens-Konfiguration. | 
|  ReportDate  | Zeichenfolge  |  report\$1date  | Das Datum, an dem die Metriken erfasst wurden. | 
|  AwsAccountNumber  |  Zeichenfolge  |  aws\$1account\$1number  | Ihre AWS-Konto Nummer. | 
|  AwsRegion  |  Zeichenfolge  |  aws\$1region  | Die, AWS-Region für die die Metriken verfolgt werden. | 
|  StorageClass  |  Zeichenfolge  |  storage\$1class  | Die Speicherklasse des betreffenden Buckets. | 
|  RecordType  |  ENUM  |  record\$1type  |  Die Art des Artefakts, das gemeldet wird (ACCOUNTBUCKET, oderPREFIX).  | 
|  RecordValue  |  Zeichenfolge  |  record\$1value  | Der Wert des RecordType-Artefakts.  Der`record_value` ist URL-kodiert.   | 
|  BucketName  |  Zeichenfolge  |  bucket\$1name  | Der Name des Buckets, der gemeldet wird. | 
|  MetricName  |  Zeichenfolge  |  metric\$1name  | Der Name der Metrik, die gemeldet wird. | 
|  MetricValue  |  Long  |  metric\$1value  | Der Wert der Metrik, die gemeldet wird. | 

### Beispiel für einen S3-Storage-Lens-Metrik-Export
<a name="storage_lens_sample_metrics_export"></a>

Im Folgenden sehen Sie ein Beispiel für einen auf diesem Schema basierenden S3-Storage-Lens-Metrik-Export. 

**Anmerkung**  
Sie können Metriken für Storage-Lens-Gruppen ermitteln, indem Sie in der Spalte `record_type` nach dem Wert `STORAGE_LENS_GROUP_BUCKET` oder `STORAGE_LENS_GROUP_ACCOUNT` suchen. In der Spalte `record_value` wird der Amazon-Ressourcenname (ARN) für die Storage-Lens-Gruppe angezeigt (z. B. `arn:aws:s3:us-east-1:123456789012:storage-lens-group/slg-1`). 

![\[Ein Beispiel für eine S3-Storage-Lens-Metrikexportdatei.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/sample_storage_lens_export.png)


Im Folgenden finden Sie ein Beispiel für einen S3-Storage-Lens-Metrikexport mit Storage-Lens-Gruppendaten.

![\[Ein Beispiel für einen S3-Storage-Lens-Metrikexport mit Storage-Lens-Gruppendaten.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/StorageLensGroups_metricsexport.png)


## Exportieren Sie Schemas für S3-Tabellen
<a name="storage_lens_s3_tables_schema"></a>

Beim Exportieren von S3 Storage Lens-Metriken in S3-Tabellen werden die Daten in drei separaten Tabellenschemas organisiert: Speichermetriken, Bucket-Eigenschaftsmetriken und Aktivitätsmetriken.

**Topics**
+ [Schema der Tabelle mit Speichermetriken](#storage_lens_s3_tables_storage_metrics)
+ [Tabellenschema für Kennzahlen zur Bucket-Eigenschaft](#storage_lens_s3_tables_bucket_property_metrics)
+ [Schema der Tabelle mit Aktivitätsmetriken](#storage_lens_s3_tables_activity_metrics)

### Schema der Tabelle mit Speichermetriken
<a name="storage_lens_s3_tables_storage_metrics"></a>


| Name | Typ | Description | 
| --- | --- | --- | 
|  version\$1number  | Zeichenfolge | Versions-ID des Schemas der Tabelle | 
|  configuration\$1id  | Zeichenfolge | Name der Konfiguration von S3 Storage Lens | 
|  report\$1time  | timestamptz | Datum, auf das sich der S3 Storage Lens-Bericht bezieht | 
|  aws\$1account\$1id  | Zeichenfolge | Konto-ID, auf die sich der Eintrag bezieht | 
|  aws\$1region  | Zeichenfolge | Region | 
|  storage\$1class  | Zeichenfolge | Speicherklasse | 
|  record\$1type  | Zeichenfolge | Art des Datensatzes, related auf welcher Ebene die Daten aggregiert werden. Werte: ACCOUNT, BUCKET, PREFIX, LENS GROUP.  | 
|  record\$1value  | Zeichenfolge | Begriffsklärung für Datensatztypen, die mehr als einen Datensatz enthalten. Es wird verwendet, um auf das Präfix zu verweisen | 
|  bucket\$1name  | Zeichenfolge | Bucket-Name | 
|  object\$1count  | long | Anzahl der Objekte, die für das aktuelle referenzierte Objekt gespeichert wurden | 
|  storage\$1bytes  | DEZIMAL (38,0) | Anzahl der für das aktuelle referenzierte Element gespeicherten Byte | 
|  bucket\$1key\$1sse\$1kms\$1object\$1count  | long | Anzahl der Objekte, die mit einem vom Kunden verwalteten Schlüssel verschlüsselt wurden und für das aktuelle referenzierte Objekt gespeichert wurden | 
|  bucket\$1key\$1sse\$1kms\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der Byte, die mit einem vom Kunden verwalteten Schlüssel verschlüsselt wurden und für den aktuell referenzierten Artikel gespeichert wurden | 
|  current\$1version\$1object\$1count  | long | Anzahl der Objekte der aktuellen Version, die für das aktuelle Objekt gespeichert wurden, auf das verwiesen wird | 
|  current\$1version\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der Byte der aktuellen Version, die für das aktuelle Element gespeichert wurden, auf das verwiesen wird | 
|  delete\$1marker\$1object\$1count  | long | Anzahl der Löschmarkierungsobjekte, die für das aktuelle referenzierte Objekt gespeichert wurden | 
|  delete\$1marker\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der für das aktuelle referenzierte Element gespeicherten Byte der Löschmarkierung | 
|  encrypted\$1object\$1count  | long | Anzahl der verschlüsselten Objekte, die für das aktuelle referenzierte Objekt gespeichert wurden | 
|  encrypted\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der verschlüsselten Byte, die für das aktuelle referenzierte Objekt gespeichert wurden | 
|  incomplete\$1mpu\$1object\$1older\$1than\$17\$1days\$1count  | long | Anzahl der unvollständigen mehrteiligen Upload-Objekte, die älter als 7 Tage sind und für das aktuelle referenzierte Objekt gespeichert wurden | 
|  incomplete\$1mpu\$1storage\$1older\$1than\$17\$1days\$1bytes  | DEZIMAL (38,0) | Anzahl der unvollständigen mehrteiligen Upload-Bytes, die für das aktuelle Objekt, auf das verwiesen wird, vor mehr als 7 Tagen gespeichert wurden | 
|  incomplete\$1mpu\$1object\$1count  | long | Anzahl der unvollständigen mehrteiligen Upload-Objekte, die für das aktuelle referenzierte Objekt gespeichert wurden | 
|  incomplete\$1mpu\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der unvollständigen mehrteiligen Upload-Bytes, die für das aktuelle Objekt gespeichert wurden, auf das verwiesen wird | 
|  non\$1current\$1version\$1object\$1count  | long | Anzahl der Objekte, die nicht in der aktuellen Version für das aktuelle Objekt gespeichert wurden, auf das verwiesen wird | 
|  non\$1current\$1version\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der Byte, die für das aktuelle Objekt gespeichert wurden, auf das verwiesen wird | 
|  object\$1lock\$1enabled\$1object\$1count  | long | Anzahl der Objekte, die für Objekte gespeichert wurden, für die die Sperre im aktuell referenzierten Element aktiviert ist | 
|  object\$1lock\$1enabled\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der Byte, die für Objekte gespeichert wurden, für die die Sperre aktiviert ist, im aktuellen Objekt, auf das verwiesen wird | 
|  replicated\$1object\$1count  | long | Anzahl der Objekte, die für das aktuelle referenzierte Objekt repliziert wurden | 
|  replicated\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der für das aktuelle referenzierte Element replizierten Byte | 
|  replicated\$1object\$1source\$1count  | long | Anzahl der Objekte, die als Quelle repliziert wurden und für das aktuelle referenzierte Element gespeichert wurden | 
|  replicated\$1storage\$1source\$1bytes  | DEZIMAL (38,0) | Anzahl der Byte, die als Quelle für das aktuelle referenzierte Element repliziert wurden | 
|  sse\$1kms\$1object\$1count  | long | Anzahl der mit dem SSE-Schlüssel verschlüsselten Objekte, die für das aktuelle Objekt gespeichert wurden, auf das verwiesen wird | 
|  sse\$1kms\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der mit dem SSE-Schlüssel verschlüsselten Byte, die für das aktuelle Objekt gespeichert wurden, auf das verwiesen wird | 
|  object\$10kb\$1count  | long | Anzahl der Objekte mit einer Größe von 0 KB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$10kb\$1to\$1128kb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 0 KB und weniger als 128 KB, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1128kb\$1to\$1256kb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 128 KB und weniger als 256 KB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1256kb\$1to\$1512kb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 256 KB und weniger als 512 KB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1512kb\$1to\$11mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 512 KB und weniger als 1 MB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$11mb\$1to\$12mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 1 MB und weniger als 2 MB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$12mb\$1to\$14mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 2 MB und weniger als 4 MB, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$14mb\$1to\$18mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 4 MB und weniger als 8 MB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$18mb\$1to\$116mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 8 MB und weniger als 16 MB, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$116mb\$1to\$132mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 16 MB und weniger als 32 MB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$132mb\$1to\$164mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 32 MB und weniger als 64 MB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$164mb\$1to\$1128mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 64 MB und weniger als 128 MB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1128mb\$1to\$1256mb\$1count  | long | Anzahl der Objekte, die größer als 128 MB und kleiner als 256 MB sind, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1256mb\$1to\$1512mb\$1count  | long | Anzahl der Objekte, die größer als 256 MB und kleiner als 512 MB sind, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1512mb\$1to\$11gb\$1count  | long | Anzahl der Objekte, die größer als 512 MB und kleiner als 1 GB sind, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$11gb\$1to\$12gb\$1count  | long | Anzahl der Objekte, die größer als 1 GB und kleiner als 2 GB sind, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$12gb\$1to\$14gb\$1count  | long | Anzahl der Objekte, die größer als 2 GB und kleiner als 4 GB sind, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1larger\$1than\$14gb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 4 GB, einschließlich aktueller Versionen, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 

### Tabellenschema für Kennzahlen zur Bucket-Eigenschaft
<a name="storage_lens_s3_tables_bucket_property_metrics"></a>


| Name | Typ | Description | 
| --- | --- | --- | 
|  version\$1number  | Zeichenfolge | Versions-ID des Schemas der Tabelle | 
|  configuration\$1id  | Zeichenfolge | Name der Konfiguration von S3 Storage Lens | 
|  report\$1time  | timestamptz | Datum, auf das sich der S3 Storage Lens-Bericht bezieht | 
|  aws\$1account\$1id  | Zeichenfolge | Konto-ID, auf die sich der Eintrag bezieht | 
|  record\$1type  | Zeichenfolge | Art des Datensatzes, bezogen auf die Aggregationsebene der Daten. Werte: ACCOUNT, BUCKET, PREFIX, LENS GROUP.  | 
|  record\$1value  | Zeichenfolge | Begriffsklärung für Datensatztypen, die mehr als einen Datensatz enthalten. Es wird verwendet, um auf das Präfix zu verweisen. | 
|  aws\$1region  | Zeichenfolge | Region | 
|  storage\$1class  | Zeichenfolge | Speicherklasse | 
|  bucket\$1name  | Zeichenfolge | Bucket-Name | 
|  versioning\$1enabled\$1bucket\$1count  | long | Anzahl der Buckets mit aktivierter Versionierung für das aktuelle Objekt, auf das verwiesen wird | 
|  mfa\$1delete\$1enabled\$1bucket\$1count  | long | Anzahl der Buckets mit aktiviertem MFA-Löschen für das aktuelle referenzierte Objekt | 
|  sse\$1kms\$1enabled\$1bucket\$1count  | long | Anzahl der Buckets, für die KMS für das aktuell referenzierte Objekt aktiviert ist | 
|  object\$1ownership\$1bucket\$1owner\$1enforced\$1bucket\$1count  | long | Anzahl der Buckets, für die der Besitzer des Buckets Object Ownership für das aktuell referenzierte Objekt aktiviert wurde | 
|  object\$1ownership\$1bucket\$1owner\$1preferred\$1bucket\$1count  | long | Anzahl der Buckets, bei denen der Besitzer des Buckets Object Ownership für das aktuell referenzierte Objekt bevorzugt wird | 
|  object\$1ownership\$1object\$1writer\$1bucket\$1count  | long | Anzahl der Buckets mit Object Ownership Object Writer für das aktuelle Objekt, auf das verwiesen wird | 
|  transfer\$1acceleration\$1enabled\$1bucket\$1count  | long | Anzahl der Buckets, für die die Übertragungsbeschleunigung für das aktuell referenzierte Objekt aktiviert ist | 
|  event\$1notification\$1enabled\$1bucket\$1count  | long | Anzahl der Buckets, für die die Ereignisbenachrichtigung für das aktuell referenzierte Objekt aktiviert ist | 
|  transition\$1lifecycle\$1rule\$1count  | long | Anzahl der Lebenszyklusregeln für den Übergang für das aktuelle Objekt, auf das verwiesen wird | 
|  expiration\$1lifecycle\$1rule\$1count  | long | Anzahl der Ablauflebenszyklusregeln für den aktuellen Artikel, auf den verwiesen wird | 
|  non\$1current\$1version\$1transition\$1lifecycle\$1rule\$1count  | long | Anzahl der Lebenszyklusregeln für den veralteten Versionsübergang für den aktuellen Artikel, auf den verwiesen wird | 
|  non\$1current\$1version\$1expiration\$1lifecycle\$1rule\$1count  | long | Anzahl der Lebenszyklusregeln für den Ablauf einer veralteten Version für das aktuelle Objekt, auf das verwiesen wird | 
|  abort\$1incomplete\$1multipart\$1upload\$1lifecycle\$1rule\$1count  | long | Anzahl der Lebenszyklusregeln zum Abbruch unvollständiger mehrteiliger Uploads für das aktuelle Objekt, auf das verwiesen wird | 
|  expired\$1object\$1delete\$1marker\$1lifecycle\$1rule\$1count  | long | Anzahl der Lebenszyklusregeln für das aktuelle Objekt, auf das verwiesen wird | 
|  same\$1region\$1replication\$1rule\$1count  | long | Anzahl der Replikationsregeln für dieselbe Region für das aktuelle Objekt, auf das verwiesen wird | 
|  cross\$1region\$1replication\$1rule\$1count  | long | Anzahl der regionsübergreifenden Replikationsregeln für das aktuelle Objekt, auf das verwiesen wird | 
|  same\$1account\$1replication\$1rule\$1count  | long | Anzahl der Replikationsregeln für dasselbe Konto für das aktuelle Objekt, auf das verwiesen wird | 
|  cross\$1account\$1replication\$1rule\$1count  | long | Anzahl der kontenübergreifenden Replikationsregeln für das aktuelle Objekt, auf das verwiesen wird | 
|  invalid\$1destination\$1replication\$1rule\$1count  | long | Anzahl der Buckets mit ungültiger Zielreplikation für das aktuelle Objekt, auf das verwiesen wird | 

### Schema der Tabelle mit Aktivitätsmetriken
<a name="storage_lens_s3_tables_activity_metrics"></a>


| Name | Typ | Description | 
| --- | --- | --- | 
|  version\$1number  | Zeichenfolge | Versions-ID des Schemas der Tabelle | 
|  configuration\$1id  | Zeichenfolge | Name der Konfiguration von S3 Storage Lens | 
|  report\$1time  | timestamptz | Datum, auf das sich der S3 Storage Lens-Bericht bezieht | 
|  aws\$1account\$1id  | Zeichenfolge | Konto-ID, auf die sich der Eintrag bezieht | 
|  aws\$1region  | Zeichenfolge | Region | 
|  storage\$1class  | Zeichenfolge | Speicherklasse | 
|  record\$1type  | Zeichenfolge | Art des Datensatzes, bezogen auf die Aggregationsebene der Daten. Werte:ACCOUNT,BUCKET,PREFIX.  | 
|  record\$1value  | Zeichenfolge | Disambiguator für Datensatztypen, die mehr als einen Datensatz enthalten. Es wird verwendet, um auf das Präfix zu verweisen | 
|  bucket\$1name  | Zeichenfolge | Bucket-Name | 
|  all\$1request\$1count  | long | Anzahl der \$1alle\$1 Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  all\$1sse\$1kms\$1encrypted\$1request\$1count  | long | Anzahl der KMS-verschlüsselten Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  all\$1unsupported\$1sig\$1request\$1count  | long | Anzahl der nicht unterstützten SIG-Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  all\$1unsupported\$1tls\$1request\$1count  | long | Anzahl der nicht unterstützten TLS-Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  bad\$1request\$1error\$1400\$1count  | long | Anzahl von 400 fehlerhaften Anforderungsfehlern für das aktuelle Objekt, auf das verwiesen wird | 
|  delete\$1request\$1count  | long | Anzahl der Löschanfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  downloaded\$1bytes  | dezimal (0,0) | Anzahl der heruntergeladenen Byte für das aktuelle Objekt, auf das verwiesen wird | 
|  error\$14xx\$1count  | long | Anzahl der 4xx-Fehler für das aktuelle Objekt, auf das verwiesen wird | 
|  error\$15xx\$1count  | long | Anzahl der 5xx-Fehler für den aktuellen Artikel, auf den verwiesen wird | 
|  forbidden\$1error\$1403\$1count  | long | Anzahl der 403 verbotenen Fehler für das aktuelle Objekt, auf das verwiesen wird | 
|  get\$1request\$1count  | long | Anzahl der Abrufanforderungen für das aktuelle Objekt, auf das verwiesen wird | 
|  head\$1request\$1count  | long | Anzahl der Head-Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  internal\$1server\$1error\$1500\$1count  | long | Anzahl von 500 internen Serverfehlern für das aktuelle Objekt, auf das verwiesen wird | 
|  list\$1request\$1count  | long | Anzahl der Listenanfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  not\$1found\$1error\$1404\$1count  | long | Anzahl der 404-Fehler „Nicht gefunden“ für das aktuelle Objekt, auf das verwiesen wird | 
|  ok\$1status\$1200\$1count  | long | Anzahl von 200 OK-Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  partial\$1content\$1status\$1206\$1count  | long | Anzahl von 206 unvollständigen Inhaltsanfragen für das aktuelle referenzierte Element | 
|  post\$1request\$1count  | long | Anzahl der Post-Anfragen für den aktuellen Artikel, auf den verwiesen wird | 
|  put\$1request\$1count  | long | Anzahl der Put-Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  select\$1request\$1count  | long | Anzahl der ausgewählten Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  select\$1returned\$1bytes  | dezimal (0,0) | Anzahl der Byte, die von ausgewählten Anfragen für das aktuelle referenzierte Element zurückgegeben wurden | 
|  select\$1scanned\$1bytes  | dezimal (0,0) | Anzahl der Byte, die von ausgewählten Anfragen für das aktuelle Objekt, auf das verwiesen wird, gescannt wurden | 
|  service\$1unavailable\$1error\$1503\$1count  | long | Anzahl der 503 Fehler, auf die der Dienst nicht verfügbar ist, für das aktuelle Objekt, auf das verwiesen wird | 
|  uploaded\$1bytes  | dezimal (0,0) | Anzahl der hochgeladenen Byte für das aktuelle Objekt, auf das verwiesen wird | 
|  average\$1first\$1byte\$1latency  | long | Durchschnittliche Zeit pro Anfrage zwischen dem Zeitpunkt, an dem ein S3-Bucket eine vollständige Anfrage empfängt, und dem Zeitpunkt, an dem er beginnt, die Antwort zurückzugeben, gemessen in den letzten 24 Stunden | 
|  average\$1total\$1request\$1latency  | long | Durchschnittlich verstrichene Zeit pro Anfrage zwischen dem ersten empfangenen Byte und dem letzten an einen S3-Bucket gesendeten Byte, gemessen in den letzten 24 Stunden | 
|  read\$10kb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von 0 KB, einschließlich bereichsbasierter Anfragen und Anfragen ganzer Objekte | 
|  read\$10kb\$1to\$1128kb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 0 KB und bis zu 128 KB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1128kb\$1to\$1256kb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 128 KB und bis zu 256 KB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1256kb\$1to\$1512kb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 256 KB und bis zu 512 KB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1512kb\$1to\$11mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 512 KB und bis zu 1 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$11mb\$1to\$12mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 1 MB und bis zu 2 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$12mb\$1to\$14mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 2 MB und bis zu 4 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$14mb\$1to\$18mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 4 MB und bis zu 8 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$18mb\$1to\$116mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 8 MB und bis zu 16 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$116mb\$1to\$132mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 16 MB und bis zu 32 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$132mb\$1to\$164mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 32 MB und bis zu 64 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$164mb\$1to\$1128mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 64 MB und bis zu 128 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1128mb\$1to\$1256mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 128 MB und bis zu 256 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1256mb\$1to\$1512mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 256 MB und bis zu 512 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1512mb\$1to\$11gb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 512 MB und bis zu 1 GB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$11gb\$1to\$12gb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 1 GB und bis zu 2 GB, einschließlich bereichsbasierter Anfragen und Anfragen für das gesamte Objekt | 
|  read\$12gb\$1to\$14gb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 2 GB und bis zu 4 GB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1larger\$1than\$14gb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 4 GB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  write\$10kb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von 0 KB | 
|  write\$10kb\$1to\$1128kb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 0 KB und bis zu 128 KB | 
|  write\$1128kb\$1to\$1256kb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 128 KB und bis zu 256 KB | 
|  write\$1256kb\$1to\$1512kb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 256 KB und bis zu 512 KB | 
|  write\$1512kb\$1to\$11mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 512 KB und bis zu 1 MB | 
|  write\$11mb\$1to\$12mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 1 MB und bis zu 2 MB | 
|  write\$12mb\$1to\$14mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 2 MB und bis zu 4 MB | 
|  write\$14mb\$1to\$18mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 4 MB und bis zu 8 MB | 
|  write\$18mb\$1to\$116mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 8 MB und bis zu 16 MB | 
|  write\$116mb\$1to\$132mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 16 MB und bis zu 32 MB | 
|  write\$132mb\$1to\$164mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 32 MB und bis zu 64 MB | 
|  write\$164mb\$1to\$1128mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 64 MB und bis zu 128 MB | 
|  write\$1128mb\$1to\$1256mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 128 MB und bis zu 256 MB | 
|  write\$1256mb\$1to\$1512mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 256 MB und bis zu 512 MB | 
|  write\$1512mb\$1to\$11gb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen über 512 MB und bis zu 1 GB | 
|  write\$11gb\$1to\$12gb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 1 GB und bis zu 2 GB | 
|  write\$12gb\$1to\$14gb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 2 GB und bis zu 4 GB | 
|  write\$1larger\$1than\$14gb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 4 GB | 
|  concurrent\$1put\$1503\$1error\$1count  | long | Anzahl der 503 Fehler, die aufgrund gleichzeitiger Schreibvorgänge auf dasselbe Objekt generiert wurden | 
|  cross\$1region\$1request\$1count  | long | Anzahl der Anfragen, die von einem Client in einer anderen Region als der Heimatregion des Buckets stammen | 
|  cross\$1region\$1transferred\$1bytes  | dezimal (0,0) | Anzahl der Byte, die von Aufrufen in einer anderen Region als der Heimatregion des Buckets übertragen wurden | 
|  cross\$1region\$1without\$1replication\$1request\$1count  | long | Anzahl der Anfragen, die von einem Client in einer anderen Region als der Heimatregion des Buckets stammen, ausgenommen regionsübergreifende Replikationsanfragen | 
|  cross\$1region\$1without\$1replication\$1transferred\$1bytes  | dezimal (0,0) | Anzahl der Byte, die von Aufrufen in einer anderen Region als der Heimatregion des Buckets übertragen werden, ausgenommen regionsübergreifende Replikationsbytes | 
|  inregion\$1request\$1count  | long | Anzahl der Anfragen, die von einem Client in derselben Region wie die Heimatregion des Buckets stammen | 
|  inregion\$1transferred\$1bytes  | dezimal (0,0) | Anzahl der Byte, die von Aufrufen aus derselben Region wie die Heimatregion des Buckets übertragen werden | 
|  unique\$1objects\$1accessed\$1daily\$1count  | long | Anzahl der Objekte, auf die in den letzten 24 Stunden mindestens einmal zugegriffen wurde | 

# Überwachen Sie die Metriken von S3 Storage Lens in CloudWatch
<a name="storage_lens_view_metrics_cloudwatch"></a>

Sie können S3 Storage Lens-Metriken auf Amazon veröffentlichen CloudWatch , um eine einheitliche Ansicht Ihres Betriebszustands in [CloudWatchDashboards](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html) zu erstellen. Sie können auch CloudWatch Funktionen wie Alarme und ausgelöste Aktionen, metrische Berechnungen und Anomalieerkennung verwenden, um S3 Storage Lens-Metriken zu überwachen und entsprechende Maßnahmen zu ergreifen. Darüber hinaus ermöglichen CloudWatch API-Operationen Anwendungen, einschließlich Drittanbietern, den Zugriff auf Ihre S3 Storage Lens-Metriken. Weitere Informationen zu den CloudWatch Funktionen finden Sie im [ CloudWatch Amazon-Benutzerhandbuch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/cloudwatch_concepts.html).

Sie können die CloudWatch Veröffentlichungsoption für neue oder bestehende Dashboard-Konfigurationen mithilfe der Amazon S3 S3-Konsole, der Amazon S3 S3-REST-API und aktivieren AWS SDKs. AWS CLI Dashboards, die auf erweiterte Metriken und Empfehlungen von S3 Storage Lens aktualisiert wurden, können die CloudWatch Veröffentlichungsoption verwenden. Informationen zu Preisen für erweiterte Metriken und Empfehlungen von S3 Storage Lens finden Sie unter [Amazon-S3-Preise](https://aws.amazon.com/s3/pricing/). Es fallen keine zusätzlichen Gebühren für die Veröffentlichung von CloudWatch Metriken an. Es fallen jedoch andere CloudWatch Gebühren an, z. B. für Dashboards, Alarme und API-Aufrufe. Weitere Informationen finden Sie unter [ CloudWatchAmazon-Preise](https://aws.amazon.com/cloudwatch/pricing/). 

S3 Storage Lens-Metriken werden CloudWatch in dem Konto veröffentlicht, dem die S3 Storage Lens-Konfiguration gehört. Nachdem Sie die CloudWatch Veröffentlichungsoption in erweiterten Metriken aktiviert haben, können Sie auf Metriken auf Konto- und Bucket-Ebene nach Konfigurations-ID, Konto, Bucket (nur für Metriken auf Bucket-Ebene), Region und Speicherklasse in zugreifen. CloudWatch Metriken auf Präfix-Ebene sind in nicht verfügbar. CloudWatch

**Anmerkung**  
S3 Storage Lens-Metriken sind Tagesmetriken und werden CloudWatch nur einmal täglich veröffentlicht. Wenn Sie S3 Storage Lens-Metriken in abfragen CloudWatch, muss der Zeitraum für die Abfrage 1 Tag (86400 Sekunden) betragen. Nachdem Ihre täglichen S3 Storage Lens-Metriken in Ihrem S3 Storage Lens-Dashboard in der Amazon S3 S3-Konsole angezeigt werden, kann es einige Stunden dauern, bis dieselben Messwerte angezeigt werden CloudWatch. Wenn Sie die CloudWatch Veröffentlichungsoption für S3 Storage Lens-Metriken zum ersten Mal aktivieren, kann es bis zu 24 Stunden dauern, bis Ihre Metriken veröffentlicht CloudWatch werden. 

Nachdem Sie die CloudWatch Veröffentlichungsoption aktiviert haben, können Sie die folgenden CloudWatch Funktionen verwenden, um Ihre S3 Storage LensStorage Lens-Daten zu überwachen und zu analysieren:
+ [Dashboards](storage-lens-cloudwatch-monitoring-cloudwatch.md#storage-lens-cloudwatch-monitoring-cloudwatch-dashboards) — Verwenden Sie CloudWatch Dashboards, um benutzerdefinierte S3 Storage Lens-Dashboards zu erstellen. Teilen Sie Ihr CloudWatch Dashboard mit Personen, die keinen direkten Zugriff auf Ihr Dashboard haben AWS-Konto, teamübergreifend, mit Stakeholdern und mit Personen außerhalb Ihrer Organisation. 
+ [Alarme und ausgelöste Aktionen](storage-lens-cloudwatch-monitoring-cloudwatch.md#storage-lens-cloudwatch-monitoring-cloudwatch-alarms) – Konfigurieren Sie Alarme, die Metriken überwachen und Maßnahmen ergreifen, wenn ein Schwellenwert überschritten wird. Sie können beispielsweise einen Alarm konfigurieren, der eine Amazon-SNS-Benachrichtigung sendet, wenn die Metrik **Incomplete Multipart Upload Bytes** (Unvollständige Bytes für mehrteilige Uploads) an drei aufeinanderfolgenden Tagen 1 GB überschreitet. 
+ [Anomalieerkennung](storage-lens-cloudwatch-monitoring-cloudwatch.md#storage-lens-cloudwatch-monitoring-cloudwatch-alarms) – Ermöglichen Sie die Anomalieerkennung, um Metriken kontinuierlich zu analysieren, normale Baselines und Oberflächenanomalien zu ermitteln. Sie können einen Anomalieerkennungsalarm basierend auf dem erwarteten Wert einer Metrik erstellen. Sie können beispielsweise Anomalien für die Metrik **Object Lock Enabled Bytes** (Bytes mit aktivierter Objektsperre), um das unbefugte Entfernen von Objektsperreinstellungen zu erkennen.
+ Mithilfe von [Metrikberechnungen](storage-lens-cloudwatch-monitoring-cloudwatch.md#storage-lens-cloudwatch-monitoring-cloudwatch-metric-math) können Sie mehrere -Metriken mit S3-Storage-Lens-Metriken abfragen und mathematische Ausdrücke verwenden, um neue Zeitreihen basierend auf diesen Metriken zu erstellen. Sie können beispielsweise eine neue Metrik erstellen, um die durchschnittliche Objektgröße zu erhalten, indem Sie `StorageBytes` durch `ObjectCount` dividieren.

Weitere Informationen zur CloudWatch Veröffentlichungsoption für S3 Storage Lens-Metriken finden Sie in den folgenden Themen.

**Topics**
+ [Metriken und Dimensionen von S3 Storage Lens](storage-lens-cloudwatch-metrics-dimensions.md)
+ [Aktivierung der CloudWatch Veröffentlichung für S3 Storage Lens](storage-lens-cloudwatch-enable-publish-option.md)
+ [Arbeiten mit S3 Storage Lens-Metriken in CloudWatch](storage-lens-cloudwatch-monitoring-cloudwatch.md)

# Metriken und Dimensionen von S3 Storage Lens
<a name="storage-lens-cloudwatch-metrics-dimensions"></a>

Um S3 Storage Lens-Metriken an zu senden CloudWatch, müssen Sie die CloudWatch Veröffentlichungsoption in den erweiterten Messdaten von S3 Storage Lens aktivieren. Nachdem die erweiterten Metriken aktiviert wurden, können Sie [CloudWatchDashboards](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html) verwenden, um S3 Storage Lens-Metriken zusammen mit anderen Anwendungsmetriken zu überwachen und einen einheitlichen Überblick über Ihren Betriebsstatus zu erhalten. Sie können Dimensionen verwenden, um Ihre S3 Storage Lens-Metriken CloudWatch nach Organisation, Konto, Bereich, Speicherklasse, Region und Konfigurations-ID der Metriken zu filtern.

S3 Storage Lens-Metriken werden CloudWatch in dem Konto veröffentlicht, dem die S3 Storage Lens-Konfiguration gehört. Nachdem Sie die CloudWatch Veröffentlichungsoption in erweiterten Metriken aktiviert haben, können Sie auf Metriken auf Konto- und Bucket-Ebene nach Konfigurations-ID, Konto, Bucket (nur für Metriken auf Bucket-Ebene), Region und Speicherklasse in zugreifen. CloudWatch Metriken auf Präfix-Ebene sind in nicht verfügbar. CloudWatch

**Anmerkung**  
S3 Storage Lens-Metriken sind Tagesmetriken und werden CloudWatch nur einmal täglich veröffentlicht. Wenn Sie S3 Storage Lens-Metriken in abfragen CloudWatch, muss der Zeitraum für die Abfrage 1 Tag (86400 Sekunden) betragen. Nachdem Ihre täglichen S3 Storage Lens-Metriken in Ihrem S3 Storage Lens-Dashboard in der Amazon S3 S3-Konsole angezeigt werden, kann es einige Stunden dauern, bis dieselben Messwerte angezeigt werden CloudWatch. Wenn Sie die CloudWatch Veröffentlichungsoption für S3 Storage Lens-Metriken zum ersten Mal aktivieren, kann es bis zu 24 Stunden dauern, bis Ihre Metriken veröffentlicht CloudWatch werden. 

Weitere Informationen zu S3 Storage Lens-Metriken und -Dimensionen finden Sie in CloudWatch den folgenden Themen.

**Topics**
+ [Kennzahlen](#storage-lens-cloudwatch-metrics)
+ [Dimensionen](#storage-lens-cloudwatch-dimensions)

## Kennzahlen
<a name="storage-lens-cloudwatch-metrics"></a>

S3 Storage Lens-Metriken sind als Metriken innerhalb verfügbar CloudWatch. S3-Storage-Lens-Metriken werden auf dem `AWS/S3/Storage-Lens`-Namespace veröffentlicht. Dieser Namespace ist nur für S3-Storage-Lens-Metriken vorgesehen. Amazon-S3-Bucket, Anforderungs- und Replikations-Metriken werden im `AWS/S3`-Namespace veröffentlicht. 

S3 Storage Lens-Metriken werden CloudWatch in dem Konto veröffentlicht, dem die S3 Storage Lens-Konfiguration gehört. Nachdem Sie die CloudWatch Veröffentlichungsoption in erweiterten Metriken aktiviert haben, können Sie auf Metriken auf Konto- und Bucket-Ebene nach Konfigurations-ID, Konto, Bucket (nur für Metriken auf Bucket-Ebene), Region und Speicherklasse in zugreifen. CloudWatch Metriken auf Präfix-Ebene sind in nicht verfügbar. CloudWatch

In S3 Storage Lens werden Metriken aggregiert und nur in der dafür vorgesehenen Heimatregion gespeichert. S3 Storage Lens-Metriken werden auch CloudWatch in der Heimatregion veröffentlicht, die Sie in der S3 Storage Lens-Konfiguration angeben. 

Eine vollständige Liste der S3 Storage Lens-Metriken, einschließlich einer Liste der in verfügbaren Metriken CloudWatch, finden Sie unter[Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md).

**Anmerkung**  
Die gültige Statistik für S3 Storage Lens-Metriken in CloudWatch lautet Durchschnitt. Weitere Informationen zu Statistiken finden Sie CloudWatch unter [ CloudWatch Statistikdefinitionen](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Statistics-definitions.html) im * CloudWatch Amazon-Benutzerhandbuch*.

### Granularität der S3 Storage Lens-Metriken in CloudWatch
<a name="storage-lens-cloudwatch-metrics-granularity"></a>

S3 Storage Lens bietet Metriken für Organisation, Konto, Bucket und Präfixgranularität. S3 Storage Lens veröffentlicht S3 Storage Lens-Metriken auf Organisations-, Konto- und Bucket-Ebene für. CloudWatch S3 Storage Lens-Metriken auf Präfix-Ebene sind in nicht verfügbar. CloudWatch

Weitere Informationen zur Granularität der S3 Storage Lens-Metriken, die in verfügbar sind CloudWatch, finden Sie in der folgenden Liste:
+ **Organisation** – In den Mitgliedskonten Ihrer Organisation aggregierte Metriken. S3 Storage Lens veröffentlicht Metriken für Mitgliedskonten CloudWatch im Verwaltungskonto. 
  + **Organisation und Konto** – Metriken für die Mitgliedskonten Ihrer Organisation. 
  + **Organisation und Bucket** – Metriken für Amazon-S3-Buckets in den Mitgliedskonten Ihrer Organisation.
+ **Konto** (Nicht-Organisationsebene) – Metriken, die in den Buckets Ihres Kontos zusammengefasst sind. 
+ **Bucket** (Nicht-Organisationsebene) – Metriken für einen bestimmten Bucket. In CloudWatch veröffentlicht S3 Storage Lens diese Metriken in der Datei AWS-Konto , die die S3 Storage Lens-Konfiguration erstellt hat. S3 Storage Lens veröffentlicht diese Metriken nur für nicht organisatorische Konfigurationen.

## Dimensionen
<a name="storage-lens-cloudwatch-dimensions"></a>

Wenn S3 Storage Lens Daten an sendet CloudWatch, werden jeder Metrik Dimensionen zugewiesen. Dimensionen sind Kategorien, die die Eigenschaften von Metriken beschreiben. Sie können Dimensionen verwenden, um die zurückgegebenen Ergebnisse zu filtern. CloudWatch 

Beispielsweise CloudWatch haben alle S3 Storage Lens-Metriken in die `configuration_id` Dimension. Sie können diese Dimension verwenden, um zwischen Metriken zu unterscheiden, die mit einer bestimmten S3-Storage-Lens-Konfiguration verknüpft sind. Die `organization_id` identifiziert Metriken auf Organisationsebene. Weitere Informationen zu Dimensionen in CloudWatch finden Sie unter [Dimensionen](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/cloudwatch_concepts.html#Dimension) im *CloudWatch Benutzerhandbuch*. 

Abhängig von der Granularität der Metriken sind für S3-Storage-Lens-Metriken unterschiedliche Dimensionen verfügbar. Sie können die `organization_id` Dimension beispielsweise verwenden, um Metriken auf Organisationsebene nach der AWS Organizations ID zu filtern. Sie können diese Dimension jedoch nicht für Metriken auf Bucket- und Kontoebene verwenden. Weitere Informationen finden Sie unter [Metriken mit Dimensionen filtern](storage-lens-cloudwatch-monitoring-cloudwatch.md#storage-lens-cloudwatch-monitoring-cloudwatch-dimensions).

Auf der folgenden Tabelle können Sie erkennen, welche Dimensionen für Ihre S3-Storage-Lens-Konfiguration verfügbar sind.


|  **Dimension**  |  **Beschreibung**  |  **Bucket**  | **Account** |  **Organisation**  |  **Organisation und Bucket**  |  **Organisation und Konto**  | 
| --- | --- | --- | --- | --- | --- | --- | 
| configuration\$1id |  Der in den Metriken gemeldete Dashboard-Name für die S3-Storage-Lens-Konfiguration  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | 
| metrics\$1version |  Die Version der S3-Storage-Lens-Metriken. Die Metrikversion hat einen festen Wert von `1.0`.  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | 
| organization\$1id |  Die AWS Organizations ID für die Metriken  | ![\[No\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-no.png)  | ![\[No\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-no.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | 
| aws\$1account\$1number | Die AWS-Konto , die mit den Metriken verknüpft ist | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[No\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-no.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | 
| aws\$1region | Das AWS-Region für die Metriken | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | 
| bucket\$1name |  Der Name des in den Metriken gemeldeten S3-Buckets  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[No\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-no.png)  | ![\[No\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-no.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[No\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-no.png)  | 
| storage\$1class |  Die Speicherklasse für den Bucket, die in den Metriken gemeldet wird  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)  | 
| record\$1type |  Die Granularität der Metriken: ORGANIZATION, ACCOUNT, BUCKET  | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)-BUCKET | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)-KONTO | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)-BUCKET | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png)-KONTO | ![\[Yes\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/icon-yes.png) ORGANIZATION | 

# Aktivierung der CloudWatch Veröffentlichung für S3 Storage Lens
<a name="storage-lens-cloudwatch-enable-publish-option"></a>

Sie können S3 Storage Lens-Metriken auf Amazon veröffentlichen CloudWatch , um eine einheitliche Ansicht Ihres Betriebszustands in [CloudWatchDashboards](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html) zu erstellen. Sie können auch CloudWatch Funktionen wie Alarme und ausgelöste Aktionen, metrische Berechnungen und Anomalieerkennung verwenden, um S3 Storage Lens-Metriken zu überwachen und entsprechende Maßnahmen zu ergreifen. Darüber hinaus ermöglichen CloudWatch API-Operationen Anwendungen, einschließlich Drittanbietern, den Zugriff auf Ihre S3 Storage Lens-Metriken. Weitere Informationen zu den CloudWatch Funktionen finden Sie im [ CloudWatch Amazon-Benutzerhandbuch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/cloudwatch_concepts.html).

S3 Storage Lens-Metriken werden CloudWatch in dem Konto veröffentlicht, dem die S3 Storage Lens-Konfiguration gehört. Nachdem Sie die CloudWatch Veröffentlichungsoption in erweiterten Metriken aktiviert haben, können Sie auf Metriken auf Konto- und Bucket-Ebene nach Konfigurations-ID, Konto, Bucket (nur für Metriken auf Bucket-Ebene), Region und Speicherklasse in zugreifen. CloudWatch Metriken auf Präfix-Ebene sind in nicht verfügbar. CloudWatch

Sie können die CloudWatch Unterstützung für neue oder bestehende Dashboard-Konfigurationen aktivieren, indem Sie die S3-Konsole, Amazon S3 REST APIs und verwenden AWS SDKs. AWS CLI Die CloudWatch Veröffentlichungsoption ist für Dashboards verfügbar, die auf erweiterte Metriken und Empfehlungen von S3 Storage Lens aktualisiert wurden. Informationen zu Preisen für erweiterte Metriken und Empfehlungen von S3 Storage Lens finden Sie unter [Amazon-S3-Preise](https://aws.amazon.com/s3/pricing/). Es fallen keine zusätzlichen Gebühren für die Veröffentlichung von CloudWatch Metriken an. Es fallen jedoch andere CloudWatch Gebühren an, z. B. für Dashboards, Alarme und API-Aufrufe.

Informationen zur Aktivierung der CloudWatch Veröffentlichungsoption für S3 Storage Lens-Metriken finden Sie in den folgenden Themen.

**Anmerkung**  
S3 Storage Lens-Metriken sind Tagesmetriken und werden bis zu CloudWatch einmal täglich veröffentlicht. Wenn Sie S3 Storage Lens-Metriken in abfragen CloudWatch, muss der Zeitraum für die Abfrage 1 Tag (86400 Sekunden) betragen. Nachdem Ihre täglichen S3 Storage Lens-Metriken in Ihrem S3 Storage Lens-Dashboard in der Amazon S3 S3-Konsole angezeigt werden, kann es einige Stunden dauern, bis dieselben Messwerte angezeigt werden CloudWatch. Wenn Sie die CloudWatch Veröffentlichungsoption für S3 Storage Lens-Metriken zum ersten Mal aktivieren, kann es bis zu 24 Stunden dauern, bis Ihre Metriken veröffentlicht CloudWatch werden.   
Derzeit können S3 Storage Lens-Metriken nicht über CloudWatch Streams abgerufen werden. 

## Verwenden der S3-Konsole
<a name="storage-lens-cloudwatch-enable-publish-console"></a>

Wenn Sie ein S3-Storage-Lens-Dashboard aktualisieren, können Sie den Dashboard-Namen oder die Heimatregion nicht ändern. Sie können auch den Umfang des Standard-Dashboards nicht ändern, das auf den gesamten Speicher Ihres Kontos abgestimmt ist.

**Um ein S3 Storage Lens-Dashboard zu aktualisieren, um die CloudWatch Veröffentlichung zu ermöglichen**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **S3 Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie das Dashboard aus, das Sie bearbeiten möchten, und wählen Sie dann **Bearbeiten**.

1. Unter **Metrikauswahl**, wählen Sie **Fortschrittliche Metriken und Empfehlungen** aus.

   Fortschrittliche Metriken und Empfehlungen sind gegen Aufpreis erhältlich. Zu den erweiterten Kennzahlen und Empfehlungen gehören ein Zeitraum von 15 Monaten für Datenabfragen, auf Präfix-Ebene aggregierte Nutzungsmetriken, nach Bucket aggregierte Aktivitätsmetriken, die CloudWatch Veröffentlichungsoption und kontextuelle Empfehlungen, die Ihnen helfen, die Speicherkosten zu optimieren und bewährte Datenschutzpraktiken anzuwenden. Weitere Informationen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).

1. **Wählen Sie unter Erweiterte Funktionen für Metriken und Empfehlungen auswählen** **die Option Veröffentlichung aus. CloudWatch**
**Wichtig**  
Wenn Ihre Konfiguration die Präfixaggregation für Nutzungsmetriken aktiviert, werden Metriken auf Präfixebene nicht veröffentlicht. CloudWatch Nur S3 Storage Lens-Metriken auf Bucket-, Konto- und Organisationsebene werden veröffentlicht. CloudWatch

1. Wählen Sie **Änderungen speichern ** aus.

**Um ein neues S3 Storage Lens-Dashboard zu erstellen, das Support ermöglicht CloudWatch**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus. 

1. Klicken Sie auf **Dashboard erstellen**. 

1. Definieren Sie unter **General** (Allgemein) die folgenden Konfigurationsoptionen:

   1. Geben Sie im Feld **Dashboard name** (Dashboard-Name) Ihren Dashboard-Namen ein.

      Dashboard-Namen müssen weniger als 65 Zeichen lang sein und dürfen keine Sonderzeichen oder Leerzeichen enthalten. Sie können den Dashboard-Namen nicht mehr ändern, nachdem Sie Ihr Dashboard erstellt haben.

   1. Wählen Sie die **Heimatregion** für Ihr Dashboard aus.

      Metriken für alle Regionen, die in diesem Dashboard-Umfang enthalten sind, werden zentral in der angegebenen Heimatregion gespeichert. In CloudWatch, S3 Storage Lens-Metriken sind auch in der Heimatregion verfügbar. Sie können die Heimatregion nicht ändern, nachdem Sie Ihr Dashboard erstellt haben.

1. (Optional) Sie fügen ein Tag hinzu, indem Sie **Add tag (Tag hinzufügen)** auswählen und den **Schlüssel** und den **Wert** für den Tag eingeben.
**Anmerkung**  
Sie können Ihrer Dashboard-Konfiguration bis zu 50 Markierungen hinzufügen.

1. Definieren Sie den Umfang für Ihre Konfiguration:

   1. Wenn Sie eine Konfiguration auf Organisationsebene erstellen, wählen Sie die Konten aus, die in die Konfiguration aufgenommen werden sollen: **Include all accounts in your configuration** (Alle Konten in die Konfiguration einschließen) oder **Limit the scope to your signed-in account** (Umfang auf das angemeldete Konto beschränken).
**Anmerkung**  
Wenn Sie eine Konfiguration auf Organisationsebene erstellen, die alle Konten enthält, können Sie nur Regionen und keine Buckets ein- oder ausschließen.

   1. Wählen Sie die Regionen und Buckets aus, die S3 Storage Lens im Dashboard einschließen soll, indem Sie die folgenden Schritte ausführen:
      + Um alle Regionen einzuschließen, wählen Sie **Regionen und Buckets einschließen** aus.
      + Um bestimmte Regionen einzubeziehen, löschen Sie **Alle Regionen einschließen**. Unter **Wählen Sie die einzuschließenden Regionen** wählen Sie die Regionen aus, die S3 Storage Lens im Dashboard enthalten soll.
      + Um bestimmte Buckets einzubeziehen, löschen Sie **Alle Buckets einschließen**. Wählen Sie unter **Einzuschließende Buckets auswählen** die Buckets aus, die S3 Storage Lens in das Dashboard aufnehmen soll. 
**Anmerkung**  
Sie können bis zu 50 Buckets auswählen.

1. Unter **Metrics selection** (Metrikauswahl) wählen Sie **Advanced metrics and recommendations** (Erweiterte Metriken und Empfehlungen) aus.

   Weitere Informationen zu fortschrittlichen Metriken und Preisempfehlungen finden Sie unter [Amazon-S3-Preise](https://aws.amazon.com/s3/pricing/). 

1. Wählen Sie unter **Advanced metrics and recommendations features** (Erweiterte Metrik- und Empfehlungsfunktionen) die Optionen aus, Sie aktivieren möchten:
   + **Advanced metrics** (Erweiterte Metriken) 
   + **CloudWatch veröffentlichen**
**Wichtig**  
Wenn Sie die Präfixaggregation für Ihre S3 Storage Lens-Konfiguration aktivieren, werden Metriken auf Präfixebene nicht veröffentlicht. CloudWatch Nur S3 Storage Lens-Metriken auf Bucket-, Konto- und Organisationsebene werden veröffentlicht. CloudWatch
   + **Präfixzusammenfassung**
**Anmerkung**  
Weitere Informationen über erweiterte Metriken und Empfehlungen finden Sie unter [Auswahl der Metriken](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

1. Wenn Sie **Advanced Metrics** (Erweiterte Metriken) aktiviert haben, wählen Sie die **Advanced metrics categories** (Erweiterte Metrikkategorien) aus, die Sie in Ihrem S3-Storage-Lens-Dashboard anzeigen möchten:
   + **Metriken für Aktivitäten**
   + **Detailed status code metrics** (Detaillierte Statuscode-Metriken)
   + **Advanced cost optimization metrics** (Erweiterte Kostenoptimierungsmetriken)
   + **Advanced data protection metrics** (Erweiterte Datensicherheitsmetriken)

   Weitere Informationen zu den Metrikkategorien finden Sie unter [Metrikkategorien](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_types). Eine vollständige Liste der Metriken finden Sie unter [Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md).

1. (Optional) Konfigurieren Sie den Metrikexport.

   Weitere Informationen zum Konfigurieren eines Metrikexports finden Sie unter Schritt [Verwenden der S3-Konsole](storage_lens_creating_dashboard.md#storage_lens_console_creating).

1. Klicken Sie auf **Dashboard erstellen**.

## Mit dem AWS CLI
<a name="storage-lens-cloudwatch-enable-publish-cli"></a>

Im folgenden AWS CLI Beispiel wird die CloudWatch Veröffentlichungsoption mithilfe einer Konfiguration für erweiterte Metriken und Empfehlungen von S3 Storage Lens auf Organisationsebene aktiviert. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.

```
aws s3control put-storage-lens-configuration --account-id=555555555555 --config-id=your-configuration-id --region=us-east-1 --storage-lens-configuration=file://./config.json

config.json
{
  "Id": "SampleS3StorageLensConfiguration",
  "AwsOrg": {
    "Arn": "arn:aws:organizations::123456789012:organization/o-abcdefgh"
  },
  "AccountLevel": {
    "ActivityMetrics": {
      "IsEnabled":true
    },
    "AdvancedCostOptimizationMetrics": {
      "IsEnabled":true
    },
    "AdvancedDataProtectionMetrics": {
      "IsEnabled":true
    },
    "DetailedStatusCodesMetrics": {
      "IsEnabled":true
    },
    "BucketLevel": {
      "ActivityMetrics": {
        "IsEnabled":true
      },
      "AdvancedCostOptimizationMetrics": {
        "IsEnabled":true
      },
      "DetailedStatusCodesMetrics": {
        "IsEnabled":true
      },
      "PrefixLevel":{
        "StorageMetrics":{
          "IsEnabled":true,
          "SelectionCriteria":{
            "MaxDepth":5,
            "MinStorageBytesPercentage":1.25,
            "Delimiter":"/"
          }
        }
      }
    }
  },
  "Exclude": {
    "Regions": [
      "eu-west-1"
    ],
    "Buckets": [
      "arn:aws:s3:::amzn-s3-demo-source-bucket "
    ]
  },
  "IsEnabled": true,
  "DataExport": {
    "S3BucketDestination": {
      "OutputSchemaVersion": "V_1",
      "Format": "CSV",
      "AccountId": "111122223333",
      "Arn": "arn:aws:s3:::amzn-s3-demo-destination-bucket",
      "Prefix": "prefix-for-your-export-destination",
      "Encryption": {
        "SSES3": {}
      }
    },
    "CloudWatchMetrics": {
      "IsEnabled": true
    }
  }
}
```

## Verwenden des AWS SDK for Java
<a name="storage-lens-cloudwatch-enable-publish-sdk"></a>

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.AccountLevel;
import com.amazonaws.services.s3control.model.ActivityMetrics;
import com.amazonaws.services.s3control.model.BucketLevel;
import com.amazonaws.services.s3control.model.CloudWatchMetrics;
import com.amazonaws.services.s3control.model.Format;
import com.amazonaws.services.s3control.model.Include;
import com.amazonaws.services.s3control.model.OutputSchemaVersion;
import com.amazonaws.services.s3control.model.PrefixLevel;
import com.amazonaws.services.s3control.model.PrefixLevelStorageMetrics;
import com.amazonaws.services.s3control.model.PutStorageLensConfigurationRequest;
import com.amazonaws.services.s3control.model.S3BucketDestination;
import com.amazonaws.services.s3control.model.SSES3;
import com.amazonaws.services.s3control.model.SelectionCriteria;
import com.amazonaws.services.s3control.model.StorageLensAwsOrg;
import com.amazonaws.services.s3control.model.StorageLensConfiguration;
import com.amazonaws.services.s3control.model.StorageLensDataExport;
import com.amazonaws.services.s3control.model.StorageLensDataExportEncryption;
import com.amazonaws.services.s3control.model.StorageLensTag;

import java.util.Arrays;
import java.util.List;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class CreateAndUpdateDashboard {

    public static void main(String[] args) {
        String configurationId = "ConfigurationId";
        String sourceAccountId = "Source Account ID";
        String exportAccountId = "Destination Account ID";
        String exportBucketArn = "arn:aws:s3:::amzn-s3-demo-destination-bucket"; // The destination bucket for your metrics export must be in the same Region as your S3 Storage Lens configuration.
        String awsOrgARN = "arn:aws:organizations::123456789012:organization/o-abcdefgh";
        Format exportFormat = Format.CSV;

        try {
            SelectionCriteria selectionCriteria = new SelectionCriteria()
                    .withDelimiter("/")
                    .withMaxDepth(5)
                    .withMinStorageBytesPercentage(10.0);
            PrefixLevelStorageMetrics prefixStorageMetrics = new PrefixLevelStorageMetrics()
                    .withIsEnabled(true)
                    .withSelectionCriteria(selectionCriteria);
            BucketLevel bucketLevel = new BucketLevel()
                    .withActivityMetrics(new ActivityMetrics().withIsEnabled(true))
                    .withAdvancedCostOptimizationMetrics(new AdvancedCostOptimizationMetrics().withIsEnabled(true))
                    .withAdvancedDataProtectionMetrics(new AdvancedDataProtectionMetrics().withIsEnabled(true))
                    .withDetailedStatusCodesMetrics(new DetailedStatusCodesMetrics().withIsEnabled(true))
                    .withPrefixLevel(new PrefixLevel().withStorageMetrics(prefixStorageMetrics));
            AccountLevel accountLevel = new AccountLevel()
                    .withActivityMetrics(new ActivityMetrics().withIsEnabled(true))
                    .withAdvancedCostOptimizationMetrics(new AdvancedCostOptimizationMetrics().withIsEnabled(true))
                    .withAdvancedDataProtectionMetrics(new AdvancedDataProtectionMetrics().withIsEnabled(true))
                    .withDetailedStatusCodesMetrics(new DetailedStatusCodesMetrics().withIsEnabled(true))
                    .withBucketLevel(bucketLevel);

            Include include = new Include()
                    .withBuckets(Arrays.asList("arn:aws:s3:::amzn-s3-demo-bucket"))
                    .withRegions(Arrays.asList("us-west-2"));

            StorageLensDataExportEncryption exportEncryption = new StorageLensDataExportEncryption()
                    .withSSES3(new SSES3());
            S3BucketDestination s3BucketDestination = new S3BucketDestination()
                    .withAccountId(exportAccountId)
                    .withArn(exportBucketArn)
                    .withEncryption(exportEncryption)
                    .withFormat(exportFormat)
                    .withOutputSchemaVersion(OutputSchemaVersion.V_1)
                    .withPrefix("Prefix");
            CloudWatchMetrics cloudWatchMetrics = new CloudWatchMetrics()
                    .withIsEnabled(true);
            StorageLensDataExport dataExport = new StorageLensDataExport()
                    .withCloudWatchMetrics(cloudWatchMetrics)
                    .withS3BucketDestination(s3BucketDestination);

            StorageLensAwsOrg awsOrg = new StorageLensAwsOrg()
                    .withArn(awsOrgARN);

            StorageLensConfiguration configuration = new StorageLensConfiguration()
                    .withId(configurationId)
                    .withAccountLevel(accountLevel)
                    .withInclude(include)
                    .withDataExport(dataExport)
                    .withAwsOrg(awsOrg)
                    .withIsEnabled(true);

            List<StorageLensTag> tags = Arrays.asList(
                    new StorageLensTag().withKey("key-1").withValue("value-1"),
                    new StorageLensTag().withKey("key-2").withValue("value-2")
            );

            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            s3ControlClient.putStorageLensConfiguration(new PutStorageLensConfigurationRequest()
                    .withAccountId(sourceAccountId)
                    .withConfigId(configurationId)
                    .withStorageLensConfiguration(configuration)
                    .withTags(tags)
            );
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

## Verwenden der REST-API
<a name="storage-lens-cloudwatch-enable-publish-api"></a>

Um die CloudWatch Veröffentlichungsoption mithilfe der Amazon S3 S3-REST-API zu aktivieren, können Sie verwenden [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_PutStorageLensConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_PutStorageLensConfiguration.html).

**Nächste Schritte**  
Nachdem Sie die CloudWatch Veröffentlichungsoption aktiviert haben, können Sie unter auf Ihre S3 Storage Lens-Metriken zugreifen CloudWatch. Sie können auch CloudWatch Funktionen zur Überwachung und Analyse Ihrer S3 Storage Lens-Daten in nutzen CloudWatch. Weitere Informationen finden Sie unter den folgenden Themen:
+ [Metriken und Dimensionen von S3 Storage Lens](storage-lens-cloudwatch-metrics-dimensions.md)
+ [Arbeiten mit S3 Storage Lens-Metriken in CloudWatch](storage-lens-cloudwatch-monitoring-cloudwatch.md)

# Arbeiten mit S3 Storage Lens-Metriken in CloudWatch
<a name="storage-lens-cloudwatch-monitoring-cloudwatch"></a>

Sie können S3 Storage Lens-Metriken auf Amazon veröffentlichen CloudWatch , um eine einheitliche Ansicht Ihres Betriebszustands in [CloudWatchDashboards](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html) zu erstellen. Sie können auch CloudWatch Funktionen wie Alarme und ausgelöste Aktionen, metrische Berechnungen und Anomalieerkennung verwenden, um S3 Storage Lens-Metriken zu überwachen und entsprechende Maßnahmen zu ergreifen. Darüber hinaus ermöglichen CloudWatch API-Operationen Anwendungen, einschließlich Drittanbietern, den Zugriff auf Ihre S3 Storage Lens-Metriken. Weitere Informationen zu den CloudWatch Funktionen finden Sie im [ CloudWatch Amazon-Benutzerhandbuch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/cloudwatch_concepts.html).

Sie können die CloudWatch Veröffentlichungsoption für neue oder bestehende Dashboard-Konfigurationen aktivieren, indem Sie die Amazon S3-Konsole, Amazon S3 REST APIs und verwenden AWS SDKs. AWS CLI Die CloudWatch Veröffentlichungsoption ist für Dashboards verfügbar, die auf erweiterte Metriken und Empfehlungen von S3 Storage Lens aktualisiert wurden. Informationen zu Preisen für erweiterte Metriken und Empfehlungen von S3 Storage Lens finden Sie unter [Amazon-S3-Preise](https://aws.amazon.com/s3/pricing/). Es fallen keine zusätzlichen Gebühren für die Veröffentlichung von CloudWatch Metriken an. Es fallen jedoch andere CloudWatch Gebühren an, z. B. für Dashboards, Alarme und API-Aufrufe. Weitere Informationen finden Sie unter [ CloudWatch Amazon-Preise](https://aws.amazon.com/cloudwatch/pricing/). 

S3 Storage Lens-Metriken werden CloudWatch in dem Konto veröffentlicht, dem die S3 Storage Lens-Konfiguration gehört. Nachdem Sie die CloudWatch Veröffentlichungsoption in erweiterten Metriken aktiviert haben, können Sie auf Metriken auf Konto- und Bucket-Ebene nach Konfigurations-ID, Konto, Bucket (nur für Metriken auf Bucket-Ebene), Region und Speicherklasse in zugreifen. CloudWatch Metriken auf Präfix-Ebene sind in nicht verfügbar. CloudWatch

**Anmerkung**  
S3 Storage Lens-Metriken sind Tagesmetriken und werden CloudWatch nur einmal täglich veröffentlicht. Wenn Sie S3 Storage Lens-Metriken in abfragen CloudWatch, muss der Zeitraum für die Abfrage 1 Tag (86400 Sekunden) betragen. Nachdem Ihre täglichen S3 Storage Lens-Metriken in Ihrem S3 Storage Lens-Dashboard in der Amazon S3 S3-Konsole angezeigt werden, kann es einige Stunden dauern, bis dieselben Messwerte angezeigt werden CloudWatch. Wenn Sie die CloudWatch Veröffentlichungsoption für S3 Storage Lens-Metriken zum ersten Mal aktivieren, kann es bis zu 24 Stunden dauern, bis Ihre Metriken veröffentlicht CloudWatch werden.   
Derzeit können S3 Storage Lens-Metriken nicht über CloudWatch Streams abgerufen werden. 

Weitere Informationen zur Arbeit mit S3 Storage Lens-Metriken finden Sie in CloudWatch den folgenden Themen.

**Topics**
+ [Arbeiten mit CloudWatch Dashboards](#storage-lens-cloudwatch-monitoring-cloudwatch-dashboards)
+ [Alarme einstellen, Aktionen auslösen und Anomalieerkennung verwenden](#storage-lens-cloudwatch-monitoring-cloudwatch-alarms)
+ [Metriken mit Dimensionen filtern](#storage-lens-cloudwatch-monitoring-cloudwatch-dimensions)
+ [Berechnen neuer Metriken mit Metrikmathematik](#storage-lens-cloudwatch-monitoring-cloudwatch-metric-math)
+ [Verwenden von Suchausdrücken in Diagrammen](#storage-lens-cloudwatch-monitoring-cloudwatch-search-expressions)

## Arbeiten mit CloudWatch Dashboards
<a name="storage-lens-cloudwatch-monitoring-cloudwatch-dashboards"></a>

Sie können CloudWatch Dashboards verwenden, um S3 Storage Lens-Metriken zusammen mit anderen Anwendungsmetriken zu überwachen und einen einheitlichen Überblick über Ihren Betriebsstatus zu erhalten. Dashboards sind anpassbare Homepages in der CloudWatch Konsole, mit denen Sie Ihre Ressourcen in einer einzigen Ansicht überwachen können. 

CloudWatch verfügt über eine umfassende Berechtigungssteuerung, die die Beschränkung des Zugriffs auf einen bestimmten Satz von Metriken oder Dimensionen nicht unterstützt. Benutzer in Ihrem Konto oder Ihrer Organisation, die Zugriff auf haben, haben Zugriff auf Metriken für alle S3 Storage Lens-Konfigurationen, für die die CloudWatch Support-Option aktiviert ist. CloudWatch Sie können Berechtigungen für bestimmte Dashboards nicht wie in S3 Storage Lens verwalten. Weitere Informationen zu CloudWatch Berechtigungen finden Sie unter [Verwaltung von Zugriffsberechtigungen für Ihre CloudWatch Ressourcen](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/iam-access-control-overview-cw.html) im * CloudWatch Amazon-Benutzerhandbuch*.

Weitere Informationen zur Verwendung von CloudWatch Dashboards und zur Konfiguration von Berechtigungen finden Sie unter [ CloudWatch Amazon-Dashboards verwenden](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Dashboards.html) und [ CloudWatch Dashboards teilen](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/cloudwatch-dashboard-sharing.html) im * CloudWatch Amazon-Benutzerhandbuch*.

## Alarme einstellen, Aktionen auslösen und Anomalieerkennung verwenden
<a name="storage-lens-cloudwatch-monitoring-cloudwatch-alarms"></a>

Sie können CloudWatch Alarme konfigurieren, die die Messwerte von S3 Storage Lens überwachen CloudWatch und Maßnahmen ergreifen, wenn ein Schwellenwert überschritten wird. Sie können beispielsweise einen Alarm konfigurieren, der eine Amazon-SNS-Benachrichtigung sendet, wenn die Metrik **Incomplete Multipart Upload Bytes** (Unvollständige Bytes für mehrteilige Uploads) an drei aufeinanderfolgenden Tagen 1 GB überschreitet.

Sie können auch die Anomalieerkennung aktivieren, um Ihre S3-Storage-Lens-Metriken kontinuierlich zu analysieren und normale Baselines und Oberflächenanomalien zu ermitteln. Sie können Anomalieerkennungsalarme basierend auf dem erwarteten Wert einer Metrik erstellen. Sie können beispielsweise Anomalien für die Metrik **Object Lock Enabled Bytes** (Bytes mit aktivierter Objektsperre), um das unbefugte Entfernen von Objektsperreinstellungen zu erkennen.

Weitere Informationen und Beispiele finden Sie unter [Verwenden von CloudWatch Amazon-Alarmen](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/AlarmThatSendsEmail.html) [und Erstellen eines Alarms anhand einer Metrik in einem Diagramm](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/create_alarm_metric_graph.html) im * CloudWatch Amazon-Benutzerhandbuch*.

## Metriken mit Dimensionen filtern
<a name="storage-lens-cloudwatch-monitoring-cloudwatch-dimensions"></a>

Sie können Dimensionen verwenden, um S3 Storage Lens-Metriken in der CloudWatch Konsole zu filtern. Beispielsweise können Sie nach `configuration_id`, `aws_account_number`, `aws_region`, `bucket_name` und mehr filtern.

S3 Storage Lens unterstützt mehrere Dashboard-Konfigurationen pro Konto. Dies bedeutet, dass verschiedene Konfigurationen denselben Bucket enthalten können. Wenn diese Metriken veröffentlicht werden CloudWatch, enthält der Bucket doppelte Metriken CloudWatch. Um nur Metriken für eine bestimmte S3 Storage Lens-Konfiguration in anzuzeigen CloudWatch, können Sie die `configuration_id` Dimension verwenden. Wenn Sie nach `configuration_id` filtern, sehen Sie nur Metriken, die mit der Konfiguration verknüpft sind, die Sie identifizieren.

Weitere Informationen zum Filtern nach Konfigurations-ID finden Sie unter [Suchen nach verfügbaren Metriken](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/finding_metrics_with_cloudwatch.html) im * CloudWatch Amazon-Benutzerhandbuch*.

## Berechnen neuer Metriken mit Metrikmathematik
<a name="storage-lens-cloudwatch-monitoring-cloudwatch-metric-math"></a>

Mithilfe von Metrikberechnungen können Sie mehrere Metriken mit S3 Storage Lens abfragen und mathematische Ausdrücke verwenden, um neue Zeitreihen basierend auf diesen Metriken zu erstellen. Sie können beispielsweise eine neue Metrik für unverschlüsselte Objekte erstellen, indem Sie verschlüsselte Objekte von der Objektanzahl subtrahieren. Sie können auch eine Metrik erstellen, um die durchschnittliche Objektgröße zu erhalten, indem Sie `StorageBytes` durch `ObjectCount` oder die Anzahl der Bytes dividieren, auf die an einem Tag zugegriffen wird, indem Sie `BytesDownloaded` durch `StorageBytes` dividieren.

Weitere Informationen finden Sie unter [Verwenden von metrischer Mathematik](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/using-metric-math.html) im * CloudWatch Amazon-Benutzerhandbuch*.

## Verwenden von Suchausdrücken in Diagrammen
<a name="storage-lens-cloudwatch-monitoring-cloudwatch-search-expressions"></a>

Mit S3-Storage-Lens-Metriken können Sie einen Suchausdruck erstellen. Sie können beispielsweise einen Suchausdruck für alle benannten Metriken erstellen **IncompleteMultipartUploadStorageBytes**und `SUM` dem Ausdruck hinzufügen. Mit diesem Suchausdruck können Sie Ihre gesamten unvollständigen mehrteiligen Upload-Bytes über alle Dimensionen Ihres Speichers in einer einzigen Metrik sehen.

Dieses Beispiel zeigt die Syntax, die Sie verwenden würden, um einen Suchausdruck für alle genannten Metriken zu erstellen **IncompleteMultipartUploadStorageBytes**.

```
SUM(SEARCH('{AWS/S3/Storage-Lens,aws_account_number,aws_region,configuration_id,metrics_version,record_type,storage_class} MetricName="IncompleteMultipartUploadStorageBytes"', 'Average',86400))
```

Weitere Informationen zu dieser Syntax finden Sie unter [Syntax für CloudWatch Suchausdrücke](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/search-expression-syntax.html) im * CloudWatch Amazon-Benutzerhandbuch*. Informationen zum Erstellen eines CloudWatch Diagramms mit einem Suchausdruck finden Sie unter [Erstellen eines CloudWatch Diagramms mit einem Suchausdruck](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/create-search-expression.html) im * CloudWatch Amazon-Benutzerhandbuch*.

# Anwendungsfälle für Metriken von Amazon S3 Storage Lens
<a name="storage-lens-use-cases"></a>

Sie können Ihr Dashboard von Amazon S3 Storage Lens verwenden, um Erkenntnisse und Trends zu visualisieren, Ausreißer zu markieren und Empfehlungen einzusehen. Die Metriken von S3 Storage Lens sind in Kategorien unterteilt, die den wichtigsten Anwendungsfällen entsprechen. Diese Metriken bieten Ihnen folgende Möglichkeiten: 
+ Identifizieren von Möglichkeiten zur Kostenoptimierung
+ Anwenden von bewährten Datenschutzmethoden
+ Anwenden von bewährten Zugriffsverwaltungsmethoden
+ Verbessern der Leistung von Anwendungs-Workloads

Mithilfe der Metriken zur Kostenoptimierung können Sie Möglichkeiten ermitteln, wie Sie Ihre Amazon-S3-Speicherkosten senken können. Sie können Buckets mit mehrteiligen Uploads identifizieren, die älter als 7 Tage sind, oder Buckets, in denen sich nicht aktuelle Versionen ansammeln.

In ähnlicher Weise können Sie Datenschutzmetriken verwenden, um Buckets zu identifizieren, die nicht den bewährten Datenschutzmethoden Ihres Unternehmens entsprechen. Sie können beispielsweise Buckets identifizieren, die keine AWS Key Management Service Schlüssel (SSE-KMS) für die Standardverschlüsselung verwenden oder für die die S3-Versionierung nicht aktiviert ist. 

Mit den Zugriffsmanagement-Metriken von S3 Storage Lens können Sie Bucket-Einstellungen für S3-Objektbesitz identifizieren, sodass Sie Zugriffssteuerungslisten (ACL) in Bucket-Richtlinien migrieren und deaktivieren können. ACLs

Wenn Sie die Option [S3 Storage Lens advanced metrics](storage_lens_basics_metrics_recommendations.md) (Erweiterte Metriken von S3 Storage Lens) aktiviert haben, können Sie die detaillierten Statuscode-Metriken verwenden, um die Anzahl von erfolgreichen oder fehlgeschlagenen Anforderungen zu erhalten. Anhand dieser Informationen können Sie Zugriffs- oder Leistungsprobleme beheben. 

Mithilfe erweiterter Metriken können Sie auch auf zusätzliche Metriken zur Kostenoptimierung und zum Datenschutz zugreifen, anhand derer Sie Möglichkeiten zur weiteren Senkung Ihrer Gesamtkosten für den S3-Speicher identifizieren und besser an bewährte Methoden für den Schutz Ihrer Daten anpassen können. Erweiterte Metriken zur Kostenoptimierung umfassen beispielsweise die Anzahl von Lebenszyklusregeln, mit der Sie Buckets identifizieren können, für die keine Lebenszyklusregeln festgelegt sind, um unvollständige mehrteilige Uploads, die älter als 7 Tage sind, ablaufen zu lassen. Zu den erweiterten Datenschutzmetriken gehört die Anzahl der Replikationsregeln.

Weitere Informationen zu den Metrikkategorien finden Sie unter [Metrikkategorien](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_types). Eine vollständige Liste der Metriken von S3 Storage Lens finden Sie unter [Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md).

**Topics**
+ [Verwenden von Amazon S3 Storage Lens zur Optimierung Ihrer Speicherkosten](storage-lens-optimize-storage.md)
+ [Verwenden von S3 Storage Lens zum Schutz Ihrer Daten](storage-lens-data-protection.md)
+ [Verwenden von S3 Storage Lens zur Überwachung der Einstellungen für die Objekteigentümerschaft](storage-lens-access-management.md)
+ [Verwenden der Metriken von S3 Storage Lens zur Verbesserung der Leistung](storage-lens-detailed-status-code.md)

# Verwenden von Amazon S3 Storage Lens zur Optimierung Ihrer Speicherkosten
<a name="storage-lens-optimize-storage"></a>

Sie können die Kostenoptimierungsmetriken von S3 Storage Lens verwenden, um die Gesamtkosten Ihres S3-Speichers zu senken. Mithilfe von Metriken zur Kostenoptimierung können Sie überprüfen, dass Sie Amazon S3 kostengünstig und gemäß den bewährten Methoden konfiguriert haben. Sie können beispielsweise die folgenden Möglichkeiten zur Kostenoptimierung identifizieren: 
+ Buckets mit unvollständigen mehrteiligen Uploads, die älter als 7 Tage sind
+ Buckets, in denen sich zahlreiche nicht aktuelle Versionen ansammeln
+ Buckets, die keine Lebenszyklusregeln zum Abbruch unvollständiger mehrteiliger Uploads haben
+ Buckets, die keine Lebenszyklusregeln für das Ablaufen von Objekten mit nicht aktuellen Versionen haben
+ Buckets, die keine Lebenszyklusregeln für den Übergang von Objekten in eine andere Speicherklasse haben 

Sie können diese Daten dann verwenden, um Ihren Buckets zusätzliche Lebenszyklusregeln hinzuzufügen. 

In den folgenden Beispielen wird gezeigt, wie Sie Metriken zur Kostenoptimierung in Ihrem S3-Storage-Lens-Dashboard verwenden, um Ihre Speicherkosten zu optimieren.

**Topics**
+ [Identifizieren Sie Ihre größten S3-Buckets](#identify-largest-s3-buckets)
+ [Entdecken Sie kalte Amazon S3-Buckets](#uncover-cold-buckets)
+ [Suchen von unvollständigen mehrteiligen Uploads](#locate-incomplete-mpu)
+ [Reduzieren Sie die Anzahl der beibehaltenen nicht aktuellen Versionen](#reduce-noncurrent-versions-retained)
+ [Identifizieren von Buckets ohne Lebenszyklusregeln und Überprüfen der Anzahl von Lebenszyklusregeln](#identify-missing-lifecycle-rules)

## Identifizieren Sie Ihre größten S3-Buckets
<a name="identify-largest-s3-buckets"></a>

Sie zahlen für das Speichern von Objekten in S3-Buckets. Der Ihnen in Rechnung gestellte Preis hängt von der Größe Ihrer Objekte, der Speicherdauer der Objekte und ihren Speicherklassen ab. Mit S3 Storage Lens erhalten Sie einen zentralen Überblick über alle Buckets in Ihrem Konto. Um alle Buckets in allen Konten Ihres Unternehmens zu sehen, können Sie ein S3 Storage AWS Organizations Lens-Dashboard auf der gleichen Ebene konfigurieren. In dieser Dashboard-Ansicht können Sie Ihre größten Buckets identifizieren.

### Schritt 1: Identifizieren Ihrer größten Buckets
<a name="optimize-storage-identify-largest-buckets"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie in der Liste **Dashboards** das Dashboard aus, das Sie anzeigen möchten.

   Wenn das Dashboard geöffnet wird, können Sie das Datum sehen, für das S3 Storage Lens zuletzt Metriken gesammelt hat. Ihr Dashboard wird immer für das letzte Datum geladen, für das Metriken verfügbar sind.

1. Scrollen Sie zum Abschnitt **Top N overview for *date*** (Top-N-Übersicht für Datum), um eine Rangfolge Ihrer größten Buckets nach der Metrik **Total storage** (Gesamtspeicher) für einen ausgewählten Zeitraum anzuzeigen.

   Sie können die Sortierreihenfolge ändern, um die kleinsten Buckets anzuzeigen. Sie können auch die Auswahl **Metric** (Metrik) anpassen, um Ihre Buckets nach einer der verfügbaren Metriken zu ordnen. Der Abschnitt **Top N overview for *date*** (Top-N-Übersicht für Datum) zeigt auch die prozentuale Veränderung gegenüber dem Vortag oder der Vorwoche sowie eine Sparkline zur Veranschaulichung des Trends an. Dieser Trend ist ein 14-Tage-Trend für kostenlose Metriken und ein 30-Tage-Trend für erweiterte Metriken und Empfehlungen.
**Anmerkung**  
Mit den erweiterten Metriken und Empfehlungen von S3 Storage Lens stehen Metriken 15 Monate für Abfragen zur Verfügung. Weitere Informationen finden Sie unter [Auswahl der Metriken](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

1. Für detailliertere Informationen zu Ihren Buckets scrollen Sie zum Seitenanfang und wählen Sie dann die Registerkarte **Bucket**. 

   Auf der Registerkarte **Buckets** können Sie Details wie die aktuelle Wachstumsrate, die durchschnittliche Objektgröße, die größten Präfixe und die Anzahl der Objekte anzeigen.

### Schritt 2: Navigieren zu Ihren Buckets und Untersuchen von Daten
<a name="optimize-storage-investigate"></a>

Nachdem Sie Ihre größten S3-Buckets identifiziert haben, können Sie innerhalb der S3-Konsole zu jedem Bucket navigieren, um seine Objekte anzuzeigen, die damit verbundene Workload zu verstehen und interne Eigentümer des Buckets zu identifizieren. Sie können die Bucket-Eigentümer kontaktieren, um herauszufinden, ob das Wachstum erwartet wird oder ob es einer weiteren Überwachung und Kontrolle bedarf.

## Entdecken Sie kalte Amazon S3-Buckets
<a name="uncover-cold-buckets"></a>

Wenn Sie die [fortschrittlichen Metriken von S3 Storage Lens](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection) aktiviert haben, können Sie [Aktivitätsmetriken](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_types) verwenden, um zu verstehen, wie kalt Ihre S3-Buckets sind. Ein „kalter“ Bucket ist ein Bucket, auf dessen Speicher nicht mehr (oder sehr selten) zugegriffen wird. Dieser Mangel an Aktivität weist normalerweise darauf hin, dass auf die Objekte des Buckets nicht häufig zugegriffen wird.

Aktivitätsmetriken wie **GET-Anforderungen** und **Download-Bytes** geben an, wie oft täglich auf Ihre Buckets zugegriffen wird. Um die Konsistenz des Zugriffsmusters zu verstehen und Buckets zu erkennen, auf die überhaupt nicht mehr zugegriffen wird, können Sie diese Daten über mehrere Monate hinweg trenden. Die Metrik der **Abrufrate**, die als **Download-Bytes/Gesamtspeicher** berechnet wird, gibt den Anteil des Speichers in einem Bucket an, auf den täglich zugegriffen wird.

**Anmerkung**  
Download-Bytes werden dupliziert, wenn das gleiche Objekt mehrmals am Tag heruntergeladen wird.

**Voraussetzung**  
Wenn Sie Aktivitätsmetriken in Ihrem S3-Storage-Lens-Dashboard anzeigen möchten, müssen Sie die Option **Advanced metrics and recommendations** (Erweiterte Metriken und Empfehlungen) von S3 Storage Lens aktivieren und dann **Activity metrics** (Aktivitätsmetriken) auswählen. Weitere Informationen finden Sie unter [Verwenden der S3-Konsole](storage_lens_editing.md#storage_lens_console_editing).

### Schritt 1: Identifizieren aktiver Buckets
<a name="storage-lens-identify-active-buckets"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie in der Liste **Dashboards** das Dashboard aus, das Sie anzeigen möchten.

1. Wählen Sie die Registerkarte **Bucket** aus und scrollen Sie dann nach unten zum Abschnitt **Bubble analysis by buckets for *date*** (Blasenanalyse nach Buckets für Datum).

   Im Abschnitt **Blasenanalyse nach Buckets für *Datum*** können Sie Ihre Buckets in mehreren Dimensionen darstellen, indem Sie drei beliebige Metriken verwenden, um die **x-Achse**, **y-Achse** und die **Größe** der Blase darzustellen. 

1. Um Buckets zu finden, die kalt geworden sind, wählen Sie für **X-Achse**, **Y-Achse** und **Größe**die Metriken **Gesamtspeicher**, **% Abrufrate** und **Durchschnittsobjektgröße**.

1. Suchen Sie im Abschnitt **Bubble analysis by buckets for *date*** (Blasenanalyse nach Buckets für Datum) nach Buckets mit Abrufraten von null (oder nahe null) und einer größeren relativen Speichergröße. Wählen Sie dann die Blase aus, die den Bucket darstellt. 

   Es erscheint ein Feld mit Auswahlmöglichkeiten für detailliertere Einblicke. Führen Sie eine der folgenden Aktionen aus:

   1. Damit die Registerkarte **Bucket** aktualisiert wird und nur Metriken für den ausgewählten Bucket anzeigt, wählen Sie **Drill down** (Aufgliedern) und dann **Apply** (Anwenden) aus. 

   1. **Um Ihre Daten auf Bucket-Ebene nach Konto, AWS-Region Speicherklasse oder Bucket zu aggregieren, wählen Sie **Analysieren nach** und treffen Sie dann eine Auswahl für Dimension.** Wenn Sie beispielsweise nach Speicherklasse aggregieren möchten, wählen Sie **Storage class** (Speicherklasse) für **Dimension** aus.

   Um Buckets zu finden, die kalt geworden sind, führen Sie eine Blasenanalyse mit den Metriken **Gesamtspeicher**, **Abrufrate in %** und **Durchschnittliche Objektgröße** durch. Suchen Sie nach Buckets mit Abrufraten von null (oder nahe null) und einer größeren relativen Speichergröße. 

   Die Registerkarte **Bucket** Ihres Dashboards wird aktualisiert und zeigt Daten für die von Ihnen ausgewählte Aggregation oder den ausgewählten Filter an. Wenn Sie nach Speicherklasse oder einer anderen Dimension aggregiert haben, wird diese neue Registerkarte in Ihrem Dashboard geöffnet (z. B. die Registerkarte **Storage class** (Speicherklasse)). 

### Schritt 2: Untersuchen kalter Buckets
<a name="storage-lens-investigate-buckets"></a>

Von hier aus können Sie die Eigentümer von kalten Buckets in Ihrem Konto oder Ihrer Organisation identifizieren und herausfinden, ob dieser Speicher noch benötigt wird. Anschließend können Sie die Kosten optimieren, indem Sie [Ablaufkonfigurationen für den Lebenszyklus](object-lifecycle-mgmt.md) für diese Buckets konfigurieren oder die Daten in einer der [Amazon Glacier -Speicherklassen](https://docs.aws.amazon.com/amazonglacier/latest/dev/introduction.html) archivieren. 

Um das Problem von kalten Buckets in Zukunft zu vermeiden, können Sie Ihre [Daten mithilfe von S3-Lifecycle-Konfigurationen für Ihre Buckets automatisch umstellen](lifecycle-configuration-examples.md) oder die [automatische Archivierung mit S3 Intelligent-Tiering](archived-objects.md) aktivieren.

Sie können Schritt 1 auch verwenden, um „heiße“ Buckets zu identifizieren. Anschließend können Sie sich vergewissern, dass diese Buckets die richtige [S3-Speicherklasse](storage-class-intro.md) verwenden, um sicherzustellen, dass sie ihre Anforderungen in Bezug auf Leistung und Kosten am effektivsten bearbeiten.

## Suchen von unvollständigen mehrteiligen Uploads
<a name="locate-incomplete-mpu"></a>

Sie können mehrteilige Uploads verwenden, um sehr große Objekte (bis zu 50 TB) als Teilmenge hochzuladen, um den Durchsatz zu erhöhen und die Wiederherstellung nach Netzwerkproblemen zu beschleunigen. In Fällen, in denen der mehrteilige Upload-Prozess nicht abgeschlossen wird, verbleiben die unvollständigen Teile im Bucket (in einem unbrauchbaren Zustand). Für diese unvollständigen Teile fallen Speicherkosten an, bis der Upload-Prozess abgeschlossen ist oder die unvollständigen Teile entfernt werden. Weitere Informationen finden Sie unter [Hochladen und Kopieren von Objekten mit mehrteiligen Uploads in Amazon S3](mpuoverview.md).

Mit S3 Storage Lens können Sie die Anzahl der unvollständigen mehrteiligen Upload-Bytes in Ihrem Konto oder in Ihrem gesamten Unternehmen ermitteln. Dies umfasst auch mehrteilige Uploads, die älter sind als 7 Tage. Eine vollständige Liste der Metriken für unvollständige mehrteilige Uploads finden Sie unter [Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md). 

Als bewährte Methode empfehlen wir, Lebenszyklusregeln so zu konfigurieren, dass unvollständige mehrteilige Uploads, die älter als eine bestimmte Anzahl von Tagen sind, ablaufen. Wenn Sie Ihre Lebenszyklusregel so erstellen, dass unvollständige mehrteilige Uploads ablaufen, empfehlen wir 7 Tage als geeigneten Ausgangspunkt. 

### Schritt 1: Überprüfen allgemeiner Trends für unvollständige mehrteilige Uploads
<a name="locate-incomplete-mpu-step1"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie in der Liste **Dashboards** das Dashboard aus, das Sie anzeigen möchten.

1. Wählen Sie im Abschnitt **Snapshot for *date*** (Snapshot für Datum) unter **Metrics categories** (Metrikkategorien) die Option **Cost optimization** (Kostenoptimierung) aus.

   Der Abschnitt **Snapshot for *date*** (Snapshot für Datum) wird aktualisiert und zeigt nun Metriken zu **Cost optimization** (Kostenoptimierung) an. Dazu gehören **Incomplete multipart upload bytes greater than 7 days old** (Unvollständige mehrteilige Upload-Bytes, die älter als 7 Tage sind). 

   In jedem Diagramm Ihres S3-Storage-Lens-Dashboards können Sie Metriken für unvollständige mehrteilige Uploads sehen. Sie können diese Metriken verwenden, um die Auswirkungen unvollständiger mehrteiliger Upload-Bytes auf Ihren Speicher weiter zu bewerten, einschließlich deren Beitrag zu den allgemeinen Wachstumstrends. Über die Registerkarten **Konto**, **AWS-Region**, **Bucket**oder **Speicherklasse** können Sie auch tiefere Aggregationsebenen für eine genauere Analyse Ihrer Daten erreichen. Ein Beispiel finden Sie unter [Entdecken Sie kalte Amazon S3-Buckets](#uncover-cold-buckets).

### Schritt 2: Identifizieren von Buckets, die die unvollständigsten mehrteiligen Upload-Bytes, aber keine Lebenszyklusregeln zum Abbruch von unvollständigen mehrteiligen Uploads haben
<a name="locate-incomplete-mpu-step2"></a>

**Voraussetzung**  
Wenn Sie in Ihrem S3-Storage-Lens-Dashboard die Metrik **Abort incomplete multipart upload lifecycle rule count** (Anzahl der Lebenszyklusregeln zum Abbrechen unvollständiger mehrteiliger Uploads) sehen möchten, müssen Sie **Advanced metrics and recommendations** (Erweiterte Metriken und Empfehlungen) von S3 Storage Lens aktivieren und dann **Advanced cost optimization metrics** (Erweiterte Kostenoptimierungsmetriken) auswählen. Weitere Informationen finden Sie unter [Verwenden der S3-Konsole](storage_lens_editing.md#storage_lens_console_editing).

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie in der Liste **Dashboards** das Dashboard aus, das Sie anzeigen möchten.

1. Wenn Sie bestimmte Buckets identifizieren möchten, in denen sich unvollständige mehrteilige Uploads ansammeln, die älter als 7 Tage sind, gehen Sie zum Abschnitt **Top N overview for *date*** (Top-N-Übersicht für Datum). 

   Standardmäßig werden im Abschnitt **Top N overview for *date*** (Top-N-Übersicht für Datum) Metriken für die drei wichtigsten Buckets angezeigt. Sie können die Anzahl der Buckets im Feld **Top N** erhöhen oder verringern. Der Abschnitt **Top N overview for *date*** (Top-N-Übersicht für Datum) zeigt auch die prozentuale Veränderung gegenüber dem Vortag oder der Vorwoche sowie eine Sparkline zur Veranschaulichung des Trends an. (Dieser Trend ist ein 14-Tage-Trend für kostenlose Metriken und ein 30-Tage-Trend für erweiterte Metriken und Empfehlungen.) 
**Anmerkung**  
Mit den erweiterten Metriken und Empfehlungen von S3 Storage Lens stehen Metriken 15 Monate für Abfragen zur Verfügung. Weitere Informationen finden Sie unter [Auswahl der Metriken](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

1. Wählen Sie für **Metric** (Metrik) in der Kategorie **Cost optimization** (Kostenoptimierung) die Option **Incomplete multipart upload bytes greater than 7 days old** (Unvollständige mehrteilige Upload-Bytes, die älter als 7 Tage sind) aus.

   Unter **Top *number* buckets** (Top N-Buckets) sehen Sie die Buckets mit den unvollständigsten mehrteiligen Upload-Speicherbytes, die älter als 7 Tage sind.

1. Wenn Sie detailliertere Metriken auf Bucket-Ebene für unvollständige mehrteilige Uploads anzeigen möchten, scrollen Sie zum Seitenanfang und wählen Sie dann die Registerkarte **Bucket** aus.

1. Scrollen Sie nach unten zum Abschnitt **Buckets**. Wählen Sie für **Metrics categories** (Metrikkategorien) die Option **Cost optimization** (Kostenoptimierung) aus. Löschen Sie dann **Summary** (Zusammenfassung).

   Die Liste **Buckets** wird aktualisiert und enthält alle verfügbaren Metriken für **Cost optimization** (Kostenoptimierung) für die angezeigten Buckets. 

1. Wenn Sie die Liste **Buckets** so filtern möchten, dass nur bestimmte Kostenoptimierungsmetriken angezeigt werden, wählen Sie das Präferenzensymbol (![\[A screenshot that shows the preferences icon in the S3 Storage Lens dashboard.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/preferences.png)) aus.

1. Deaktivieren Sie die Schalter für alle Metriken zur Kostenoptimierung, bis nur noch **Incomplete multipart upload bytes greater than 7 days old** (Unvollständige mehrteilige Upload-Bytes, die älter als 7 Tage sind) und **Abort incomplete multipart upload lifecycle rule count** (Anzahl der Lebenszyklusregeln zum Abbrechen unvollständiger mehrteiliger Uploads) ausgewählt sind. 

1. (Optional) Wählen Sie unter **Page size** (Seitengröße) die Anzahl der Buckets aus, die in der Liste angezeigt werden sollen.

1. Wählen Sie **Bestätigen** aus.

   Die Liste **Buckets** wird aktualisiert und zeigt Metriken auf Bucket-Ebene für unvollständige mehrteilige Uploads und die Anzahl der Lebenszyklusregeln an. Sie können diese Daten verwenden, um Buckets zu identifizieren, die die unvollständigsten mehrteiligen Upload-Bytes enthalten, die älter als 7 Tage sind und denen Lebenszyklusregeln fehlen, um unvollständige mehrteilige Uploads abzubrechen. Anschließend können Sie in der S3-Konsole zu diesen Buckets navigieren und Lebenszyklusregeln hinzufügen, um abgebrochene, unvollständige mehrteilige Uploads zu löschen.

### Schritt 3: Hinzufügen einer Lebenszyklusregel, um unvollständige mehrteilige Uploads nach 7 Tagen zu löschen
<a name="locate-incomplete-mpu-step3"></a>

Um unvollständige mehrteilige Uploads automatisch zu verwalten, können Sie die S3-Konsole verwenden, um eine Lebenszykluskonfiguration zu erstellen und unvollständige mehrteilige Upload-Bytes aus einem Bucket nach einer bestimmten Anzahl von Tagen ablaufen zu lassen. Weitere Informationen finden Sie unter [Konfigurieren einer Bucket-Lebenszykluskonfiguration zum Löschen unvollständiger mehrteiliger Uploads](mpu-abort-incomplete-mpu-lifecycle-config.md).

## Reduzieren Sie die Anzahl der beibehaltenen nicht aktuellen Versionen
<a name="reduce-noncurrent-versions-retained"></a>

Wenn die S3 Versioning aktiviert ist, werden mehrere Versionen desselben Objekts beibehalten, die zur schnellen Wiederherstellung von Daten verwendet werden können, wenn ein Objekt versehentlich gelöscht oder überschrieben wird. Wenn Sie S3 Versioning aktiviert haben, ohne Lebenszyklusregeln für die Umstellung oder den Ablauf nicht aktueller Versionen zu konfigurieren, kann sich eine große Anzahl nicht aktueller Versionen ansammeln, was sich auf die Speicherkosten auswirken kann. Weitere Informationen finden Sie unter [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md).

### Schritt 1: Identifizieren von Buckets mit den meisten nicht aktuellen Objektversionen
<a name="reduce-noncurrent-versions-retained-step1"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie in der Liste **Dashboards** das Dashboard aus, das Sie anzeigen möchten.

1. Wählen Sie im Abschnitt **Snapshot for *date*** (Snapshot für Datum) unter **Metrics categories** (Metrikkategorien) die Option **Cost optimization** (Kostenoptimierung) aus.

   Der Abschnitt **Snapshot for *date*** (Snapshot für Datum) wird aktualisiert und zeigt nun Metriken für **Cost optimization** (Kostenoptimierung) an, zu denen auch die Metrik **% noncurrent version bytes** (% Bytes der nicht aktuellen Version) gehört. Die Metrik **% noncurrent version bytes** (% Bytes der nicht aktuellen Version) stellt den Anteil Ihrer gesamten Speicherbytes dar, der im Rahmen des Dashboards und für das ausgewählte Datum auf nicht aktuelle Versionen zurückzuführen ist.
**Anmerkung**  
Wenn der Wert **% noncurrent version bytes** (% Bytes der nicht aktuellen Version) mehr als 10 % Ihres Speicherplatzes auf Kontoebene beträgt, könnte dies ein Hinweis darauf sein, dass Sie zu viele Versionen speichern.

1. So identifizieren Sie bestimmte Buckets, in denen sich eine große Anzahl nicht aktueller Versionen ansammelt:

   1. Scrollen Sie nach unten zum Abschnitt **Top N overview for *date*** (Top-N-Übersicht für Datum). Geben Sie für **Top N** die Anzahl der Buckets ein, deren Daten Sie sehen möchten. 

   1. Wählen Sie für **Metric** (Metrik) die Option **% noncurrent version bytes** (% Bytes der nicht aktuellen Version) aus.

      Unter **Top *number* buckets** (Top N-Buckets) werden die Buckets (für die von Ihnen angegebene Anzahl) mit dem höchsten Wert für **% noncurrent version bytes** (% Bytes der nicht aktuellen Version) angezeigt. Der Abschnitt **Top N overview for *date*** (Top-N-Übersicht für Datum) zeigt auch die prozentuale Veränderung gegenüber dem Vortag oder der Vorwoche sowie eine Sparkline zur Veranschaulichung des Trends an. Dieser Trend ist ein 14-Tage-Trend für kostenlose Metriken und ein 30-Tage-Trend für erweiterte Metriken und Empfehlungen. 
**Anmerkung**  
Mit den erweiterten Metriken und Empfehlungen von S3 Storage Lens stehen Metriken 15 Monate für Abfragen zur Verfügung. Weitere Informationen finden Sie unter [Auswahl der Metriken](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

   1. Wenn Sie detailliertere Metriken auf Bucket-Ebene für nicht aktuelle Objektversionen anzeigen möchten, scrollen Sie zum Seitenanfang und wählen Sie dann die Registerkarte **Bucket** aus.

      In jedem Diagramm oder jeder Visualisierung in Ihrem S3 Storage Lens Dashboard können Sie über die Registerkarten **Konto**, **AWS-Region**, **Speicherklasse**oder **Bucket** auf tiefere Aggregationsebenen herunterbrechen. Ein Beispiel finden Sie unter [Entdecken Sie kalte Amazon S3-Buckets](#uncover-cold-buckets).

   1. Wählen Sie im Abschnitt **Buckets** für **Metric categories** (Metrikkategorien) die Option **Cost optimization** (Kostenoptimierung) aus. Löschen Sie dann **Summary** (Zusammenfassung). 

      Sie können jetzt die Metrik **% noncurrent version bytes** (% Bytes der nicht aktuellen Version) zusammen mit anderen Metriken sehen, die sich auf nicht aktuelle Versionen beziehen.

### Schritt 2: Identifizieren von Buckets, für die Lebenszyklusregeln für Übergang und Ablauf nicht aktueller Versionen fehlen
<a name="reduce-noncurrent-versions-retained-step2"></a>

**Voraussetzung**  
Wenn Sie in Ihrem S3-Storage-Lens-Dashboard die Metriken **Noncurrent version transition lifecycle rule count** (Anzahl der Lebenszyklusregeln für den Übergang nicht aktueller Versionen) und **Noncurrent version expiration lifecycle rule count** (Anzahl der Lebenszyklusregeln für den Ablauf nicht aktueller Versionen) zu sehen, müssen Sie **Advanced metrics and recommendations** (Erweiterte Metriken und Empfehlungen) von S3 Storage Lens aktivieren und dann **Advanced cost optimization metrics** (Erweiterte Kostenoptimierungsmetriken) auswählen. Weitere Informationen finden Sie unter [Verwenden der S3-Konsole](storage_lens_editing.md#storage_lens_console_editing).

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie in der Liste **Dashboards** das Dashboard aus, das Sie anzeigen möchten.

1. Wählen Sie in Ihrem Storage-Lens-Dashboard die Registerkarte **Bucket** aus.

1. Scrollen Sie nach unten zum Abschnitt **Buckets**. Wählen Sie für **Metrics categories** (Metrikkategorien) die Option **Cost optimization** (Kostenoptimierung) aus. Löschen Sie dann **Summary** (Zusammenfassung).

   Die Liste **Buckets** wird aktualisiert und enthält alle verfügbaren Metriken für **Cost optimization** (Kostenoptimierung) für die angezeigten Buckets. 

1. Wenn Sie die Liste **Buckets** so filtern möchten, dass nur bestimmte Kostenoptimierungsmetriken angezeigt werden, wählen Sie das Präferenzensymbol (![\[A screenshot that shows the preferences icon in the S3 Storage Lens dashboard.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/preferences.png)) aus.

1. Deaktivieren Sie die Schalter für alle Metriken zur Kostenoptimierung, bis nur noch die folgenden Metriken ausgewählt sind:
   + **% Bytes der nicht aktuellen Version**
   + **Anzahl der Lebenszyklusregeln für den Übergang nicht aktueller Versionen**
   + **Anzahl der Lebenszyklusregeln für den Ablauf nicht aktueller Versionen**

1. (Optional) Wählen Sie unter **Page size** (Seitengröße) die Anzahl der Buckets aus, die in der Liste angezeigt werden sollen.

1. Wählen Sie **Bestätigen** aus.

   Die Liste **Buckets** wird aktualisiert und zeigt Metriken für die Anzahl der Bytes nicht aktueller Versionen und die Anzahl der Lebenszyklusregeln für nicht aktuelle Versionen an. Sie können diese Daten verwenden, um Buckets zu identifizieren, die einen hohen Prozentsatz an Bytes nicht aktueller Versionen enthalten, für die jedoch Übergangs- und Ablauflebenszyklusregeln fehlen. Anschließend können Sie in der S3-Konsole zu diesen Buckets navigieren und ihnen Lebenszyklusregeln hinzufügen.

### Schritt 3: Hinzufügen von Lebenszyklusregeln für den Übergang oder den Ablauf nicht aktueller Objektversionen
<a name="reduce-noncurrent-versions-retained-step3"></a>

Nachdem Sie festgestellt haben, welche Buckets eine weitere Untersuchung erfordern, können Sie in der S3-Konsole zu den Buckets navigieren und eine Lebenszyklusregel hinzufügen, um nicht aktuelle Versionen nach einer bestimmten Anzahl von Tagen ablaufen zu lassen. Um die Kosten zu senken und gleichzeitig ältere Versionen beizubehalten, können Sie alternativ eine Lebenszyklusregel konfigurieren, um ältere Versionen auf eine der Amazon Glacier Speicherklassen umzustellen. Weitere Informationen finden Sie unter [Festlegen einer Lebenszyklus-Konfigurationsregel für einen Bucket mit Versioning](lifecycle-configuration-examples.md#lifecycle-config-conceptual-ex6). 

## Identifizieren von Buckets ohne Lebenszyklusregeln und Überprüfen der Anzahl von Lebenszyklusregeln
<a name="identify-missing-lifecycle-rules"></a>

S3 Storage Lens bietet Metriken zur Anzahl der S3-Lebenszyklusregeln, anhand derer Sie Buckets identifizieren können, denen Lebenszyklusregeln fehlen. Um Buckets zu finden, die keine Lebenszyklusregeln haben, können Sie die Metrik **Total buckets without lifecycle rules** (Buckets insgesamt ohne Lebenszyklusregeln) verwenden. Ein Bucket ohne S3-Lifecycle-Konfiguration verfügt möglicherweise über Speicher, den Sie nicht mehr benötigen oder den Sie zu einer kostengünstigeren Speicherklasse migrieren können. Sie können auch Metriken zur Anzahl von Lebenszyklusregeln verwenden, um Buckets zu identifizieren, in denen bestimmte Arten von Lebenszyklusregeln fehlen, z. B. Ablauf- oder Übergangsregeln.

**Voraussetzung**  
Wenn Sie in Ihrem S3-Storage-Lens-Dashboard die Metrik **Total buckets without lifecycle rules** (Buckets insgesamt ohne Lebenszyklusregeln) sehen möchten, müssen Sie **Advanced metrics and recommendations** (Erweiterte Metriken und Empfehlungen) von S3 Storage Lens aktivieren und dann **Advanced cost optimization metrics** (Erweiterte Kostenoptimierungsmetriken) auswählen. Weitere Informationen finden Sie unter [Verwenden der S3-Konsole](storage_lens_editing.md#storage_lens_console_editing).

### Schritt 1: Identifizieren von Buckets ohne Lebenszyklusregeln
<a name="identify-missing-lifecycle-rules-step1"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie in der Liste **Dashboards** das Dashboard aus, das Sie anzeigen möchten.

1. Wenn Sie bestimmte Buckets ohne Lebenszyklusregeln identifizieren möchten, scrollen Sie nach unten zum Abschnitt **Top N overview for *date*** (Top-N-Übersicht für Datum).

   Standardmäßig werden im Abschnitt **Top N overview for *date*** (Top-N-Übersicht für Datum) Metriken für die drei wichtigsten Buckets angezeigt. Im Feld **Top N** können Sie die Anzahl der Buckets erhöhen. Der Abschnitt **Top N overview for *date*** (Top-N-Übersicht für Datum) zeigt auch die prozentuale Veränderung gegenüber dem Vortag oder der Vorwoche sowie eine Sparkline zur Veranschaulichung des Trends an. Dieser Trend ist ein 14-Tage-Trend für kostenlose Metriken und ein 30-Tage-Trend für erweiterte Metriken und Empfehlungen. 
**Anmerkung**  
Mit den erweiterten Metriken und Empfehlungen von S3 Storage Lens stehen Metriken 15 Monate für Abfragen zur Verfügung. Weitere Informationen finden Sie unter [Auswahl der Metriken](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

1. Wählen Sie für **Metric** (Metrik) in der Kategorie **Cost optimization** (Kostenoptimierung) die Option **Total buckets without lifecycle rules** (Buckets insgesamt ohne Lebenszyklusregeln) aus.

1. Überprüfen Sie die folgenden Daten für **Total buckets without lifecycle rules** (Buckets insgesamt ohne Lebenszyklusregeln):
   + **Top *number* accounts** (Top N-Konten) – Sehen Sie sich an, welche Konten die meisten Buckets ohne Lebenszyklusregeln haben.
   + **Top *number* Regions** (Top N-Regionen) – Sehen Sie sich eine Aufschlüsselung der Buckets ohne Lebenszyklusregeln nach Region an.
   + **Top *number* buckets** (Top N-Buckets) – Finden Sie heraus, für welche Buckets keine Lebenszyklusregeln festgelegt sind. 

   In jedem Diagramm oder jeder Visualisierung in Ihrem S3 Storage Lens Dashboard können Sie über die Registerkarten **Konto**, **AWS-Region**, **Speicherklasse**oder **Bucket** auf tiefere Aggregationsebenen herunterbrechen. Ein Beispiel finden Sie unter [Entdecken Sie kalte Amazon S3-Buckets](#uncover-cold-buckets).

   Nachdem Sie ermittelt haben, für welche Buckets keine Lebenszyklusregeln festgelegt sind, können Sie auch die Anzahl der spezifischen Lebenszyklusregeln für Ihre Buckets überprüfen. 

### Schritt 2: Überprüfen der Anzahl der Lebenszyklusregeln für Ihre Buckets
<a name="identify-missing-lifecycle-rules-step2"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie in der Liste **Dashboards** das Dashboard aus, das Sie anzeigen möchten.

1. Wählen Sie in Ihrem S3-Storage-Lens-Dashboard die Registerkarte **Bucket** aus.

1. Scrollen Sie nach unten zum Abschnitt **Buckets**. Wählen Sie unter **Metrics categories** (Metrikkategorien) die Option **Cost optimization** (Kostenoptimierung) aus. Löschen Sie dann **Summary** (Zusammenfassung).

   Die Liste **Buckets** wird aktualisiert und enthält alle verfügbaren Metriken für **Cost optimization** (Kostenoptimierung) für die angezeigten Buckets. 

1. Wenn Sie die Liste **Buckets** so filtern möchten, dass nur bestimmte Kostenoptimierungsmetriken angezeigt werden, wählen Sie das Präferenzensymbol (![\[A screenshot that shows the preferences icon in the S3 Storage Lens dashboard.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/preferences.png)) aus.

1. Deaktivieren Sie die Schalter für alle Metriken zur Kostenoptimierung, bis nur noch die folgenden Metriken ausgewählt sind:
   + **Anzahl der Lebenszyklusregeln für den Übergang**
   + **Anzahl der Lebenszyklusregeln für den Ablauf**
   + **Anzahl der Lebenszyklusregeln für den Übergang nicht aktueller Versionen**
   + **Anzahl der Lebenszyklusregeln für den Ablauf nicht aktueller Versionen**
   + **Anzahl der Lebenszyklusregeln zum Abbrechen unvollständiger mehrteiliger Uploads**
   + **Anzahl der gesamten Lebenszyklusregeln**

1. (Optional) Wählen Sie unter **Page size** (Seitengröße) die Anzahl der Buckets aus, die in der Liste angezeigt werden sollen.

1. Wählen Sie **Bestätigen** aus.

   Die Liste **Buckets** wird aktualisiert und zeigt die die Metriken für die Anzahl der Lebenszyklusregeln für Ihre Buckets an. Sie können diese Daten verwenden, um Buckets ohne Lebenszyklusregeln oder Buckets zu identifizieren, für die bestimmte Arten von Lebenszyklusregeln fehlen, z. B. Ablaufregeln oder Übergangsregeln. Anschließend können Sie in der S3-Konsole zu diesen Buckets navigieren und ihnen Lebenszyklusregeln hinzufügen.

### Schritt 3: Hinzufügen von Lebenszyklusregeln
<a name="identify-missing-lifecycle-rules-step3"></a>

Nachdem Sie Buckets ohne Lebenszyklusregeln identifiziert haben, können Sie Lebenszyklusregeln hinzufügen. Weitere Informationen erhalten Sie unter [Einrichten einer S3-Lebenszykluskonfiguration für einen Bucket](how-to-set-lifecycle-configuration-intro.md) und [Beispiele für S3-Lebenszykluskonfigurationen](lifecycle-configuration-examples.md).

# Verwenden von S3 Storage Lens zum Schutz Ihrer Daten
<a name="storage-lens-data-protection"></a>

Sie können die Datenschutzmetriken von Amazon S3 Storage Lens verwenden, um Buckets zu identifizieren, in denen die bewährten Datenschutzmethoden nicht angewendet wurden. Sie können diese Metriken verwenden, um Maßnahmen zu ergreifen und Standardeinstellungen anzuwenden, die den bewährten Methoden zum Schutz Ihrer Daten in allen Buckets Ihres Kontos oder Ihrer Organisation entsprechen. Sie können beispielsweise Datenschutzmetriken verwenden, um Buckets zu identifizieren, die keine () -Schlüssel AWS Key Management Service (SSE-KMS AWS KMS) für die Standardverschlüsselung verwenden, oder Anfragen, die AWS Signature Version 2 (SigV2) verwenden. 

Die folgenden Anwendungsfälle bieten Strategien zur Verwendung Ihres S3-Storage-Lens-Dashboards, um Ausreißer zu ermitteln und bewährte Datenschutzmethoden auf Ihre S3-Buckets anzuwenden.

**Topics**
+ [Identifizieren Sie Buckets, die keine serverseitige Verschlüsselung verwenden, mit der Standardverschlüsselung (SSE-KMS) AWS KMS](#storage-lens-sse-kms)
+ [Identifizieren von Buckets, für die S3 Versioning aktiviert ist](#storage-lens-data-protection-versioning)
+ [Identifizieren Sie Anfragen, die AWS Signature Version 2 (SIGv2) verwenden](#storage-lens-data-protection-sigv)
+ [Zählen der Gesamtzahl der Replikationsregeln für jeden Bucket](#storage-lens-data-protection-replication-rule)
+ [Identifizieren des Prozentsatz der Bytes mit Objektsperre](#storage-lens-data-protection-object-lock)

## Identifizieren Sie Buckets, die keine serverseitige Verschlüsselung verwenden, mit der Standardverschlüsselung (SSE-KMS) AWS KMS
<a name="storage-lens-sse-kms"></a>

Mit der Amazon-S3-Standardverschlüsselung können Sie das Verhalten der Standardverschlüsselung für einen S3-Bucket festlegen. Weitere Informationen finden Sie unter [Einstellen des Verhaltens der serverseitigen Verschlüsselung für Amazon S3-Buckets](bucket-encryption.md).

Sie können die Metriken „**Anzahl der Buckets aktiviert“ und „% SSE-KMS enabled** **Buckets“ verwenden, um Buckets** zu identifizieren, die serverseitige Verschlüsselung mit Schlüsseln (SSE-KMS) für die Standardverschlüsselung verwenden. AWS KMS S3 Storage Lens bietet auch Metriken für unverschlüsselte Bytes, unverschlüsselte Objekte, verschlüsselte Bytes und verschlüsselte Objekte. Eine vollständige Liste der Metriken finden Sie unter [Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md). 

Sie können SSE-KMS-Verschlüsselungsmetriken im Kontext allgemeiner Verschlüsselungsmetriken analysieren, um Buckets zu identifizieren, die SSE-KMS nicht verwenden. Wenn Sie SSE-KMS für alle Buckets in Ihrem Konto oder Ihrer Organisation verwenden möchten, können Sie die Standardverschlüsselungseinstellungen für diese Buckets aktualisieren, um SSE-KMS zu verwenden. Zusätzlich zu SSE-KMS können Sie auch die serverseitige Verschlüsselung mit von Amazon S3 verwalteten Schlüsseln (SSE-S3) oder vom Kunden bereitgestellten Schlüsseln (SSE-C) verwenden. Weitere Informationen finden Sie unter [Datenschutz durch Verschlüsselung](UsingEncryption.md). 

### Schritt 1: Identifizieren, welche Buckets SSE-KMS für die Standardverschlüsselung verwenden
<a name="storage-lens-sse-kms-step1"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie in der Liste **Dashboards** den Namen des Dashboards aus, das Sie anzeigen möchten.

1. Wählen Sie im Abschnitt **Trends and distributions** (Trends und Verteilungen) die **% SSE-KMS enabled bucket count** (% der Anzahl der SSE-KMS-fähigen Buckets) als primäre Metrik und **% encrypted bytes** (% verschlüsselte Bytes) als sekundäre Metrik aus.

   Das Diagramm **Trend for *date*** (Trend für Datum) wird aktualisiert und zeigt Trends für SSE-KMS und verschlüsselte Bytes an. 

1. So zeigen Sie detailliertere Einblicke auf Bucket-Ebene für SSE-KMS an:

   1. Wählen Sie einen Punkt im Diagramm aus. Es erscheint ein Feld mit Auswahlmöglichkeiten für detailliertere Einblicke.

   1. Wählen Sie die Dimension **Buckets** aus. Wählen Sie dann **Apply (Anwenden)**.

1. Wählen Sie im Diagramm **Distribution by buckets for *date*** (Verteilung nach Buckets für Datum) die Metrik **SSE-KMS enabled bucket count** (SSE-KMS-fähige Bucket-Anzahl) aus. 

1. Sie können jetzt sehen, für welche Buckets SSE-KMS aktiviert ist und für welche nicht.

### Schritt 2: Aktualisieren der Standardverschlüsselungseinstellungen für den Bucket
<a name="storage-lens-sse-kms-step2"></a>

Nachdem Sie nun im Kontext Ihrer Metrik **% encrypted bytes** (% verschlüsselte Bytes) ermittelt haben, welche Buckets SSE-KMS verwenden, können Sie Buckets identifizieren, die SSE-KMS nicht verwenden. Sie können dann optional in der S3-Konsole zu diesen Buckets navigieren und deren Standardverschlüsselungseinstellungen aktualisieren, um SSE-KMS oder SSE-S3 zu verwenden. Weitere Informationen finden Sie unter [Konfigurieren der Standardverschlüsselung](default-bucket-encryption.md).

## Identifizieren von Buckets, für die S3 Versioning aktiviert ist
<a name="storage-lens-data-protection-versioning"></a>

Wenn die S3-Versioning-Funktion aktiviert ist, behält sie mehrere Versionen desselben Objekts bei, die zur schnellen Wiederherstellung von Daten verwendet werden können, wenn ein Objekt versehentlich gelöscht oder überschrieben wird. Sie können die Metrik **Versioning-enabled bucket count** (Bucket-Anzahl mit aktiviertem Versioning) verwenden, um zu sehen, welche Buckets S3 Versioning verwenden. Anschließend können Sie in der S3-Konsole Maßnahmen ergreifen, um S3 Versioning für andere Buckets zu aktivieren.

### Schritt 1: Identifizieren von Buckets, für die S3 Versioning aktiviert ist
<a name="storage-lens-data-protection-versioning-step1"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Gehen Sie im Navigationsbereich auf **Storage Lens** und dann auf **Dashboards**.

1. Wählen Sie in der Liste **Dashboards** den Namen des Dashboards aus, das Sie anzeigen möchten.

1. Wählen Sie im Abschnitt **Trends and distributions** (Trends und Verteilungen) die Metrik **Versioning-enabled bucket count** (Bucket-Anzahl mit aktiviertem Versioning) als primäre Metrik und **Buckets** als sekundäre Metrik aus.

   Das Diagramm **Trend for *date*** (Trend für Datum) wird aktualisiert, um Trends für Buckets mit aktiviertem S3 Versioning anzuzeigen. Direkt unter der Trendlinie sehen Sie die Unterabschnitte **Storage class distribution** (Speicherklassenverteilung) und **Region distribution** (Regionale Verteilung).

1. Gehen Sie wie folgt vor, um detailliertere Einblicke für einen der Buckets im Diagramm **Trend for *date*** (Trend für Datum) zu sehen und eine eingehendere Analyse durchführen zu können:

   1. Wählen Sie einen Punkt im Diagramm aus. Es erscheint ein Feld mit Auswahlmöglichkeiten für detailliertere Einblicke.

   1. Wählen Sie eine Dimension aus, die Sie für eine eingehendere Analyse auf Ihre Daten anwenden möchten: **Account** (Konto), **AWS-Region**, **Storage class** (Speicherklasse) oder **Bucket**. Wählen Sie dann **Apply (Anwenden)**.

1. Wählen Sie im Abschnitt **Bubble-Analyse nach Buckets für *Datum*** die Metriken **Versionsverwaltung aktiviert Bucket-Anzahl**, **Buckets** und **Aktive Buckets**.

   Der Abschnitt **Bubble analysis by buckets for *date*** (Blasenanalyse nach Buckets für Datum) wird aktualisiert und zeigt nun Daten für die ausgewählten Metriken an. Sie können diese Daten verwenden, um zu sehen, für welche Buckets S3 Versioning im Kontext Ihrer gesamten Bucket-Anzahl aktiviert ist. Im Abschnitt **Blasenanalyse nach Buckets für *Datum*** können Sie Ihre Buckets in mehreren Dimensionen darstellen, indem Sie drei beliebige Metriken verwenden, um die **x-Achse**, **y-Achse** und die **Größe** der Blase darzustellen. 

### Schritt 2: Aktivieren von S3 Versioning
<a name="storage-lens-data-protection-versioning-step2"></a>

Nachdem Sie Buckets identifiziert haben, für die S3 Versioning aktiviert ist, können Sie Buckets identifizieren, für die S3 Versioning noch nie aktiviert war oder deren Versionsverwaltung ausgesetzt ist. Anschließend können Sie die Versionsverwaltung für diese Buckets in der S3-Konsole optional aktivieren. Weitere Informationen finden Sie unter [Aktivieren des Versioning für Buckets](manage-versioning-examples.md).

## Identifizieren Sie Anfragen, die AWS Signature Version 2 (SIGv2) verwenden
<a name="storage-lens-data-protection-sigv"></a>

Sie können die Metrik **Alle nicht unterstützten Signaturanfragen verwenden, um Anfragen** zu identifizieren, die AWS Signature Version 2 (SigV2) verwenden. Diese Daten können Ihnen helfen, bestimmte Anwendungen zu identifizieren, die SigV2 verwenden. Anschließend können Sie diese Anwendungen auf AWS Signature Version 4 (Sigv4) migrieren. 

SigV4 ist die empfohlene Signaturmethode für alle neuen S3-Anwendungen. SigV4 bietet verbesserte Sicherheit und wird von allen unterstützt. AWS-Regionen Weitere Informationen finden Sie unter [Amazon S3 Update – SigV2 Deprecation Period Extended and Modified](https://aws.amazon.com/blogs/aws/amazon-s3-update-sigv2-deprecation-period-extended-modified/).

**Voraussetzung**  
Zum Anzeigen von **All unsupported signature requests** (Alle nicht unterstützten Signaturanforderungen) in Ihrem S3-Storage-Lens-Dashboard müssen Sie die Option **Advanced metrics and recommendations** (Erweiterte Metriken und Empfehlungen) von S3 Storage Lens aktivieren und dann **Advanced data protection metrics** (Erweiterte Datensicherheitsmetriken) auswählen. Weitere Informationen finden Sie unter [Verwenden der S3-Konsole](storage_lens_editing.md#storage_lens_console_editing).

### Schritt 1: Untersuchen Sie die Sigv2-Signierungstrends nach AWS-Konto Region und Bereich
<a name="storage-lens-data-protection-sigv-step1"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie in der Liste **Dashboards** den Namen des Dashboards aus, das Sie anzeigen möchten.

1. So identifizieren Sie bestimmte Buckets, Konten und Regionen mit Anforderungen, die SigV2 verwenden:

   1. Geben Sie unter **Top N overview for *date*** (Top-N-Übersicht für Datum) im Feld **Top N** die Anzahl der Buckets ein, deren Daten Sie sehen möchten. 

   1. Wählen Sie für **Metric** (Metrik) die Option **All unsupported signature requests** (Alle nicht unterstützten Signaturanforderungen) in der Kategorie **Data protection** (Datenschutz) aus.

      Die **Top-N-Übersicht für *Datumsaktualisierungen*** zur Anzeige von Daten für SIGv2-Anfragen nach Konto, AWS-Region, und Bucket. Der Abschnitt **Top N overview for *date*** (Top-N-Übersicht für Datum) zeigt auch die prozentuale Veränderung gegenüber dem Vortag oder der Vorwoche sowie eine Sparkline zur Veranschaulichung des Trends an. Dieser Trend ist ein 14-Tage-Trend für kostenlose Metriken und ein 30-Tage-Trend für erweiterte Metriken und Empfehlungen. 
**Anmerkung**  
Mit den erweiterten Metriken und Empfehlungen von S3 Storage Lens stehen Metriken 15 Monate für Abfragen zur Verfügung. Weitere Informationen finden Sie unter [Auswahl der Metriken](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

### Schritt 2: Identifizieren von Buckets, auf die Anwendungen über SigV2-Anforderungen zugreifen
<a name="storage-lens-data-protection-sigv-step2"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie in der Liste **Dashboards** den Namen des Dashboards aus, das Sie anzeigen möchten.

1. Wählen Sie in Ihrem Storage-Lens-Dashboard die Registerkarte **Bucket** aus.

1. Scrollen Sie nach unten zum Abschnitt **Buckets**. Wählen Sie unter **Metrics categories** (Metrikkategorien) die Option **Data protection** (Datenschutz) aus. Löschen Sie dann **Summary** (Zusammenfassung).

   Die Liste **Buckets** wird aktualisiert und enthält alle verfügbaren Metriken für **Data protection** (Datenschutz) für die angezeigten Buckets. 

1. Wenn Sie die Liste **Buckets** so filtern möchten, dass nur bestimmte Datenschutzmetriken angezeigt werden, wählen Sie das Präferenzensymbol (![\[A screenshot that shows the preferences icon in the S3 Storage Lens dashboard.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/preferences.png)) aus.

1. Deaktivieren Sie die Schalter für alle Datenschutzmetriken, bis nur noch die folgenden Metriken ausgewählt sind:
   + **Alle nicht unterstützten Signaturanforderungen**
   + **% aller nicht unterstützten Signaturanforderungen**

1. (Optional) Wählen Sie unter **Page size** (Seitengröße) die Anzahl der Buckets aus, die in der Liste angezeigt werden sollen.

1. Wählen Sie **Bestätigen** aus.

   Die Liste **Buckets** wird aktualisiert, um Metriken auf Bucket-Ebene für SigV2-Anforderungen anzuzeigen. Sie können diese Daten verwenden, um bestimmte Buckets zu identifizieren, die SigV2-Anforderungen haben. Anschließend können Sie diese Informationen verwenden, um Ihre Anwendungen zu SigV4 zu migrieren. Weitere Informationen finden Sie unter [Authentifizieren von Anfragen (AWS Signature Version 4)](https://docs.aws.amazon.com/AmazonS3/latest/API/sig-v4-authenticating-requests.html) in der *Amazon Simple Storage Service API-Referenz.*

## Zählen der Gesamtzahl der Replikationsregeln für jeden Bucket
<a name="storage-lens-data-protection-replication-rule"></a>

S3 Replication ermöglicht das automatische, asynchrone Kopieren von Objekten in Amazon-S3-Buckets. Buckets, die für die Objektreplikation konfiguriert sind, können sich im Besitz desselben AWS-Konto oder unterschiedlicher Konten befinden. Weitere Informationen finden Sie unter [Replizieren von Objekten innerhalb und zwischen Regionen](replication.md). 

Sie können die Metriken zur Anzahl der Replikationsregeln von S3 Storage Lens verwenden, um detaillierte Informationen pro Bucket zu Ihren Buckets zu erhalten, die für die Replikation konfiguriert sind. Zu diesen Informationen gehören Replikationsregeln innerhalb von Buckets und Regionen sowie Bucket- und regionsübergreifende Replikationsregeln.

**Voraussetzung**  
Zum Anzeigen von Metriken zur Anzahl der Replikationsregeln in Ihrem S3-Storage-Lens-Dashboard müssen Sie die Option **Advanced metrics and recommendations** (Erweiterte Metriken und Empfehlungen) von S3 Storage Lens aktivieren und dann **Advanced data protection metrics** (Erweiterte Datensicherheitsmetriken) auswählen. Weitere Informationen finden Sie unter [Verwenden der S3-Konsole](storage_lens_editing.md#storage_lens_console_editing).

### Schritt 1: Zählen der Gesamtzahl der Replikationsregeln für jeden Bucket
<a name="storage-lens-data-protection-replication-rule-step1"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie in der Liste **Dashboards** den Namen des Dashboards aus, das Sie anzeigen möchten.

1. Wählen Sie in Ihrem Storage-Lens-Dashboard die Registerkarte **Bucket** aus.

1. Scrollen Sie nach unten zum Abschnitt **Buckets**. Wählen Sie unter **Metrics categories** (Metrikkategorien) die Option **Data protection** (Datenschutz) aus. Löschen Sie dann **Summary** (Zusammenfassung).

1. Wenn Sie die Liste **Buckets** so filtern möchten, dass nur Metriken zur Anzahl der Replikationsregeln angezeigt werden, wählen Sie das Präferenzensymbol (![\[A screenshot that shows the preferences icon in the S3 Storage Lens dashboard.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/preferences.png)) aus.

1. Deaktivieren Sie die Schalter für alle Datenschutzmetriken, bis nur noch die Metriken zur Anzahl der Replikationsregeln ausgewählt sind:
   + **Anzahl der Replikationsregeln für dieselbe Region**
   + **Anzahl der regionsübergreifenden Replikationsregeln**
   + **Anzahl der Replikationsregeln für dasselbe Konto**
   + **Kontenübergreifende Replikationsregelanzahl**
   + **Gesamte Replikationsregelnanzahl**

1. (Optional) Wählen Sie unter **Page size** (Seitengröße) die Anzahl der Buckets aus, die in der Liste angezeigt werden sollen.

1. Wählen Sie **Bestätigen** aus.

### Schritt 2: Hinzufügen von Replikationsregeln
<a name="storage-lens-data-protection-replication-rule-step2"></a>

Nachdem Sie die Anzahl der Replikationsregeln pro Bucket festgelegt haben, können Sie optional weitere Replikationsregeln erstellen. Weitere Informationen finden Sie unter [Beispiele für die Konfiguration einer Live-Replikation](replication-example-walkthroughs.md).

## Identifizieren des Prozentsatz der Bytes mit Objektsperre
<a name="storage-lens-data-protection-object-lock"></a>

Mit S3 Object Lock können Sie Objekte mithilfe eines *write-once-read-many (WORM-)* Modells speichern. Mit der Objektsperre können Sie verhindern, dass Objekte für einen bestimmten Zeitraum oder auf unbestimmte Zeit gelöscht oder überschrieben werden. Sie können die Objektsperre nur aktivieren, wenn Sie einen Bucket erstellen und S3 Versioning aktivieren. Sie können jedoch den Aufbewahrungszeitraum für einzelne Objektversionen bearbeiten oder gesetzliche Aufbewahrungsfristen für Buckets anwenden, für die die Objektsperre aktiviert ist. Weitere Informationen finden Sie unter [Sperren von Objekten mit Object Lock](object-lock.md).

Sie können Metriken für die Objektsperre in S3 Storage Lens verwenden, um die Metrik **% Object Lock bytes** (% Bytes mit Objektsperre) für Ihr Konto oder Ihre Organisation anzuzeigen. Sie können diese Informationen verwenden, um Buckets in Ihrem Konto oder Ihrer Organisation zu identifizieren, die Ihre bewährten Datenschutzmethoden nicht einhalten. 

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie in der Liste **Dashboards** den Namen des Dashboards aus, das Sie anzeigen möchten.

1. Wählen Sie im Abschnitt **Snapshot** unter **Metrics categories** (Metrikkategorien) die Option **Data protection** (Datenschutz) aus.

   Der Abschnitt **Snapshot** wird aktualisiert und zeigt nun Datenschutzmetriken an, einschließlich der Metrik **% Object Lock bytes** (% Bytes mit Objektsperre). Sie können den Gesamtprozentsatz der Bytes mit Objektsperre für Ihr Konto oder Ihre Organisation sehen. 

1. Wenn Sie die Metrik **% Object Lock bytes** (% Bytes mit Objektsperre) pro Bucket sehen möchten, scrollen Sie nach unten zum Abschnitt **Top N overview** (Top-N-Übersicht).

   Wenn Sie Daten mit Objektsperre auf Objektebene abrufen möchten, können Sie auch die Metriken **Object Lock object count** (Objektsperren-Objektanzahl) und **% Object Lock objects** (% Objekte mit Objektsperre) verwenden. 

1. Wählen Sie für **Metric** (Metrik) die Option **% Object Lock Bytes** (% Bytes mit Objektsperre) aus der Kategorie **Data protection** (Datenschutz) aus.

   Standardmäßig werden im Abschnitt **Top N overview for *date*** (Top-N-Übersicht für Datum) Metriken für die drei wichtigsten Buckets angezeigt. Im Feld **Top N** können Sie die Anzahl der Buckets erhöhen. Der Abschnitt **Top N overview for *date*** (Top-N-Übersicht für Datum) zeigt auch die prozentuale Veränderung gegenüber dem Vortag oder der Vorwoche sowie eine Sparkline zur Veranschaulichung des Trends an. Dieser Trend ist ein 14-Tage-Trend für kostenlose Metriken und ein 30-Tage-Trend für erweiterte Metriken und Empfehlungen. 
**Anmerkung**  
Mit den erweiterten Metriken und Empfehlungen von S3 Storage Lens stehen Metriken 15 Monate für Abfragen zur Verfügung. Weitere Informationen finden Sie unter [Auswahl der Metriken](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection).

1. Überprüfen Sie die folgenden Daten für **% Object Lock bytes** (% Objekte mit Objektsperre):
   + **Top *number* accounts** (Top N-Konten) – Sehen Sie sich an, welche Konten den höchsten und den niedrigsten Wert für **% Object Lock bytes** (% Bytes mit Objektsperre) haben.
   + **Top *number* Regions** (Top N-Regionen) – Zeigt eine Aufschlüsselung der **% Object Lock bytes** (% Bytes mit Objektsperre) nach Region an.
   + **Top *number* buckets** (Top N-Buckets) – Sehen Sie sich an, welche Buckets den höchsten und den niedrigsten Wert für **% Object Lock bytes** (% Bytes mit Objektsperre) haben.

# Verwenden von S3 Storage Lens zur Überwachung der Einstellungen für die Objekteigentümerschaft
<a name="storage-lens-access-management"></a>

Amazon S3 Object Ownership ist eine S3-Einstellung auf Bucket-Ebene, mit der Sie Zugriffskontrolllisten (ACLs) deaktivieren und den Besitz der Objekte in Ihrem Bucket kontrollieren können. Wenn Sie Object Ownership auf Bucket Owner erforced setzen, können Sie die [Zugriffskontrolllisten (ACLs)](acl-overview.md) deaktivieren und die Verantwortung für jedes Objekt in Ihrem Bucket übernehmen. Dieser Ansatz vereinfacht die Zugriffsverwaltung für in Amazon S3 gespeicherte Daten. 

Wenn ein anderer Benutzer ein Objekt in Ihren S3-Bucket AWS-Konto hochlädt, besitzt dieses Konto (der Objekt-Writer) standardmäßig das Objekt, hat Zugriff darauf und kann anderen Benutzern Zugriff darauf gewähren. ACLs Sie können Object Ownership verwenden, um dieses Standardverhalten zu ändern. 

Für die meisten modernen Anwendungsfälle in Amazon S3 ist die Verwendung von nicht mehr erforderlich ACLs. Daher empfehlen wir, die Option zu deaktivieren ACLs, außer in Fällen, in denen Sie den Zugriff für jedes Objekt einzeln steuern müssen. Wenn Sie „Objektbesitz“ auf „Bucket Owner erforced“ setzen, können Sie Richtlinien für die Zugriffskontrolle deaktivieren ACLs und sich auf diese verlassen. Weitere Informationen finden Sie unter [Kontrolle des Besitzes von Objekten und Deaktivierung ACLs für Ihren Bucket](about-object-ownership.md).

Mit den Zugriffsmanagement-Metriken von S3 Storage Lens können Sie Buckets identifizieren, die nicht deaktiviert wurden. ACLs Nachdem Sie diese Buckets identifiziert haben, können Sie ACL-Berechtigungen auf Richtlinien migrieren und für diese Buckets deaktivieren ACLs .

**Topics**
+ [Schritt 1: Identifizieren allgemeiner Trends für die Einstellungen der Objekteigentümerschaft](#storage-lens-access-management-step1)
+ [Schritt 2: Identifizieren von Trends auf Bucket-Ebene für die Einstellungen der Objekteigentümerschaft](#storage-lens-access-management-step2)
+ [Schritt 3: Ändern Sie Ihre Einstellung „Object Ownership“ auf „Bucket Owner erforced“, um sie zu deaktivieren ACLs](#storage-lens-access-management-step3)

## Schritt 1: Identifizieren allgemeiner Trends für die Einstellungen der Objekteigentümerschaft
<a name="storage-lens-access-management-step1"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie in der Liste **Dashboards** den Namen des Dashboards aus, das Sie anzeigen möchten.

1. Wählen Sie im Abschnitt **Snapshot for *date*** (Snapshot für Datum) unter **Metrics categories** (Metrikkategorien) die Option **Access management** (Zugriffsverwaltung) aus.

   Der Abschnitt **Snapshot for *date*** (Snapshot für Datum) wird aktualisiert und zeigt nun die Metrik **% Object Ownership bucket owner enforced** (% Bucket-Eigentümer erzwungen für Objekteigentümerschaft) an. Sie können den Gesamtanteil der Buckets in Ihrem Konto oder Ihrer Organisation sehen, bei denen die vom Bucket Ownership erzwungene Einstellung für Object Ownership zur Deaktivierung verwendet wurde. ACLs

## Schritt 2: Identifizieren von Trends auf Bucket-Ebene für die Einstellungen der Objekteigentümerschaft
<a name="storage-lens-access-management-step2"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie in der Liste **Dashboards** den Namen des Dashboards aus, das Sie anzeigen möchten.

1. Wenn Sie detailliertere Metriken auf Bucket-Ebene anzeigen möchten, wählen Sie die Registerkarte **Bucket** aus.

1. Wählen Sie im Abschnitt **Distribution by buckets for *date*** (Verteilung nach Buckets für Datum) die Metrik **% Object Ownership bucket owner enforced** (% Bucket-Eigentümer erzwungen für Objekteigentümerschaft) aus.

   Das Diagramm wird aktualisiert und zeigt nun eine Aufschlüsselung je Bucket für **% Object Ownership bucket owner enforced** (% Bucket-Eigentümer erzwungen für Objekteigentümerschaft) an. Sie können sehen, in welchen Buckets die vom Bucket-Besitzer erzwungene Einstellung für Object Ownership zur Deaktivierung verwendet wird. ACLs

1. Wenn Sie die Einstellungen „Bucket-Eigentümer erzwungen“ im Kontext sehen möchten, scrollen Sie nach unten zum Abschnitt **Buckets**. Wählen Sie für **Metrics categories** (Metrikkategorien) die Option **Access management** (Zugriffsverwaltung) aus. Löschen Sie dann **Summary** (Zusammenfassung).

   In der Liste **Buckets** werden Daten für alle drei Einstellungen für die Objekteigentümerschaft angezeigt: „Bucket owner enforced“ (Bucket-Eigentümer erzwungen), „Bucket owner preferred (Bucket-Eigentümer bevorzugt und „Object writer“ (Objektschreiber).

1. Wenn Sie die Liste **Buckets** so filtern möchten, dass Metriken nur für eine bestimmte Einstellung der Objekteigentümerschaft angezeigt werden, wählen Sie das Präferenzensymbol (![\[A screenshot that shows the preferences icon in the S3 Storage Lens dashboard.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/preferences.png)).

1. Löschen Sie die Metriken, die Sie nicht anzeigen möchten.

1. (Optional) Wählen Sie unter **Page size** (Seitengröße) die Anzahl der Buckets aus, die in der Liste angezeigt werden sollen.

1. Wählen Sie **Bestätigen** aus.

## Schritt 3: Ändern Sie Ihre Einstellung „Object Ownership“ auf „Bucket Owner erforced“, um sie zu deaktivieren ACLs
<a name="storage-lens-access-management-step3"></a>

Nachdem Sie Buckets identifiziert haben, die die Einstellungen „Object writer“ (Objektschreiber) und „Bucket owner preferred“ (Bucket-Eigentümer bevorzugt) für die Objekteigentümerschaft verwenden, können Sie Ihre ACL-Berechtigungen zu Bucket-Richtlinien migrieren. Wenn Sie mit der Migration Ihrer ACL-Berechtigungen fertig sind, können Sie Ihre Einstellungen für Object Ownership auf Bucket Owner Enforced aktualisieren, um sie zu deaktivieren. ACLs Weitere Informationen finden Sie unter [Voraussetzungen für die Deaktivierung ACLs](object-ownership-migrating-acls-prerequisites.md).

# Verwenden der Metriken von S3 Storage Lens zur Verbesserung der Leistung
<a name="storage-lens-detailed-status-code"></a>

Wenn Sie die Option [S3 Storage Lens advanced metrics](storage_lens_basics_metrics_recommendations.md#storage_lens_basics_metrics_selection) (Erweiterte Metriken von S3 Storage Lens) aktiviert haben, können Sie die detaillierten Statuscode-Metriken verwenden, um die Anzahl von erfolgreichen oder fehlgeschlagenen Anforderungen zu erhalten. Sie können diese Informationen verwenden, um Probleme mit dem Zugriff oder der Leistung zu beheben. Detaillierte Statuscodemetriken zeigen die Anzahl der HTTP-Statuscodes an, z. B. 403 Forbidden und 503 Service Unavailable. Sie können allgemeine Trends anhand detaillierter Statuscode-Metriken für S3-Buckets, Konten und Organisationen untersuchen. Anschließend können Sie sich Metriken auf Bucket-Ebene genauer ansehen, um Workloads zu identifizieren, die derzeit auf diese Buckets zugreifen und Fehler verursachen. 

Sie können sich beispielsweise die Metrik **403 Forbidden error count** (Anzahl der Fehler 403 Forbidden) ansehen, um Workloads zu identifizieren, die auf Buckets zugreifen, ohne dass die korrekten Berechtigungen angewendet wurden. Nachdem Sie diese Workloads identifiziert haben, können Sie außerhalb von S3 Storage Lens detaillierte Einblicke erhalten, um Ihre „403 Forbidden“-Fehler zu beheben.

Dieses Beispiel zeigt Ihnen, wie Sie eine Trendanalyse für den Fehler „403 Forbidden“ durchführen, indem Sie die Metriken **403 Forbidden error count** (Anzahl der Fehler 403 Forbidden) und **% 403 Forbidden errors** (% Fehler 403 Forbidden) verwenden. Anhand dieser Metriken können Sie Workloads identifizieren, die auf Buckets zugreifen, ohne dass die korrekten Berechtigungen angewendet wurden. Eine ähnliche Trendanalyse können Sie für jede der anderen **Detailed status code metrics** (Detaillierte Statuscode-Metriken) durchführen. Weitere Informationen finden Sie unter [Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md).

**Voraussetzung**  
Wenn Sie **Detailed status code metrics** (Detaillierte Statuscode-Metriken) in Ihrem S3-Storage-Lens-Dashboard anzeigen möchten, müssen Sie die Option **Advanced metrics and recommendations** (Erweiterte Metriken und Empfehlungen) von S3 Storage Lens aktivieren und dann **Detailed status code metrics** (Detaillierte Statuscode-Metriken) auswählen. Weitere Informationen finden Sie unter [Verwenden der S3-Konsole](storage_lens_editing.md#storage_lens_console_editing).

**Topics**
+ [Schritt 1: Durchführen einer Trendanalyse für einen einzelnen HTTP-Statuscode](#storage-lens-detailed-status-code-step1)
+ [Schritt 2: Analysieren der Fehleranzahl nach Bucket](#storage-lens-detailed-status-code-step2)
+ [Schritt 3: Fehlerbehebung](#storage-lens-detailed-status-code-step3)

## Schritt 1: Durchführen einer Trendanalyse für einen einzelnen HTTP-Statuscode
<a name="storage-lens-detailed-status-code-step1"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie in der Liste **Dashboards** den Namen des Dashboards aus, das Sie anzeigen möchten.

1. Wählen Sie im Abschnitt **Trends und Verteilungen** für **Primäre Metrik** die Option **Anzahl der Fehler 403 Forbidden** in der Kategorie **Detaillierte Statuscodes** aus. Wählen Sie für **Secondary metric** (Sekundäre Metrik) die Option **% 403 Forbidden errors** (% Fehler 403 Forbidden) aus.

1. Scrollen Sie nach unten zum Abschnitt **Top N overview for *date*** (Top-N-Übersicht für Datum). Für **Metriken** wählen Sie **403 Verbotene Fehleranzahl** oder **% 403 Verbotene Fehler** aus der Kategorie **Detaillierte Statuscodes**.

   Der Bereich **Top-N-Übersicht für das *Datum*** wurde aktualisiert und zeigt nun die Anzahl der häufigsten 403 verbotenen Fehler nach Konto AWS-Region, und Bucket an. 

## Schritt 2: Analysieren der Fehleranzahl nach Bucket
<a name="storage-lens-detailed-status-code-step2"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Dashboards** aus.

1. Wählen Sie in der Liste **Dashboards** den Namen des Dashboards aus, das Sie anzeigen möchten.

1. Wählen Sie in Ihrem Storage-Lens-Dashboard die Registerkarte **Bucket** aus.

1. Scrollen Sie nach unten zum Abschnitt **Buckets**. Wählen Sie für **Metrics categories** (Metrikkategorien) die Option **Detailed status code metrics** (Detaillierte Statuscode-Metriken) aus. Löschen Sie dann **Summary** (Zusammenfassung).

   Die Liste **Buckets** wird aktualisiert und zeigt alle verfügbaren detaillierten Statuscode-Metriken an. Sie können diese Informationen verwenden, um zu sehen, welche Buckets einen großen Anteil bestimmter HTTP-Statuscodes enthalten und welche Statuscodes für die Buckets gängig sind. 

1. Wenn Sie die Liste **Buckets** so filtern möchten, dass nur bestimmte detaillierte Statuscode-Metriken angezeigt werden, wählen Sie das Präferenzensymbol (![\[A screenshot that shows the preferences icon in the S3 Storage Lens dashboard.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/preferences.png)).

1. Deaktivieren Sie die Schalter für alle detaillierten Statuscode-Metriken, die Sie nicht in der Liste **Buckets** anzeigen möchten.

1. (Optional) Wählen Sie unter **Page size** (Seitengröße) die Anzahl der Buckets aus, die in der Liste angezeigt werden sollen.

1. Wählen Sie **Bestätigen** aus.

   In der Liste **Buckets** werden Metriken zur Fehleranzahl für die von Ihnen angegebene Anzahl von Buckets angezeigt. Sie können diese Informationen verwenden, um bestimmte Buckets zu identifizieren, in denen viele Fehler auftreten, und um Fehler nach Bucket zu beheben.

## Schritt 3: Fehlerbehebung
<a name="storage-lens-detailed-status-code-step3"></a>

 Nachdem Sie Buckets mit einem hohen Anteil an bestimmten HTTP-Statuscodes identifiziert haben, können Sie diese Fehler beheben. Weitere Informationen finden Sie hier:
+ [Warum erhalte ich die Fehlermeldung „403 Forbidden“, wenn ich versuche, Dateien in Amazon S3 hochzuladen? ](https://aws.amazon.com/premiumsupport/knowledge-center/s3-403-forbidden-error/)
+ [Warum erhalte ich die Fehlermeldung „403 Forbidden“, wenn ich versuche, eine Bucket-Richtlinie in Amazon S3 zu ändern?](https://aws.amazon.com/premiumsupport/knowledge-center/s3-access-denied-bucket-policy/)
+ [Wie behebe ich „403 Forbidden“-Fehler in meinem Amazon-S3-Bucket, bei dem alle Ressourcen aus denselben AWS-Konto stammen?](https://aws.amazon.com/premiumsupport/knowledge-center/s3-troubleshoot-403-resource-same-account/)
+ [Wie behebe ich einen HTTP 500- oder 503-Fehler von Amazon S3?](https://aws.amazon.com/premiumsupport/knowledge-center/http-5xx-errors-s3/)

# Arbeiten mit S3 Storage Lens-Daten in S3-Tabellen
<a name="storage-lens-s3-tables"></a>

Amazon S3 Storage Lens kann Ihre Speicheranalysen und Erkenntnisse in S3-Tabellen exportieren, sodass Sie Ihre Storage Lens-Metriken mithilfe von SQL mit AWS Analysediensten wie Amazon Athena, Amazon EMR, Amazon SageMaker Studio (SMStudio) und anderen AWS Analysetools abfragen können. Wenn Sie S3 Storage Lens für den Export in S3-Tabellen konfigurieren, werden Ihre Metriken automatisch in schreibgeschützten Apache Iceberg-Tabellen im -managed table bucket gespeichert. AWS`aws-s3`

Diese Integration bietet strukturierten Datenzugriff für die Abfrage von Storage Lens-Metriken mithilfe von Standard-SQL, Analyseintegration mit AWS Analysediensten, Funktionen für historische Analysen und Kostenoptimierung ohne zusätzliche Kosten für den Export in verwaltete S3-Tabellen. AWS

**Topics**
+ [Exportieren von S3 Storage Lens-Metriken in S3-Tabellen](storage-lens-s3-tables-export.md)
+ [Benennung von Tabellen für den Export von S3 Storage Lens in S3-Tabellen](storage-lens-s3-tables-naming.md)
+ [Grundlegendes zu den Tabellenschemas von S3 Storage Lens](storage-lens-s3-tables-schemas.md)
+ [Berechtigungen für S3 Storage Lens-Tabellen](storage-lens-s3-tables-permissions.md)
+ [Abfragen von S3 Storage Lens-Daten mit Analysetools](storage-lens-s3-tables-querying.md)
+ [Verwendung von KI-Assistenten mit S3 Storage Lens-Tabellen](storage-lens-s3-tables-ai-tools.md)

# Exportieren von S3 Storage Lens-Metriken in S3-Tabellen
<a name="storage-lens-s3-tables-export"></a>

Sie können Amazon S3 Storage Lens so konfigurieren, dass Ihre Speicheranalysen und Erkenntnisse in S3-Tabellen exportiert werden. Wenn Sie den Export von S3-Tabellen aktivieren, werden Ihre Metriken automatisch in schreibgeschützten Apache Iceberg-Tabellen im Bucket für AWS verwaltete `aws-s3` Tabellen gespeichert, sodass sie mithilfe von SQL mit AWS Analysediensten wie Amazon Athena, Amazon Redshift und Amazon EMR abgefragt werden können.

**Anmerkung**  
Für den Export von S3 Storage Lens-Metriken in verwaltete S3-Tabellen fallen keine zusätzlichen Gebühren an. AWS Für die Speicherung von Tabellen, die Tabellenverwaltung und Anfragen zu den Tabellen fallen Standardgebühren an. Weitere Informationen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing). 

## Aktivieren Sie den Export von S3-Tabellen über die Konsole
<a name="storage-lens-s3-tables-export-console"></a>

1. Melden Sie sich bei der AWS Management Console an und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/). 

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Storage Lens Dashboards** aus. 

1. Wählen Sie in der Liste **Storage Lens Dashboards** das Dashboard aus, das Sie bearbeiten möchten.

1. Wählen Sie **Bearbeiten** aus. 

1. Navigieren Sie auf der **Dashboard-Seite** zum Abschnitt **Exportieren und Veröffentlichen von Metriken**.

1. Um den Tabellenexport für den **Standardmetrikbericht** zu aktivieren, wählen Sie im **Bucket-Typ die Option Tabellen-Bucket** aus.

1. Um den Tabellenexport für den **Metrikbericht mit erweiterten Präfixen** zu aktivieren, wählen Sie **Tabellen-Bucket** im Bucket-Typ aus.

1. Überprüfen Sie die Dashboard-Konfiguration und klicken Sie auf **Senden**. 

**Anmerkung**  
Nachdem Sie den Export von S3-Tabellen aktiviert haben, kann es bis zu 48 Stunden dauern, bis die ersten Daten in den Tabellen verfügbar sind.

**Anmerkung**  
Für den Export von S3 Storage Lens-Metriken in AWS verwaltete S3-Tabellen fallen keine zusätzlichen Gebühren an. Für die Speicherung von Tabellen, die Tabellenverwaltung, Anfragen zu den Tabellen und die Überwachung fallen Standardgebühren an. Sie können den Export in S3-Tabellen aktivieren oder deaktivieren, indem Sie die Amazon S3 S3-Konsole, die Amazon S3 S3-API AWS CLI, oder verwenden AWS SDKs.

**Anmerkung**  
Standardmäßig laufen Datensätze in Ihren S3-Tabellen nicht ab. Um die Speicherkosten für Ihre Tabellen zu minimieren, können Sie das Ablaufen von Datensätzen für die Tabellen aktivieren und konfigurieren. Mit dieser Option entfernt Amazon S3 automatisch Datensätze aus einer Tabelle, wenn die Datensätze ablaufen. Siehe: [Ablauf von Datensätzen für Tabellen.](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-tables-record-expiration.html) 

## Aktivieren Sie den Export von S3-Tabellen mit dem AWS CLI
<a name="storage-lens-s3-tables-export-cli"></a>

**Anmerkung**  
Bevor Sie die folgenden Befehle ausführen, stellen Sie sicher, dass Sie über eine aktuelle CLI-Version verfügen. Weitere Informationen finden Sie unter [Installation oder Aktualisierung auf die neueste Version von AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html). 

Das folgende Beispiel aktiviert den Export von S3-Tabellen für eine S3-Storage-Lens-Konfiguration „Standardmetrikbericht“ mithilfe von AWS CLI. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die *user input placeholders* (Platzhalter für Benutzereingaben) durch Ihre Informationen.

```
aws s3control put-storage-lens-configuration --account-id=555555555555 --config-id=your-configuration-id --storage-lens-configuration '{
   "Id":"your-configuration-id",
   "AccountLevel":{
      "ActivityMetrics":{
        "IsEnabled":true
      },
      "BucketLevel":{
         "ActivityMetrics":{
            "IsEnabled":true
         }
      }
   },
   "DataExport":{
      "S3BucketDestination":{
         "OutputSchemaVersion":"V_1",
         "Format":"CSV",
         "AccountId":"555555555555",
         "Arn":"arn:aws:s3:::my-export-bucket",
         "Prefix":"storage-lens-exports/"
      },
      "StorageLensTableDestination":{
         "IsEnabled":true
      }
   },
   "IsEnabled":true
}'
```

## Aktivieren Sie den Export von S3-Tabellen mit dem AWS SDKs
<a name="storage-lens-s3-tables-export-sdk"></a>

Das folgende Beispiel aktiviert den Export von S3-Tabellen für eine S3-Storage-Lens-Konfiguration „Default Metrics Report“ mithilfe des AWS SDK for Python (Boto3). Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die *user input placeholders* (Platzhalter für Benutzereingaben) durch Ihre Informationen.

```
import boto3

s3control = boto3.client('s3control')

response = s3control.put_storage_lens_configuration( AccountId='555555555555', ConfigId='your-configuration-id', StorageLensConfiguration={
        'Id': 'your-configuration-id',
        'AccountLevel': {
            'ActivityMetrics': {
              'IsEnabled': True
            },
            'BucketLevel': {
                'ActivityMetrics': {
                    'IsEnabled': True
                }
            }
        },
        'DataExport': {
            'S3BucketDestination': {
                'OutputSchemaVersion': 'V_1',
                'Format': 'CSV',
                'AccountId': '555555555555',
                'Arn': 'arn:aws:s3:::my-export-bucket',
                'Prefix': 'storage-lens-exports/'
            },
            'StorageLensTableDestination': {
                'IsEnabled': True
            }
        },
        'IsEnabled': True
    }
)
```

Weitere Informationen zur Verwendung der Tools finden Sie AWS SDKs unter [AWS SDKs und](https://aws.amazon.com/developer/tools/). 

## Nächste Schritte
<a name="storage-lens-s3-tables-export-next-steps"></a>

Nachdem Sie den Export von S3-Tabellen aktiviert haben, können Sie:
+ Weitere Informationen über [Benennung von Tabellen für den Export von S3 Storage Lens in S3-Tabellen](storage-lens-s3-tables-naming.md) 
+ Weitere Informationen über [Grundlegendes zu den Tabellenschemas von S3 Storage Lens](storage-lens-s3-tables-schemas.md) 

# Benennung von Tabellen für den Export von S3 Storage Lens in S3-Tabellen
<a name="storage-lens-s3-tables-naming"></a>

Wenn Sie S3 Storage Lens-Metriken in S3-Tabellen exportieren, werden die Tabellen gemäß den Apache Iceberg-Katalogkonventionen mit spezifischen Benennungsmustern organisiert, um Kompatibilität und Organisation zu gewährleisten.

## Struktur des Speicherorts der Tabelle
<a name="storage-lens-s3-tables-naming-location"></a>

Die vollständige Position der Tabelle folgt diesem Muster:

```
s3tablescatalog/aws-s3/<namespace>/<table-name>
```

### Name des Tabellen-Buckets
<a name="storage-lens-s3-tables-naming-bucket"></a>

 **Tabellen-Bucket:** `aws-s3` 

Der S3 Storage Lens-Export verwendet den `aws-s3` Tabellen-Bucket, der als Bucket für AWS S3-bezogene Systemtabellen vorgesehen ist.

### Name des Katalogs
<a name="storage-lens-s3-tables-naming-catalog"></a>

 **Katalog:** `s3tablescatalog/aws-s3` 

S3 Storage Lens-Tabellen werden im S3-Katalog gespeichert, da Storage Lens Einblicke in drei Arten von S3-Ressourcen bietet:
+ Speichermetriken
+ Bucket-Eigenschaften
+ Metriken zur API-Nutzung

## Namenskonvention für Namespaces
<a name="storage-lens-s3-tables-naming-namespace"></a>

Namespaces organisieren Tabellen innerhalb des Katalogs. Für S3 Storage Lens wird der Namespace von Ihrer Storage Lens-Konfigurations-ID abgeleitet.

### Standard-Namespace-Format
<a name="storage-lens-s3-tables-naming-namespace-standard"></a>

Für eine Storage Lens-Konfiguration IDs ohne Punkte (`.`): 

```
lens_<configuration-id>_exp
```

 **Beispiel:** Wenn Ihre Konfigurations-ID lautet`my-lens-config`, lautet der Namespace:

```
lens_my-lens-config_exp
```

### Namespace-Format mit Behandlung von Punkt- oder Großbuchstaben
<a name="storage-lens-s3-tables-naming-namespace-dots"></a>

Die Storage Lens-Konfiguration IDs kann Punkte (`.`) oder Großbuchstaben (`A-Z`) enthalten, aber die Namespaces von S3 Tables unterstützen nur Kleinbuchstaben, Zahlen, Bindestriche () und Unterstriche (). `-` `_` Wenn Ihre Konfigurations-ID Punkte enthält, werden diese in Bindestriche und Großbuchstaben in Kleinbuchstaben umgewandelt, und aus Gründen der Eindeutigkeit wird ein Hash-Suffix hinzugefügt:

```
lens_<configuration-id-with-dots-or-uppercase-replaced>_exp_<7-char-hash>
```

 **Beispiel:** Wenn Ihre Konfigurations-ID lautet`my.LENS.config`, lautet der Namespace:

```
lens_my-lens-config_exp_a1b2c3d
```

Wo `a1b2c3d` sind die ersten 7 Zeichen des SHA-1-Hashs der ursprünglichen Konfigurations-ID.

## Vollständige Beispiele
<a name="storage-lens-s3-tables-naming-examples"></a>

Für eine Storage Lens-Konfiguration mit ID`production-metrics`: 
+  **Tischeimer:** `aws-s3` 
+  **Katalog:** `s3tablescatalog/aws-s3` 
+  **Namespace:** `lens_production-metrics_exp` 
+  **Vollständiger Pfad:** `s3tablescatalog/aws-s3/lens_production-metrics_exp/<table-name>` 

Für eine Storage Lens-Konfiguration mit ID`prod.us.east.metrics`: 
+  **Tischeimer:** `aws-s3` 
+  **Katalog:** `s3tablescatalog/aws-s3` 
+  **Namespace:** `lens_prod-us-east-metrics_exp_f8e9a1b` (mit Hash)
+  **Vollständiger Pfad:** `s3tablescatalog/aws-s3/lens_prod-us-east-metrics_exp_f8e9a1b/<table-name>` 

## Tabellentypen
<a name="storage-lens-s3-tables-naming-types"></a>

Die folgende Tabelle zeigt die verschiedenen Tabellentypen, die für S3 Storage Lens-Exporte erstellt wurden:


| Katalog | Namespace | Name der S3-Tabelle | Description | 
| --- | --- | --- | --- | 
| s3-Tabellen-Katalog/aws-s3 | <conf\$1name><hash>linse\$1 \$1exp [\$1] | Standardspeicher-Metriken | Diese Tabelle enthält die Speichermetriken für Ihre Storage Lens-Konfiguration. | 
| s3Tables-Katalog/aws-s3 | <conf\$1name><hash>linse\$1 \$1exp [\$1] | Standardaktivitätskennzahlen | Diese Tabelle enthält die Aktivitätsmetriken für Ihre Storage Lens-Konfiguration. | 
| s3Tables-Katalog/aws-s3 | <conf\$1name><hash>linse\$1 \$1exp [\$1] | erweiterte\$1Präfixe\$1Speichermetriken | Diese Tabelle enthält die Speichermetriken für alle Präfixe in Ihrer Storage Lens-Konfiguration. | 
| s3Tables-Katalog/aws-s3 | <conf\$1name><hash>linse\$1 \$1exp [\$1] | erweiterte\$1Präfixe\$1Aktivitätsmetriken | Diese Tabelle enthält die Aktivitätsmetriken für alle Präfixe in Ihrer Storage Lens-Konfiguration. | 
| s3Tables-Katalog/aws-s3 | <conf\$1name><hash>linse\$1 \$1exp [\$1] | Bucket\$1Property\$1Metriken | Diese Tabelle enthält die Kennzahlen der Bucket-Eigenschaften für alle Buckets in Ihrer Storage Lens-Konfiguration. | 

## Nächste Schritte
<a name="storage-lens-s3-tables-naming-next-steps"></a>
+ Weitere Informationen über [Grundlegendes zu den Tabellenschemas von S3 Storage Lens](storage-lens-s3-tables-schemas.md) 
+ Weitere Informationen über [Berechtigungen für S3 Storage Lens-Tabellen](storage-lens-s3-tables-permissions.md) 

# Grundlegendes zu den Tabellenschemas von S3 Storage Lens
<a name="storage-lens-s3-tables-schemas"></a>

Beim Exportieren von S3 Storage Lens-Metriken in S3-Tabellen werden die Daten in drei separaten Tabellenschemas organisiert: Speichermetriken, Bucket-Eigenschaftsmetriken und Aktivitätsmetriken.

## Schema der Tabelle mit Speichermetriken
<a name="storage-lens-s3-tables-schemas-storage"></a>


| Name | Typ | Description | 
| --- | --- | --- | 
|  version\$1number  | Zeichenfolge | Versions-ID des Schemas der Tabelle | 
|  configuration\$1id  | Zeichenfolge | Name der Konfiguration von S3 Storage Lens | 
|  report\$1time  | timestamptz | Datum, auf das sich der S3 Storage Lens-Bericht bezieht | 
|  aws\$1account\$1id  | Zeichenfolge | Konto-ID, auf die sich der Eintrag bezieht | 
|  aws\$1region  | Zeichenfolge | Region | 
|  storage\$1class  | Zeichenfolge | Speicherklasse | 
|  record\$1type  | Zeichenfolge | Art des Datensatzes, related auf welcher Ebene die Daten aggregiert werden. Werte:ACCOUNT,BUCKET, PREFIXSTORAGE\$1LENS\$1GROUP\$1BUCKET,STORAGE\$1LENS\$1GROUP\$1ACCOUNT.  | 
|  record\$1value  | Zeichenfolge | Disambiguator für Datensatztypen, die mehr als einen Datensatz enthalten. Es wird verwendet, um auf das Präfix zu verweisen | 
|  bucket\$1name  | Zeichenfolge | Bucket-Name | 
|  object\$1count  | long | Anzahl der Objekte, die für das aktuelle referenzierte Objekt gespeichert wurden | 
|  storage\$1bytes  | DEZIMAL (38,0) | Anzahl der für das aktuelle referenzierte Element gespeicherten Byte | 
|  bucket\$1key\$1sse\$1kms\$1object\$1count  | long | Anzahl der Objekte, die mit einem vom Kunden verwalteten Schlüssel verschlüsselt wurden und für das aktuelle referenzierte Objekt gespeichert wurden | 
|  bucket\$1key\$1sse\$1kms\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der Byte, die mit einem vom Kunden verwalteten Schlüssel verschlüsselt wurden und für den aktuell referenzierten Artikel gespeichert wurden | 
|  current\$1version\$1object\$1count  | long | Anzahl der Objekte der aktuellen Version, die für das aktuelle Objekt gespeichert wurden, auf das verwiesen wird | 
|  current\$1version\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der Byte der aktuellen Version, die für das aktuelle Element gespeichert wurden, auf das verwiesen wird | 
|  delete\$1marker\$1object\$1count  | long | Anzahl der Löschmarkierungsobjekte, die für das aktuelle referenzierte Objekt gespeichert wurden | 
|  delete\$1marker\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der für das aktuelle referenzierte Element gespeicherten Byte der Löschmarkierung | 
|  encrypted\$1object\$1count  | long | Anzahl der verschlüsselten Objekte, die für das aktuelle referenzierte Objekt gespeichert wurden | 
|  encrypted\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der verschlüsselten Byte, die für das aktuelle referenzierte Objekt gespeichert wurden | 
|  incomplete\$1mpu\$1object\$1older\$1than\$17\$1days\$1count  | long | Anzahl der unvollständigen mehrteiligen Upload-Objekte, die älter als 7 Tage sind und für das aktuelle referenzierte Objekt gespeichert wurden | 
|  incomplete\$1mpu\$1storage\$1older\$1than\$17\$1days\$1bytes  | DEZIMAL (38,0) | Anzahl der unvollständigen mehrteiligen Upload-Bytes, die für das aktuelle Objekt, auf das verwiesen wird, vor mehr als 7 Tagen gespeichert wurden | 
|  incomplete\$1mpu\$1object\$1count  | long | Anzahl der unvollständigen mehrteiligen Upload-Objekte, die für das aktuelle referenzierte Objekt gespeichert wurden | 
|  incomplete\$1mpu\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der unvollständigen mehrteiligen Upload-Bytes, die für das aktuelle Objekt gespeichert wurden, auf das verwiesen wird | 
|  non\$1current\$1version\$1object\$1count  | long | Anzahl der Objekte, die nicht in der aktuellen Version für das aktuelle Objekt gespeichert wurden, auf das verwiesen wird | 
|  non\$1current\$1version\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der Byte, die für das aktuelle Objekt gespeichert wurden, auf das verwiesen wird | 
|  object\$1lock\$1enabled\$1object\$1count  | long | Anzahl der Objekte, die für Objekte gespeichert wurden, für die die Sperre im aktuell referenzierten Element aktiviert ist | 
|  object\$1lock\$1enabled\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der Byte, die für Objekte gespeichert wurden, für die die Sperre aktiviert ist, im aktuellen Objekt, auf das verwiesen wird | 
|  replicated\$1object\$1count  | long | Anzahl der Objekte, die für das aktuelle referenzierte Objekt repliziert wurden | 
|  replicated\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der für das aktuelle referenzierte Element replizierten Byte | 
|  replicated\$1object\$1source\$1count  | long | Anzahl der Objekte, die als Quelle repliziert wurden und für das aktuelle referenzierte Element gespeichert wurden | 
|  replicated\$1storage\$1source\$1bytes  | DEZIMAL (38,0) | Anzahl der Byte, die als Quelle für das aktuelle referenzierte Element repliziert wurden | 
|  sse\$1kms\$1object\$1count  | long | Anzahl der mit dem SSE-Schlüssel verschlüsselten Objekte, die für das aktuelle Objekt gespeichert wurden, auf das verwiesen wird | 
|  sse\$1kms\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der mit dem SSE-Schlüssel verschlüsselten Byte, die für das aktuelle Objekt gespeichert wurden, auf das verwiesen wird | 
|  object\$10kb\$1count  | long | Anzahl der Objekte mit einer Größe von 0 KB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$10kb\$1to\$1128kb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 0 KB und weniger als 128 KB, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1128kb\$1to\$1256kb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 128 KB und weniger als 256 KB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1256kb\$1to\$1512kb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 256 KB und weniger als 512 KB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1512kb\$1to\$11mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 512 KB und weniger als 1 MB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$11mb\$1to\$12mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 1 MB und weniger als 2 MB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$12mb\$1to\$14mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 2 MB und weniger als 4 MB, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$14mb\$1to\$18mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 4 MB und weniger als 8 MB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$18mb\$1to\$116mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 8 MB und weniger als 16 MB, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$116mb\$1to\$132mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 16 MB und weniger als 32 MB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$132mb\$1to\$164mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 32 MB und weniger als 64 MB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$164mb\$1to\$1128mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 64 MB und weniger als 128 MB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1128mb\$1to\$1256mb\$1count  | long | Anzahl der Objekte, die größer als 128 MB und kleiner als 256 MB sind, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1256mb\$1to\$1512mb\$1count  | long | Anzahl der Objekte, die größer als 256 MB und kleiner als 512 MB sind, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1512mb\$1to\$11gb\$1count  | long | Anzahl der Objekte, die größer als 512 MB und kleiner als 1 GB sind, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$11gb\$1to\$12gb\$1count  | long | Anzahl der Objekte, die größer als 1 GB und kleiner als 2 GB sind, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$12gb\$1to\$14gb\$1count  | long | Anzahl der Objekte, die größer als 2 GB und kleiner als 4 GB sind, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1larger\$1than\$14gb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 4 GB, einschließlich aktueller Versionen, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 

## Tabellenschema für Kennzahlen zur Bucket-Eigenschaft
<a name="storage-lens-s3-tables-schemas-bucket-property"></a>


| Name | Typ | Description | 
| --- | --- | --- | 
|  version\$1number  | Zeichenfolge | Versions-ID des Schemas der Tabelle | 
|  configuration\$1id  | Zeichenfolge | Name der Konfiguration von S3 Storage Lens | 
|  report\$1time  | timestamptz | Datum, auf das sich der S3 Storage Lens-Bericht bezieht | 
|  aws\$1account\$1id  | Zeichenfolge | Konto-ID, auf die sich der Eintrag bezieht | 
|  record\$1type  | Zeichenfolge | Art des Datensatzes, bezogen auf die Aggregationsebene der Daten. Werte:ACCOUNT,BUCKET, PREFIXSTORAGE\$1LENS\$1GROUP\$1BUCKET,STORAGE\$1LENS\$1GROUP\$1ACCOUNT.  | 
|  record\$1value  | Zeichenfolge | Disambiguator für Datensatztypen, die mehr als einen Datensatz enthalten. Es wird verwendet, um auf das Präfix zu verweisen. | 
|  aws\$1region  | Zeichenfolge | Region | 
|  storage\$1class  | Zeichenfolge | Speicherklasse | 
|  bucket\$1name  | Zeichenfolge | Bucket-Name | 
|  versioning\$1enabled\$1bucket\$1count  | long | Anzahl der Buckets mit aktivierter Versionierung für das aktuelle Objekt, auf das verwiesen wird | 
|  mfa\$1delete\$1enabled\$1bucket\$1count  | long | Anzahl der Buckets mit aktiviertem MFA-Löschen für das aktuelle referenzierte Objekt | 
|  sse\$1kms\$1enabled\$1bucket\$1count  | long | Anzahl der Buckets, für die KMS für das aktuell referenzierte Objekt aktiviert ist | 
|  object\$1ownership\$1bucket\$1owner\$1enforced\$1bucket\$1count  | long | Anzahl der Buckets, für die der Besitzer des Buckets Object Ownership für das aktuell referenzierte Objekt aktiviert wurde | 
|  object\$1ownership\$1bucket\$1owner\$1preferred\$1bucket\$1count  | long | Anzahl der Buckets, bei denen der Besitzer des Buckets Object Ownership für das aktuell referenzierte Objekt bevorzugt wird | 
|  object\$1ownership\$1object\$1writer\$1bucket\$1count  | long | Anzahl der Buckets mit Object Ownership Object Writer für das aktuelle Objekt, auf das verwiesen wird | 
|  transfer\$1acceleration\$1enabled\$1bucket\$1count  | long | Anzahl der Buckets, für die die Übertragungsbeschleunigung für das aktuell referenzierte Objekt aktiviert ist | 
|  event\$1notification\$1enabled\$1bucket\$1count  | long | Anzahl der Buckets, für die die Ereignisbenachrichtigung für das aktuell referenzierte Objekt aktiviert ist | 
|  transition\$1lifecycle\$1rule\$1count  | long | Anzahl der Lebenszyklusregeln für den Übergang für das aktuelle Objekt, auf das verwiesen wird | 
|  expiration\$1lifecycle\$1rule\$1count  | long | Anzahl der Ablauflebenszyklusregeln für den aktuellen Artikel, auf den verwiesen wird | 
|  non\$1current\$1version\$1transition\$1lifecycle\$1rule\$1count  | long | Anzahl der Lebenszyklusregeln für den veralteten Versionsübergang für den aktuellen Artikel, auf den verwiesen wird | 
|  non\$1current\$1version\$1expiration\$1lifecycle\$1rule\$1count  | long | Anzahl der Lebenszyklusregeln für den Ablauf einer veralteten Version für das aktuelle Objekt, auf das verwiesen wird | 
|  abort\$1incomplete\$1multipart\$1upload\$1lifecycle\$1rule\$1count  | long | Anzahl der Lebenszyklusregeln zum Abbruch unvollständiger mehrteiliger Uploads für das aktuelle Objekt, auf das verwiesen wird | 
|  expired\$1object\$1delete\$1marker\$1lifecycle\$1rule\$1count  | long | Anzahl der Lebenszyklusregeln für das aktuelle Objekt, auf das verwiesen wird | 
|  same\$1region\$1replication\$1rule\$1count  | long | Anzahl der Replikationsregeln für dieselbe Region für das aktuelle Objekt, auf das verwiesen wird | 
|  cross\$1region\$1replication\$1rule\$1count  | long | Anzahl der regionsübergreifenden Replikationsregeln für das aktuelle Objekt, auf das verwiesen wird | 
|  same\$1account\$1replication\$1rule\$1count  | long | Anzahl der Replikationsregeln für dasselbe Konto für das aktuelle Objekt, auf das verwiesen wird | 
|  cross\$1account\$1replication\$1rule\$1count  | long | Anzahl der kontenübergreifenden Replikationsregeln für das aktuelle Objekt, auf das verwiesen wird | 
|  invalid\$1destination\$1replication\$1rule\$1count  | long | Anzahl der Buckets mit ungültiger Zielreplikation für das aktuelle Objekt, auf das verwiesen wird | 

## Schema der Tabelle mit Aktivitätsmetriken
<a name="storage-lens-s3-tables-schemas-activity"></a>


| Name | Typ | Description | 
| --- | --- | --- | 
|  version\$1number  | Zeichenfolge | Versions-ID des Schemas der Tabelle | 
|  configuration\$1id  | Zeichenfolge | Name der Konfiguration von S3 Storage Lens | 
|  report\$1time  | timestamptz | Datum, auf das sich der S3 Storage Lens-Bericht bezieht | 
|  aws\$1account\$1id  | Zeichenfolge | Konto-ID, auf die sich der Eintrag bezieht | 
|  aws\$1region  | Zeichenfolge | Region | 
|  storage\$1class  | Zeichenfolge | Speicherklasse | 
|  record\$1type  | Zeichenfolge | Art des Datensatzes, bezogen auf die Aggregationsebene der Daten. Werte:ACCOUNT,BUCKET, PREFIXSTORAGE\$1LENS\$1GROUP\$1BUCKET,STORAGE\$1LENS\$1GROUP\$1ACCOUNT.  | 
|  record\$1value  | Zeichenfolge | Disambiguator für Datensatztypen, die mehr als einen Datensatz enthalten. Es wird verwendet, um auf das Präfix zu verweisen | 
|  bucket\$1name  | Zeichenfolge | Bucket-Name | 
|  all\$1request\$1count  | long | Anzahl der \$1alle\$1 Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  all\$1sse\$1kms\$1encrypted\$1request\$1count  | long | Anzahl der KMS-verschlüsselten Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  all\$1unsupported\$1sig\$1request\$1count  | long | Anzahl der nicht unterstützten SIG-Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  all\$1unsupported\$1tls\$1request\$1count  | long | Anzahl der nicht unterstützten TLS-Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  bad\$1request\$1error\$1400\$1count  | long | Anzahl von 400 fehlerhaften Anforderungsfehlern für das aktuelle Objekt, auf das verwiesen wird | 
|  delete\$1request\$1count  | long | Anzahl der Löschanfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  downloaded\$1bytes  | dezimal (0,0) | Anzahl der heruntergeladenen Byte für das aktuelle Objekt, auf das verwiesen wird | 
|  error\$14xx\$1count  | long | Anzahl der 4xx-Fehler für das aktuelle Objekt, auf das verwiesen wird | 
|  error\$15xx\$1count  | long | Anzahl der 5xx-Fehler für den aktuellen Artikel, auf den verwiesen wird | 
|  forbidden\$1error\$1403\$1count  | long | Anzahl der 403 verbotenen Fehler für das aktuelle Objekt, auf das verwiesen wird | 
|  get\$1request\$1count  | long | Anzahl der Abrufanforderungen für das aktuelle Objekt, auf das verwiesen wird | 
|  head\$1request\$1count  | long | Anzahl der Head-Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  internal\$1server\$1error\$1500\$1count  | long | Anzahl von 500 internen Serverfehlern für das aktuelle Objekt, auf das verwiesen wird | 
|  list\$1request\$1count  | long | Anzahl der Listenanfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  not\$1found\$1error\$1404\$1count  | long | Anzahl der 404-Fehler „Nicht gefunden“ für das aktuelle Objekt, auf das verwiesen wird | 
|  ok\$1status\$1200\$1count  | long | Anzahl von 200 OK-Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  partial\$1content\$1status\$1206\$1count  | long | Anzahl von 206 unvollständigen Inhaltsanfragen für das aktuelle referenzierte Element | 
|  post\$1request\$1count  | long | Anzahl der Post-Anfragen für den aktuellen Artikel, auf den verwiesen wird | 
|  put\$1request\$1count  | long | Anzahl der Put-Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  select\$1request\$1count  | long | Anzahl der ausgewählten Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  select\$1returned\$1bytes  | dezimal (0,0) | Anzahl der Byte, die von ausgewählten Anfragen für das aktuelle referenzierte Element zurückgegeben wurden | 
|  select\$1scanned\$1bytes  | dezimal (0,0) | Anzahl der Byte, die von ausgewählten Anfragen für das aktuelle Objekt, auf das verwiesen wird, gescannt wurden | 
|  service\$1unavailable\$1error\$1503\$1count  | long | Anzahl der 503 Fehler, auf die der Dienst nicht verfügbar ist, für das aktuelle Objekt, auf das verwiesen wird | 
|  uploaded\$1bytes  | dezimal (0,0) | Anzahl der hochgeladenen Byte für das aktuelle Objekt, auf das verwiesen wird | 
|  average\$1first\$1byte\$1latency  | long | Durchschnittliche Zeit pro Anfrage zwischen dem Zeitpunkt, an dem ein S3-Bucket eine vollständige Anfrage empfängt, und dem Zeitpunkt, an dem er beginnt, die Antwort zurückzugeben, gemessen in den letzten 24 Stunden | 
|  average\$1total\$1request\$1latency  | long | Durchschnittlich verstrichene Zeit pro Anfrage zwischen dem ersten empfangenen Byte und dem letzten an einen S3-Bucket gesendeten Byte, gemessen in den letzten 24 Stunden | 
|  read\$10kb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von 0 KB, einschließlich bereichsbasierter Anfragen und Anfragen ganzer Objekte | 
|  read\$10kb\$1to\$1128kb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 0 KB und bis zu 128 KB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1128kb\$1to\$1256kb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 128 KB und bis zu 256 KB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1256kb\$1to\$1512kb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 256 KB und bis zu 512 KB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1512kb\$1to\$11mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 512 KB und bis zu 1 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$11mb\$1to\$12mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 1 MB und bis zu 2 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$12mb\$1to\$14mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 2 MB und bis zu 4 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$14mb\$1to\$18mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 4 MB und bis zu 8 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$18mb\$1to\$116mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 8 MB und bis zu 16 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$116mb\$1to\$132mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 16 MB und bis zu 32 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$132mb\$1to\$164mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 32 MB und bis zu 64 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$164mb\$1to\$1128mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 64 MB und bis zu 128 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1128mb\$1to\$1256mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 128 MB und bis zu 256 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1256mb\$1to\$1512mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 256 MB und bis zu 512 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1512mb\$1to\$11gb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 512 MB und bis zu 1 GB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$11gb\$1to\$12gb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 1 GB und bis zu 2 GB, einschließlich bereichsbasierter Anfragen und Anfragen für das gesamte Objekt | 
|  read\$12gb\$1to\$14gb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 2 GB und bis zu 4 GB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1larger\$1than\$14gb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 4 GB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  write\$10kb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von 0 KB | 
|  write\$10kb\$1to\$1128kb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 0 KB und bis zu 128 KB | 
|  write\$1128kb\$1to\$1256kb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 128 KB und bis zu 256 KB | 
|  write\$1256kb\$1to\$1512kb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 256 KB und bis zu 512 KB | 
|  write\$1512kb\$1to\$11mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 512 KB und bis zu 1 MB | 
|  write\$11mb\$1to\$12mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 1 MB und bis zu 2 MB | 
|  write\$12mb\$1to\$14mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 2 MB und bis zu 4 MB | 
|  write\$14mb\$1to\$18mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 4 MB und bis zu 8 MB | 
|  write\$18mb\$1to\$116mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 8 MB und bis zu 16 MB | 
|  write\$116mb\$1to\$132mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 16 MB und bis zu 32 MB | 
|  write\$132mb\$1to\$164mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 32 MB und bis zu 64 MB | 
|  write\$164mb\$1to\$1128mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 64 MB und bis zu 128 MB | 
|  write\$1128mb\$1to\$1256mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 128 MB und bis zu 256 MB | 
|  write\$1256mb\$1to\$1512mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 256 MB und bis zu 512 MB | 
|  write\$1512mb\$1to\$11gb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 512 MB und bis zu 1 GB | 
|  write\$11gb\$1to\$12gb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 1 GB und bis zu 2 GB | 
|  write\$12gb\$1to\$14gb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 2 GB und bis zu 4 GB | 
|  write\$1larger\$1than\$14gb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 4 GB | 
|  concurrent\$1put\$1503\$1error\$1count  | long | Anzahl der 503 Fehler, die aufgrund gleichzeitiger Schreibvorgänge auf dasselbe Objekt generiert wurden | 
|  cross\$1region\$1request\$1count  | long | Anzahl der Anfragen, die von einem Client in einer anderen Region als der Heimatregion des Buckets stammen | 
|  cross\$1region\$1transferred\$1bytes  | dezimal (0,0) | Anzahl der Byte, die von Aufrufen in einer anderen Region als der Heimatregion des Buckets übertragen wurden | 
|  cross\$1region\$1without\$1replication\$1request\$1count  | long | Anzahl der Anfragen, die von einem Client in einer anderen Region als der Heimatregion des Buckets stammen, ausgenommen regionsübergreifende Replikationsanfragen | 
|  cross\$1region\$1without\$1replication\$1transferred\$1bytes  | dezimal (0,0) | Anzahl der Byte, die von Aufrufen in einer anderen Region als der Heimatregion des Buckets übertragen werden, ausgenommen regionsübergreifende Replikationsbytes | 
|  inregion\$1request\$1count  | long | Anzahl der Anfragen, die von einem Client in derselben Region wie die Heimatregion des Buckets stammen | 
|  inregion\$1transferred\$1bytes  | dezimal (0,0) | Anzahl der Byte, die von Aufrufen aus derselben Region wie die Heimatregion des Buckets übertragen werden | 
|  unique\$1objects\$1accessed\$1daily\$1count  | long | Anzahl der Objekte, auf die in den letzten 24 Stunden mindestens einmal zugegriffen wurde | 

## Nächste Schritte
<a name="storage-lens-s3-tables-schemas-next-steps"></a>
+ Weitere Informationen über [Berechtigungen für S3 Storage Lens-Tabellen](storage-lens-s3-tables-permissions.md) 
+ [Abfragen von S3 Storage Lens-Daten mit Analysetools](storage-lens-s3-tables-querying.md) starten 
+ Ausführliche Metrikdefinitionen finden Sie in [Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md)

# Berechtigungen für S3 Storage Lens-Tabellen
<a name="storage-lens-s3-tables-permissions"></a>

Um mit in S3-Tabellen exportierten S3 Storage Lens-Daten arbeiten zu können, benötigen Sie entsprechende AWS Identity and Access Management (IAM-) Berechtigungen. In diesem Thema werden die Berechtigungen behandelt, die für den Export von Metriken und die Verwaltung der Verschlüsselung erforderlich sind.

## Berechtigungen für den Export von Metriken in S3-Tabellen
<a name="storage-lens-s3-tables-permissions-export"></a>

Um S3 Storage Lens-Tabellen und -Tabellen-Buckets zu erstellen und damit zu arbeiten, benötigen Sie bestimmte `s3tables` Berechtigungen. Um S3 Storage Lens für S3 Tables zu konfigurieren, benötigen Sie mindestens die folgenden `s3tables` Berechtigungen:
+  `s3tables:CreateTableBucket`— Mit dieser Berechtigung können Sie einen mit AWS-verwalteten Tabellen Bucket erstellen. Alle S3 Storage Lens-Metriken in Ihrem Konto werden in einem einzigen AWS verwalteten Tabellen-Bucket mit dem Namen gespeichert. `aws-s3` 
+  `s3tables:PutTableBucketPolicy`— S3 Storage Lens verwendet diese Berechtigung, um eine Tabellen-Bucket-Richtlinie festzulegen, die den `systemtables.s3.amazonaws.com` Zugriff auf den Bucket ermöglicht, sodass Logs übermittelt werden können.

**Wichtig**  
Wenn Sie die Berechtigungen für den Service Principal entfernen`systemtables.s3.amazonaws.com`, kann S3 Storage Lens die S3-Tabellen nicht mit Daten aktualisieren, die auf Ihrer Konfiguration basieren. Wir empfehlen, zusätzlich zu der bereits bereitgestellten Richtlinie weitere Zugriffskontrollrichtlinien hinzuzufügen, anstatt die vorgefertigte Richtlinie zu bearbeiten, die bei der Einrichtung Ihres Table-Buckets hinzugefügt wird.

**Anmerkung**  
Für jede Storage Lens-Konfiguration wird für jede Art von Metrikexport eine separate S3-Tabelle erstellt. Wenn Sie mehrere Storage Lens-Konfigurationen in der Region haben, werden separate Tabellen für zusätzliche Konfigurationen erstellt. Für Ihren S3-Tabellen-Bucket sind beispielsweise drei Arten von Tabellen verfügbar.

## Berechtigungen für AWS KMS-verschlüsselte Tabellen
<a name="storage-lens-s3-tables-permissions-kms"></a>

Alle Daten in S3-Tabellen, einschließlich S3 Storage Lens-Metriken, werden standardmäßig mit SSE-S3-Verschlüsselung verschlüsselt. Sie können wählen, ob Sie Ihren Storage Lens-Metrikbericht mit AWS KMS Schlüsseln (SSE-KMS) verschlüsseln möchten. Wenn Sie sich dafür entscheiden, Ihre S3 Storage Lens-Metrikberichte mit KMS-Schlüsseln zu verschlüsseln, benötigen Sie zusätzliche Berechtigungen.

1. Der Benutzer oder die IAM-Rolle benötigt die folgenden Berechtigungen. Sie können diese Berechtigungen mithilfe der IAM-Konsole unter gewähren. [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/)
   +  `kms:DescribeKey`auf dem verwendeten AWS KMS Schlüssel

1. Für die Schlüsselrichtlinie für den AWS KMS Schlüssel benötigen Sie die folgenden Berechtigungen. Sie können diese Berechtigungen gewähren, indem Sie die AWS KMS Konsole unter [https://console.aws.amazon.com/kms](https://console.aws.amazon.com/kms) verwenden. Wenn Sie diese Richtlinie verwenden möchten, ersetzen Sie ` user input placeholders ` durch eigene Informationen.

   ```
   {
       "Version": "2012-10-17",		 	 	 
       "Statement": [
           {
               "Sid": "EnableSystemTablesKeyUsage",
               "Effect": "Allow",
               "Principal": {
                   "Service": "systemtables.s3.amazonaws.com"
               },
               "Action": [
                   "kms:DescribeKey",
                   "kms:GenerateDataKey",
                   "kms:Decrypt"
               ],
               "Resource": "arn:aws:kms:us-east-1:111122223333:key/key-id",
               "Condition": {
                   "StringEquals": {
                       "aws:SourceAccount": "111122223333"
                   }
               }
           },
           {
               "Sid": "EnableKeyUsage",
               "Effect": "Allow",
               "Principal": {
                   "Service": "maintenance.s3tables.amazonaws.com"
               },
               "Action": [
                   "kms:GenerateDataKey",
                   "kms:Decrypt"
               ],
               "Resource": "arn:aws:kms:us-east-1:111122223333:key/key-id",
               "Condition": {
                   "StringLike": {
                       "kms:EncryptionContext:aws:s3:arn": "<table-bucket-arn>/*"
                   }
               }
           }
       ]
   }
   ```

## Mit dem Dienst verknüpfte Rolle für S3 Storage Lens
<a name="storage-lens-s3-tables-permissions-slr"></a>

S3 Storage Lens verwendet eine dienstbezogene Rolle, um Metriken in S3-Tabellen zu schreiben. Diese Rolle wird automatisch erstellt, wenn Sie den Export von S3-Tabellen zum ersten Mal in Ihrem Konto aktivieren. Die serviceverknüpfte Rolle hat die folgenden Berechtigungen:
+  `s3tables:CreateTable`— Um Tabellen im `aws-s3` Tabellen-Bucket zu erstellen
+  `s3tables:PutTableData`- Um Metrikdaten in Tabellen zu schreiben
+  `s3tables:GetTable`- Um Tabellenmetadaten abzurufen

Sie müssen diese serviceverknüpfte Rolle nicht manuell erstellen oder verwalten. Weitere Informationen zu serviceverknüpften Rollen finden Sie unter [Verwenden serviceverknüpfter Rollen](https://docs.aws.amazon.com/IAM/latest/UserGuide/using-service-linked-roles.html) im *IAM-Benutzerhandbuch*. 

## Bewährte Methoden für Berechtigungen
<a name="storage-lens-s3-tables-permissions-best-practices"></a>

Folgen Sie diesen bewährten Methoden, wenn Sie Berechtigungen für S3 Storage Lens-Tabellen konfigurieren:
+  **Geringste Rechte verwenden** — Gewähren Sie nur die Berechtigungen, die für bestimmte Aufgaben erforderlich sind. Wenn Benutzer beispielsweise nur Daten abfragen müssen, gewähren Sie keine Berechtigungen zum Ändern von Storage Lens-Konfigurationen.
+  **Verwenden Sie IAM-Rollen** — Verwenden Sie IAM-Rollen anstelle von langfristigen Zugriffsschlüsseln für Anwendungen und Dienste, die auf S3 Storage Lens-Tabellen zugreifen.
+  **Aktivieren AWS CloudTrail— Aktivieren** CloudTrail Sie die Protokollierung, um den Zugriff auf S3 Storage Lens-Tabellen zu überwachen und Berechtigungsänderungen nachzuverfolgen.
+  **Verwenden Sie ressourcenbasierte Richtlinien** — Verwenden Sie nach Möglichkeit ressourcenbasierte Richtlinien, um den Zugriff auf bestimmte Tabellen oder Namespaces zu kontrollieren.
+  **Regelmäßige Überprüfung der Berechtigungen** — Überprüfen und prüfen Sie regelmäßig die IAM-Richtlinien und Lake Formation Formation-Berechtigungen, um sicherzustellen, dass sie dem Prinzip der geringsten Rechte entsprechen.

## Problembehebung bei Berechtigungen
<a name="storage-lens-s3-tables-permissions-troubleshooting"></a>

### Zugriff verweigert, wenn der Export von S3-Tabellen aktiviert wurde
<a name="storage-lens-s3-tables-permissions-troubleshooting-export"></a>

 **Problem:** Beim Versuch, den Export von S3-Tabellen zu aktivieren, wird die Fehlermeldung „Zugriff verweigert“ angezeigt.

 **Lösung:** Stellen Sie sicher, dass Ihr IAM-Benutzer oder Ihre IAM-Rolle über die erforderlichen `s3:PutStorageLensConfiguration` Berechtigungen und die erforderlichen S3-Tabelles-Berechtigungen verfügt.

### Der Zugriff wurde beim Abfragen von Tabellen verweigert
<a name="storage-lens-s3-tables-permissions-troubleshooting-query"></a>

 **Problem:** Bei der Abfrage von S3 Storage Lens-Tabellen in Amazon Athena wird die Fehlermeldung „Zugriff verweigert“ angezeigt.

 **Lösung: Stellen Sie sicher, dass:**
+ Die Analytics-Integration ist im `aws-s3` Tabellen-Bucket aktiviert
+ Die Lake Formation Formation-Berechtigungen sind korrekt konfiguriert
+ Ihr IAM-Benutzer oder Ihre IAM-Rolle verfügt über die erforderlichen Amazon Athena Athena-Berechtigungen

### KMS-Verschlüsselungsfehler
<a name="storage-lens-s3-tables-permissions-troubleshooting-kms"></a>

 **Problem:** Beim Zugriff auf verschlüsselte Tabellen werden KMS-bezogene Fehler angezeigt.

 **Lösung: Stellen Sie sicher, dass:**
+ Ihre IAM-Richtlinie umfasst die erforderlichen KMS-Berechtigungen
+ Die KMS-Schlüsselrichtlinie gewährt dem S3 Storage Lens-Dienstprinzipal Berechtigungen
+ Der KMS-Schlüssel befindet sich in derselben Region wie Ihre Storage Lens-Konfiguration

## Nächste Schritte
<a name="storage-lens-s3-tables-permissions-next-steps"></a>
+ Weitere Informationen über [Festlegen der Berechtigungen für Amazon S3 Storage Lens](storage_lens_iam_permissions.md) 
+ Weitere Informationen über [Abfragen von S3 Storage Lens-Daten mit Analysetools](storage-lens-s3-tables-querying.md) 
+ Weitere Informationen über [Verwendung von KI-Assistenten mit S3 Storage Lens-Tabellen](storage-lens-s3-tables-ai-tools.md) 

# Abfragen von S3 Storage Lens-Daten mit Analysetools
<a name="storage-lens-s3-tables-querying"></a>

Bevor Sie mit AWS Analysediensten wie Amazon Athena oder Amazon EMR in S3-Tabellen exportierte S3 Storage Lens-Daten abfragen können, müssen Sie die Analyseintegration für den AWS-verwalteten Tabellen-Bucket `aws-s3` aktivieren und Berechtigungen konfigurieren. AWS Lake Formation 

**Wichtig**  
Die Aktivierung der Analyseintegration im Tabellen-Bucket „aws-s3“ ist ein erforderlicher Schritt, der häufig übersehen wird. Ohne diese Konfiguration können Sie Ihre S3 Storage Lens-Tabellen nicht mithilfe AWS von Analysediensten abfragen.

## Voraussetzungen
<a name="storage-lens-s3-tables-querying-prerequisites"></a>

Bevor Sie beginnen, stellen Sie sicher, dass Sie über Folgendes verfügen:
+ Eine S3-Storage-Lens-Konfiguration mit aktiviertem Export von S3-Tabellen. Weitere Informationen finden Sie unter [Exportieren von S3 Storage Lens-Metriken in S3-Tabellen](storage-lens-s3-tables-export.md).
+ Zugriff auf Amazon Athena oder einen anderen Analysedienst.
+ Nach der Aktivierung des Exports wurde 24-48 Stunden gewartet, bis die ersten Daten verfügbar waren.

## Übersicht über die Integration
<a name="storage-lens-s3-tables-querying-integration-overview"></a>

Ausführliche Informationen zur Integration von S3-Tabellen mit AWS Analyseservices, einschließlich Voraussetzungen, IAM-Rollenkonfiguration und step-by-step Verfahren, finden Sie unter [Integration von Amazon S3-Tabellen mit AWS Analyseservices](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-tables-integrating-aws.html). 

Nachdem Sie den Export von S3-Tabellen aktiviert und die Analyseintegration eingerichtet haben, können Sie Ihre S3 Storage Lens-Daten mithilfe von AWS Analysediensten wie Amazon Athena, Amazon Redshift und Amazon EMR abfragen. Auf diese Weise können Sie mithilfe von Standard-SQL benutzerdefinierte Analysen durchführen, Dashboards erstellen und Erkenntnisse aus Ihren Speicherdaten ableiten.

## Abfragen mit Amazon Athena
<a name="storage-lens-s3-tables-querying-athena"></a>

Amazon Athena ist ein serverloser interaktiver Abfrageservice, der es einfach macht, Daten mit Standard-SQL zu analysieren. Gehen Sie wie folgt vor, um S3 Storage Lens-Daten in Athena abzufragen.

**Anmerkung**  
Ersetzen Sie es in allen Abfragebeispielen `lens_my-config_exp` durch Ihren tatsächlichen Storage Lens-Konfigurationsnamespace. Weitere Informationen zur Namespace-Benennung finden Sie unter. [Benennung von Tabellen für den Export von S3 Storage Lens in S3-Tabellen](storage-lens-s3-tables-naming.md)

### Beispiel: Fragen Sie die meisten Speicherverbraucher ab
<a name="storage-lens-s3-tables-querying-athena-top-consumers"></a>

Die folgende Abfrage identifiziert die 10 Buckets mit dem höchsten Speicherverbrauch:

```
SELECT 
    bucket_name,
    storage_class,
    SUM(storage_bytes) / POWER(1024, 3) AS storage_gb,
    SUM(object_count) AS objects
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
WHERE report_time = (
    SELECT MAX(report_time) 
    FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
)
    AND record_type = 'BUCKET'
    AND bucket_name != ''
GROUP BY bucket_name, storage_class
ORDER BY storage_gb DESC
LIMIT 10
```

### Beispiel: Analysieren Sie das Speicherwachstum im Laufe der Zeit
<a name="storage-lens-s3-tables-querying-athena-growth"></a>

Die folgende Abfrage analysiert das Speicherwachstum in den letzten 30 Tagen:

```
SELECT 
    CAST(report_time AS date) AS report_date,
    SUM(storage_bytes) / POWER(1024, 3) AS total_storage_gb
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
WHERE report_time >= current_date - interval '30' day
    AND record_type = 'ACCOUNT'
GROUP BY CAST(report_time AS date)
ORDER BY report_date DESC;
```

### Beispiel: Identifizieren Sie unvollständige mehrteilige Uploads
<a name="storage-lens-s3-tables-querying-athena-mpu"></a>

Die folgende Abfrage findet Buckets mit unvollständigen mehrteiligen Uploads, die älter als 7 Tage sind:

```
SELECT 
    bucket_name,
    SUM(incomplete_mpu_storage_older_than_7_days_bytes) / POWER(1024, 3) AS wasted_storage_gb,
    SUM(incomplete_mpu_object_older_than_7_days_count) AS wasted_objects
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
WHERE report_time = (
    SELECT MAX(report_time) 
    FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
)
    AND record_type = 'BUCKET'
    AND incomplete_mpu_storage_older_than_7_days_bytes > 0
GROUP BY bucket_name
ORDER BY wasted_storage_gb DESC;
```

### Beispiel: Finden Sie Kandidaten für kalte Daten
<a name="storage-lens-s3-tables-querying-athena-cold-data"></a>

Die folgende Abfrage identifiziert Präfixe, die in den letzten 100 Tagen nicht aktiv waren und in heißen Speicherebenen gespeichert wurden:

```
WITH recent_activity AS (
    SELECT DISTINCT 
        bucket_name,
        record_value AS prefix_path
    FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."expanded_prefixes_activity_metrics"
    WHERE report_time >= current_date - interval '100' day
        AND record_type = 'PREFIX'
        AND all_request_count > 0
)
SELECT 
    s.bucket_name,
    s.record_value AS prefix_path,
    s.storage_class,
    SUM(s.storage_bytes) / POWER(1024, 3) AS storage_gb
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."expanded_prefixes_storage_metrics" s
LEFT JOIN recent_activity r 
    ON s.bucket_name = r.bucket_name 
    AND s.record_value = r.prefix_path
WHERE s.report_time = (
    SELECT MAX(report_time) 
    FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."expanded_prefixes_storage_metrics"
)
    AND s.record_type = 'PREFIX'
    AND s.storage_class IN ('STANDARD', 'REDUCED_REDUNDANCY')
    AND s.storage_bytes > 1073741824  -- > 1GB
    AND r.prefix_path IS NULL  -- No recent activity
GROUP BY s.bucket_name, s.record_value, s.storage_class
ORDER BY storage_gb DESC
LIMIT 20;
```

### Beispiel: Analysieren Sie Anforderungsmuster
<a name="storage-lens-s3-tables-querying-athena-requests"></a>

Die folgende Abfrage analysiert Anforderungsmuster, um die Zugriffshäufigkeit zu ermitteln:

```
SELECT 
    bucket_name,
    SUM(all_request_count) AS total_requests,
    SUM(get_request_count) AS get_requests,
    SUM(put_request_count) AS put_requests,
    ROUND(100.0 * SUM(get_request_count) / NULLIF(SUM(all_request_count), 0), 2) AS get_percentage,
    SUM(downloaded_bytes) / POWER(1024, 3) AS downloaded_gb
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_activity_metrics"
WHERE report_time >= current_date - interval '7' day
    AND record_type = 'BUCKET'
    AND bucket_name != ''
GROUP BY bucket_name
HAVING SUM(all_request_count) > 0
ORDER BY total_requests DESC
LIMIT 10;
```

## Abfragen mit Apache Spark auf Amazon EMR
<a name="storage-lens-s3-tables-querying-emr"></a>

Amazon EMR bietet ein verwaltetes Hadoop-Framework, das es einfach macht, riesige Datenmengen mit Apache Spark zu verarbeiten. Sie können den Iceberg-Connector verwenden, um S3 Storage Lens-Tabellen direkt zu lesen.

### Lesen Sie S3-Tabellen mit Spark
<a name="storage-lens-s3-tables-querying-emr-spark"></a>

Verwenden Sie den folgenden Python-Code, um S3 Storage Lens-Daten mit Spark zu lesen:

```
from pyspark.sql import SparkSession

spark = SparkSession.builder \
    .appName("S3StorageLensAnalysis") \
    .config("spark.sql.catalog.s3tablescatalog", "org.apache.iceberg.spark.SparkCatalog") \
    .config("spark.sql.catalog.s3tablescatalog.catalog-impl", "org.apache.iceberg.aws.glue.GlueCatalog") \
    .getOrCreate()

# Read S3 Storage Lens data
df = spark.read \
    .format("iceberg") \
    .load("s3tablescatalog/aws-s3.lens_my-config_exp.default_storage_metrics")

# Analyze data
df.filter("record_type = 'BUCKET'") \
    .groupBy("bucket_name", "storage_class") \
    .sum("storage_bytes") \
    .orderBy("sum(storage_bytes)", ascending=False) \
    .show(10)
```

## Bewährte Methoden zur Abfrageoptimierung
<a name="storage-lens-s3-tables-querying-optimization"></a>

Folgen Sie diesen bewährten Methoden, um die Abfrageleistung zu optimieren und die Kosten zu senken:
+  Nach **report\$1time filtern — Verwenden** Sie immer Datumsfilter, um die Menge der gescannten Daten zu reduzieren. Dies ist besonders wichtig für Tabellen mit langen Aufbewahrungszeiträumen.

  ```
  WHERE report_time >= current_date - interval '7' day
  ```
+  **Verwenden Sie record\$1type-Filter** — Geben Sie die entsprechende Aggregationsebene (ACCOUNT, BUCKET, PREFIX) an, um nur die Daten abzufragen, die Sie benötigen.

  ```
  WHERE record_type = 'BUCKET'
  ```
+  **LIMIT-Klauseln einbeziehen** — Verwenden Sie LIMIT für explorative Abfragen, um die Ergebnisgröße zu kontrollieren und die Abfragekosten zu senken.

  ```
  LIMIT 100
  ```
+  **Leere Datensätze filtern** — Verwenden Sie Bedingungen, um leere Datensätze oder Datensätze mit Nullwert auszuschließen.

  ```
  WHERE storage_bytes > 0
  ```
+  Aktuelle **Daten verwenden — Filtern Sie bei der Analyse des aktuellen Status nach dem neuesten** report\$1time, um zu vermeiden, dass historische Daten gescannt werden.

  ```
  WHERE report_time = (SELECT MAX(report_time) FROM table_name)
  ```

### Beispiel für ein optimiertes Abfragemuster
<a name="storage-lens-s3-tables-querying-optimization-example"></a>

Die folgende Abfrage zeigt bewährte Methoden für die Optimierung:

```
SELECT 
    bucket_name,
    SUM(storage_bytes) / POWER(1024, 3) AS storage_gb
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
WHERE report_time >= current_date - interval '7' day  -- Date filter
    AND record_type = 'BUCKET'                         -- Record type filter
    AND storage_bytes > 0                              -- Non-empty filter
    AND bucket_name != ''                              -- Non-empty filter
GROUP BY bucket_name
ORDER BY storage_gb DESC
LIMIT 100;                                             -- Result limit
```

## Fehlerbehebung
<a name="storage-lens-s3-tables-querying-troubleshooting"></a>

### Die Abfrage gibt keine Ergebnisse zurück
<a name="storage-lens-s3-tables-querying-troubleshooting-no-results"></a>

 **Problem:** Ihre Abfrage wurde erfolgreich abgeschlossen, liefert aber keine Ergebnisse.

 **Lösung:** 
+ Überprüfen Sie, ob Daten verfügbar sind, indem Sie die neueste Version von report\$1time überprüfen:

  ```
  SELECT MAX(report_time) AS latest_data
  FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics";
  ```
+ Stellen Sie sicher, dass Sie den richtigen Namespace-Namen verwenden. Wird verwendet`SHOW TABLES IN `lens_my-config_exp`;`, um verfügbare Tabellen aufzulisten.
+ Warten Sie 24 bis 48 Stunden, nachdem Sie den Export von S3-Tabellen aktiviert haben, bis die ersten Daten verfügbar sind.

### Fehler aufgrund einer Zugriffsverweigerung
<a name="storage-lens-s3-tables-querying-troubleshooting-access"></a>

 **Problem:** Beim Ausführen von Abfragen erhalten Sie die Fehlermeldung „Zugriff verweigert“.

 **Lösung:** Stellen Sie sicher, dass die AWS Lake Formation Berechtigungen korrekt konfiguriert sind. Weitere Informationen finden Sie unter [Integration von Amazon S3 S3-Tabellen mit AWS Analysediensten.](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-tables-integrating-aws.html) 

## Nächste Schritte
<a name="storage-lens-s3-tables-querying-next-steps"></a>
+ Weitere Informationen über [Verwendung von KI-Assistenten mit S3 Storage Lens-Tabellen](storage-lens-s3-tables-ai-tools.md)
+ Sehen Sie sich die [Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md) Definitionen von Metriken an
+ Weitere Ideen [Anwendungsfälle für Metriken von Amazon S3 Storage Lens](storage-lens-use-cases.md) zur Analyse finden Sie hier
+ Erfahren Sie mehr über [Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/what-is.html) für serverlose Abfragen

# Verwendung von KI-Assistenten mit S3 Storage Lens-Tabellen
<a name="storage-lens-s3-tables-ai-tools"></a>

Sie können KI-Assistenten und Konversations-KI-Tools verwenden, um mit Ihren S3 Storage Lens-Daten zu interagieren, die in natürlicher Sprache in S3-Tabellen exportiert wurden. Durch die Nutzung des Model Context Protocol (MCP) und des MCP-Servers für Amazon S3 S3-Tabellen können Sie Ihre Speicherdaten abfragen, analysieren und Erkenntnisse daraus gewinnen, ohne SQL-Abfragen schreiben zu müssen.

## -Übersicht
<a name="storage-lens-s3-tables-ai-tools-overview"></a>

Das Model Context Protocol (MCP) ist eine standardisierte Methode für KI-Anwendungen, um auf Kontextinformationen zuzugreifen und diese zu nutzen. Der MCP-Server für Amazon S3-Tabellen bietet Tools, mit denen KI-Assistenten über Benutzeroberflächen in natürlicher Sprache mit Ihren S3-Tabellendaten interagieren können. Dies demokratisiert den Datenzugriff und ermöglicht es Personen mit unterschiedlichen technischen Fähigkeiten, mit S3 Storage Lens-Metriken zu arbeiten.

Mit dem MCP-Server für S3-Tabellen können Sie natürliche Sprache verwenden, um:
+ Listet S3-Tabellen-Buckets, Namespaces und Tabellen auf
+ Fragen Sie S3 Storage Lens-Metriken ab und erhalten Sie Einblicke
+ Analysieren Sie Speichertrends und -muster
+ Identifizieren Sie Möglichkeiten zur Kostenoptimierung
+ Generieren Sie Berichte und Visualisierungen

## Unterstützte KI-Assistenten
<a name="storage-lens-s3-tables-ai-tools-supported"></a>

Der MCP-Server für S3-Tabellen arbeitet mit verschiedenen KI-Assistenten zusammen, die das Model Context Protocol unterstützen, darunter:
+ **Kiro** — Ein KI-Codierungsassistent mit integrierter MCP-Unterstützung
+ **Amazon Q Developer** — AWS der KI-gestützte Assistent für Entwickler
+ **Cline** — Ein KI-Codierungsassistent mit MCP-Integration
+ **Claude Desktop** - Die Desktop-Anwendung von Anthropic mit MCP-Unterstützung
+ **Cursor** — Ein KI-gestützter Code-Editor

**Wichtig**  
KI-generierte SQL-Abfragen und -Empfehlungen sollten vor der Verwendung überprüft und validiert werden. Stellen Sie sicher, dass Abfragen für Ihre Datenstruktur, Ihren Anwendungsfall und Ihre Leistungsanforderungen geeignet sind. Testen Sie Empfehlungen immer in einer Umgebung außerhalb der Produktionsumgebung, bevor Sie sie in der Produktion implementieren.

## Kiro mit S3 Storage Lens-Tabellen einrichten
<a name="storage-lens-s3-tables-ai-tools-kiro-setup"></a>

Kiro ist ein KI-Codierungsassistent, der eine nahtlose Integration mit S3-Tabellen über den MCP-Server ermöglicht. Kiro kann Ihnen helfen, den MCP-Server direkt über seine Oberfläche zu installieren und zu konfigurieren, was den Einrichtungsprozess vereinfacht.

[Weitere Informationen zu Kiro finden Sie unter Kiro AI.](https://kiro.ai/)

### Voraussetzungen
<a name="storage-lens-s3-tables-ai-tools-kiro-prerequisites"></a>

Bevor Sie beginnen, stellen Sie sicher, dass Sie über Folgendes verfügen:
+ Kiro ist auf Ihrem System installiert. [Laden Sie es von https://kiro.ai/ herunter](https://kiro.ai/)
+ AWS CLI mit den entsprechenden Anmeldeinformationen konfiguriert
+ Eine S3-Storage-Lens-Konfiguration mit aktiviertem Export von S3-Tabellen
+ Berechtigungen zum Abfragen von S3-Tabellen. Weitere Informationen finden Sie unter [Berechtigungen für S3 Storage Lens-Tabellen](storage-lens-s3-tables-permissions.md).

### Schritt 1: Installieren Sie den S3-Tabellen-MCP-Server
<a name="storage-lens-s3-tables-ai-tools-kiro-step1"></a>

Sie können den S3 Tables MCP Server auf zwei Arten installieren:

**Option 1: Verwenden der integrierten MCP-Serververwaltung von Kiro**  
Kiro kann Ihnen helfen, MCP-Server direkt über die Benutzeroberfläche zu finden und zu installieren:

1. Öffne Kiro

1. Greifen Sie auf die Verwaltungsschnittstelle des MCP-Servers zu (normalerweise über die Einstellungen oder die Befehlspalette)

1. Suchen Sie nach „S3-Tabellen“ oder „awslabs.s3-“ tables-mcp-server

1. Folgen Sie den Anweisungen von Kiro, um den Server zu installieren und zu konfigurieren

**Option 2: Manuelle Installation mit uvx**  
Alternativ können Sie den MCP-Server manuell mit `uvx` einem Python-Paket-Runner installieren:

```
uvx awslabs.s3-tables-mcp-server@latest
```

Weitere Informationen zur Installation des MCP-Servers finden Sie in der Dokumentation zum [AWS S3-Tabellen-MCP-Server](https://awslabs.github.io/mcp/servers/s3-tables-mcp-server).

### Schritt 2: Konfigurieren Sie die Kiro MCP-Einstellungen
<a name="storage-lens-s3-tables-ai-tools-kiro-step2"></a>

Erstellen oder aktualisieren Sie Ihre Kiro MCP-Konfigurationsdatei unter `~/.kiro/settings/mcp.json` mit dem folgenden Inhalt:

```
{
  "mcpServers": {
    "awslabs.s3-tables-mcp-server": {
      "command": "uvx",
      "args": ["awslabs.s3-tables-mcp-server@latest"],
      "env": {
        "AWS_PROFILE": "your-aws-profile",
        "AWS_REGION": "us-east-1"
      }
    }
  }
}
```

Ersetze es `your-aws-profile` durch deinen AWS CLI Profilnamen und `us-east-1` durch deine AWS Region.

### Schritt 3: Überprüfen Sie die Konfiguration
<a name="storage-lens-s3-tables-ai-tools-kiro-step3"></a>

Starten Sie Kiro nach der Konfiguration des MCP-Servers neu und stellen Sie sicher, dass die Tools für S3-Tabellen verfügbar sind. Sie können die verfügbaren MCP-Server in den Einstellungen von Kiro überprüfen oder indem Sie Kiro bitten, die verfügbaren Tools aufzulisten.

## Beispielhafte Anwendungsfälle mit KI-Assistenten
<a name="storage-lens-s3-tables-ai-tools-examples"></a>

Die folgenden Beispiele zeigen, wie Sie mit KI-Assistenten in natürlicher Sprache Eingabeaufforderungen verwenden können, um mit S3 Storage Lens-Daten zu interagieren.

### Beispiel 1: Fragen Sie die meisten Speicherverbraucher ab
<a name="storage-lens-s3-tables-ai-tools-examples-consumers"></a>

**Aufforderung:** „Zeigt mir die 10 Buckets mit den meisten Speicherverbrauch aus meinen S3 Storage Lens-Daten an.“

Der KI-Assistent verwendet den MCP-Server, um Ihre S3 Storage Lens-Tabellen abzufragen und die Ergebnisse, einschließlich Bucket-Namen, Speicherklassen und Speichermengen, zurückzugeben.

### Beispiel 2: Analysieren Sie das Speicherwachstum
<a name="storage-lens-s3-tables-ai-tools-examples-growth"></a>

**Aufforderung:** „Analysieren Sie mein Speicherwachstum in den letzten 30 Tagen und zeigen Sie mir den Trend.“

Der KI-Assistent fragt die Tabelle mit den Speichermetriken ab, berechnet die täglichen Speichersummen und präsentiert den Wachstumstrend.

### Beispiel 3: Identifizieren Sie Möglichkeiten zur Kostenoptimierung
<a name="storage-lens-s3-tables-ai-tools-examples-optimization"></a>

**Aufforderung:** „Finden Sie Buckets mit unvollständigen mehrteiligen Uploads, die älter als 7 Tage sind und Speicherplatz verschwenden.“

Der KI-Assistent fragt die Speichermetriktabelle nach unvollständigen mehrteiligen Uploads ab und stellt eine Liste der Buckets mit potenziellen Kosteneinsparungen bereit.

### Beispiel 4: Finden Sie Kandidaten für kalte Daten
<a name="storage-lens-s3-tables-ai-tools-examples-cold-data"></a>

**Aufforderung:** „Identifizieren Sie Präfixe, die in den letzten 100 Tagen nicht aktiv waren und die in heißen Speicherebenen gespeichert wurden.“

Der KI-Assistent analysiert sowohl Speicher- als auch Aktivitätskennzahlen, um Daten zu identifizieren, die zur Kostenoptimierung auf kältere Speicherebenen verschoben werden könnten.

### Beispiel 5: Generieren Sie Speicherberichte
<a name="storage-lens-s3-tables-ai-tools-examples-reports"></a>

**Aufforderung:** „Erstellen Sie einen zusammenfassenden Bericht über meinen S3-Speicher, in dem der Gesamtspeicher, die Anzahl der Objekte und die Anforderungsmuster der letzten Woche angezeigt werden.“

Der KI-Assistent fragt mehrere Tabellen ab, aggregiert die Daten und generiert einen umfassenden Bericht.

## Bewährte Methoden für den Einsatz von KI-Assistenten
<a name="storage-lens-s3-tables-ai-tools-best-practices"></a>

Folgen Sie diesen bewährten Methoden, wenn Sie KI-Assistenten mit S3 Storage Lens-Daten verwenden:
+ **Seien Sie bei Ihren Eingabeaufforderungen** konkret — Geben Sie klare, spezifische Anweisungen dazu, welche Daten Sie analysieren möchten und nach welchen Erkenntnissen Sie suchen.
+ **Überprüfen Sie KI-generierte Abfragen** — Überprüfen und validieren Sie immer die vom KI-Assistenten generierten SQL-Abfragen und Empfehlungen, bevor Sie sie ausführen oder Maßnahmen ergreifen. KI-Assistenten können gelegentlich falsche Abfragen oder Empfehlungen erstellen, die anhand Ihres spezifischen Anwendungsfalls und Ihrer Daten verifiziert werden müssen.
+ **Verwenden Sie die entsprechenden Berechtigungen** — Stellen Sie sicher, dass die vom KI-Assistenten verwendeten IAM-Anmeldeinformationen nur über die erforderlichen Berechtigungen verfügen. Erteilen Sie nur SELECT-Berechtigungen für Analysen, die nur Lesezugriff haben.
+ **Nutzung überwachen** — Verfolgen Sie die Abfragen, die von KI-Assistenten ausgeführt werden AWS CloudTrail , um Prüfprotokolle zu verwalten.
+ **Beginnen Sie mit einfachen Abfragen** — Beginnen Sie mit einfachen Abfragen, um zu verstehen, wie der KI-Assistent Ihre Eingabeaufforderungen interpretiert, und fahren Sie dann mit komplexeren Analysen fort.

## Protokollierung und Rückverfolgbarkeit
<a name="storage-lens-s3-tables-ai-tools-logging"></a>

Wenn Sie den S3 Tables MCP Server mit KI-Assistenten verwenden, haben Sie mehrere Möglichkeiten, Operationen zu überprüfen:
+ **Lokale Protokolle** — Der MCP-Server protokolliert Anfragen und Antworten lokal. Mit der `--log-dir` Konfigurationsoption können Sie ein Protokollverzeichnis angeben.
+ **AWS CloudTrail**- Alle S3-Tabellenoperationen, die über den MCP-Server ausgeführt PyIceberg werden, werden `awslabs/mcp/s3-tables-mcp-server/<version>` als User-Agent-String verwendet. Sie können CloudTrail Protokolle nach diesem Benutzeragenten filtern, um die von KI-Assistenten ausgeführten Aktionen nachzuverfolgen.
+ **Verlauf des KI-Assistenten** — KI-Assistenten wie Kiro und Cline führen Verlaufsprotokolle, in denen Anfragen in natürlicher Sprache, LLM-Antworten und Anweisungen aufgezeichnet werden, die dem MCP-Server bereitgestellt werden.

## Sicherheitsüberlegungen
<a name="storage-lens-s3-tables-ai-tools-security"></a>

Beachten Sie bei der Verwendung von KI-Assistenten mit S3 Storage Lens-Daten die folgenden bewährten Sicherheitsmethoden:
+ **Verwenden Sie den Zugriff mit den geringsten** Rechten — Gewähren Sie KI-Assistenten nur die Mindestberechtigungen, die für ihre Aufgaben erforderlich sind.
+ **MFA aktivieren** — Verwenden Sie die Multi-Faktor-Authentifizierung für AWS Konten, auf die KI-Assistenten zugreifen.
+ **Regelmäßige Überprüfung der Berechtigungen** — Überprüfe regelmäßig die Berechtigungen, die KI-Assistenten erhalten, und widerrufe unnötigen Zugriff.
+ **Verwenden Sie separate Anmeldeinformationen** — Erwägen Sie die Verwendung separater AWS Anmeldeinformationen für den Zugriff auf KI-Assistenten, um die Nachverfolgung und Prüfung zu erleichtern.
+ **Vermeiden Sie die Weitergabe vertraulicher Daten** — Seien Sie vorsichtig, wenn Sie sensible Informationen in Aufforderungen an KI-Assistenten weitergeben, insbesondere wenn Sie Cloud-basierte KI-Dienste verwenden.

## Fehlerbehebung
<a name="storage-lens-s3-tables-ai-tools-troubleshooting"></a>

### Der KI-Assistent kann keine Verbindung zu S3-Tabellen herstellen
<a name="storage-lens-s3-tables-ai-tools-troubleshooting-connection"></a>

**Problem:** Der AI-Assistent meldet, dass er keine Verbindung zu S3-Tabellen herstellen kann oder der MCP-Server nicht reagiert.

**Lösung:**
+ Stellen Sie sicher, dass der MCP-Server korrekt installiert ist `uvx awslabs.s3-tables-mcp-server@latest --version`
+ Vergewissern Sie sich, dass Ihre AWS Anmeldeinformationen korrekt konfiguriert sind
+ Stellen Sie sicher, dass die MCP-Konfigurationsdatei das richtige AWS Profil und die richtige Region hat

### Fehler aufgrund einer Zugriffsverweigerung
<a name="storage-lens-s3-tables-ai-tools-troubleshooting-access"></a>

**Problem:** Der AI-Assistent erhält bei der Abfrage von S3 Storage Lens-Tabellen die Fehlermeldung „Zugriff verweigert“.

**Lösung:**
+ Stellen Sie sicher, dass die Analyseintegration im `aws-s3` Tabellen-Bucket aktiviert ist
+ Stellen Sie sicher, dass die Lake Formation Formation-Berechtigungen korrekt konfiguriert sind
+ Stellen Sie sicher, dass die AWS Anmeldeinformationen über die erforderlichen IAM-Berechtigungen verfügen

### Falsche oder unerwartete Ergebnisse
<a name="storage-lens-s3-tables-ai-tools-troubleshooting-results"></a>

**Problem:** Der KI-Assistent gibt falsche oder unerwartete Ergebnisse zurück.

**Lösung:**
+ Überprüfen Sie die vom AI-Assistenten generierte SQL-Abfrage
+ Stellen Sie sicher, dass Sie den richtigen Namespace-Namen für Ihre Storage Lens-Konfiguration verwenden
+ Überprüfen Sie, ob Daten verfügbar sind, indem Sie die neueste Version von report\$1time abfragen
+ Verfeinern Sie Ihre Eingabeaufforderung, um genauer anzugeben, was Sie analysieren möchten

## Weitere Ressourcen
<a name="storage-lens-s3-tables-ai-tools-resources"></a>

Weitere Informationen zur Verwendung von KI-Assistenten mit S3-Tabellen finden Sie in den folgenden Ressourcen:
+ [Kiro AI — KI-Codierungsassistent](https://kiro.ai/) mit integrierter MCP-Unterstützung
+ [Implementierung von Konversations-KI für S3-Tabellen mithilfe des Model Context Protocol (MCP](https://aws.amazon.com/blogs/storage/implementing-conversational-ai-for-s3-tables-using-model-context-protocol-mcp/)) - Storage Blog AWS 
+ [AWS Dokumentation zum MCP-Server für S3-Tabellen](https://awslabs.github.io/mcp/servers/s3-tables-mcp-server)
+ [Spezifikation des Model Context-Protokolls](https://modelcontextprotocol.io/)

# Verwenden von Amazon S3 Storage Lens mit AWS Organizations
<a name="storage_lens_with_organizations"></a>

Amazon S3 Storage Lens ist eine Cloud-Speicheranalysefunktion, mit der Sie unternehmensweite Einblicke in die Nutzung und Aktivität von Objektspeichern erhalten können. Sie können Metriken von S3 Storage Lens verwenden, um zusammenfassende Erkenntnisse zu gewinnen und z. B. herauszufinden, wie viel Speicher Sie in Ihrer gesamten Organisation haben oder welche Buckets und Präfixe am schnellsten wachsen. Sie können Amazon S3 Storage Lens auch verwenden, um Speichermetriken und Nutzungsdaten für alle zu sammeln AWS-Konten , die Teil Ihrer AWS Organizations Hierarchie sind. Dazu müssen Sie den vertrauenswürdigen Zugriff von AWS Organizations S3 Storage Lens mithilfe Ihres AWS Organizations Verwaltungskontos verwenden und aktivieren.

Nachdem Sie den vertrauenswürdigen Zugriff aktiviert haben, gewähren Sie anderen Konten in Ihrer Organisation den delegierten Administratorzugriff. Die delegierten Administratorkonten werden verwendet, um S3-Storage-Lens-Konfigurationen und Dashboards zu erstellen, die organisationsweite Speichermetriken und Benutzerdaten erfassen. Weitere Informationen zum Aktivieren des vertrauenswürdigen Zugriffs finden Sie unter [Amazon S3 Storage Lens und AWS Organizations](https://docs.aws.amazon.com/organizations/latest/userguide/services-that-can-integrate-s3lens.html) im *AWS Organizations -Benutzerhandbuch*.

**Topics**
+ [Aktivieren des vertrauenswürdigen Zugriffs für S3 Storage Lens](storage_lens_with_organizations_enabling_trusted_access.md)
+ [Deaktivieren des vertrauenswürdigen Zugriffs für S3 Storage Lens](storage_lens_with_organizations_disabling_trusted_access.md)
+ [Registrieren eines delegierten Administrators für S3 Storage Lens](storage_lens_with_organizations_registering_delegated_admins.md)
+ [Aufheben der Registrierung eines delegierten Administrators für S3 Storage Lens](storage_lens_with_organizations_deregistering_delegated_admins.md)

# Aktivieren des vertrauenswürdigen Zugriffs für S3 Storage Lens
<a name="storage_lens_with_organizations_enabling_trusted_access"></a>

Durch die Aktivierung des vertrauenswürdigen Zugriffs ermöglichen Sie Amazon S3 Storage Lens, über AWS Organizations API-Operationen auf Ihre AWS Organizations Hierarchie, Mitgliedschaft und Struktur zuzugreifen. S3 Storage Lens wird dann zu einem vertrauenswürdigen Service für die Struktur Ihrer gesamten Organisation.

Immer wenn eine Dashboard-Konfiguration definiert wird, erstellt S3 Storage Lens serviceverknüpfte Rollen in den Verwaltungskonten oder den delegierten Administratorkonten Ihrer Organisation. Die serviceverknüpfte Rolle erteilt S3 Storage Lens die Berechtigung zum Durchführen folgender Aufgaben: 
+ Beschreiben von Organisationen
+ Auflisten von Konten
+ Überprüfen Sie eine AWS-Service Zugriffsliste für die Organisationen
+ Abrufen delegierter Administratoren für die Organisationen



S3 Storage Lens kann dann sicherstellen, dass es Zugriff hat, um die kontoübergreifenden Metriken für die Konten in Ihrer Organisation zu sammeln. Weitere Informationen finden Sie unter [Verwenden von serviceverknüpften Rollen für Amazon S3 Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/using-service-linked-roles.html). 

Nachdem Sie den vertrauenswürdigen Zugriff aktiviert haben, können Sie anderen Konten in Ihrer Organisation den delegierten Administratorzugriff zuweisen. Wenn ein Konto als delegierter Administrator für einen Service gekennzeichnet ist, erhält es die Berechtigung, auf alle schreibgeschützten API-Operationen der Organisation zuzugreifen. Dieser Zugriff macht die Mitglieder und Strukturen Ihrer Organisation für den delegierten Administrator sichtbar, sodass dieser ebenfalls S3-Storage-Lens-Dashboards erstellen können.

**Anmerkung**  
Vertrauenswürdiger Zugriff kann nur im [Verwaltungskonto](https://docs.aws.amazon.com/managedservices/latest/userguide/management-account.html) aktiviert werden.
 S3-Storage-Lens-Dashboards oder -Konfigurationen für Ihre Organisation können nur über das Verwaltungskonto und von delegierten Administratoren erstellt werden.

# Verwenden der S3-Konsole
<a name="storage_lens_console_organizations_enabling_trusted_access"></a>

**Um S3 Storage Lens einen AWS Organizations vertrauenswürdigen Zugriff zu ermöglichen**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Klicken Sie im linken Navigationsbereich auf **Storage Lens**.

1. Wählen Sie **AWS Organizations -Einstellungen** aus. Die Seite **Zugriff über AWS Organizations auf Storage Lens** wird angezeigt.

1. Wählen Sie unter **Vertrauenswürdiger Zugriff über AWS Organizations ** die Option **Bearbeiten** aus.

   Die Seite **Zugriff über AWS Organizations ** wird angezeigt.

1. Wählen Sie **Aktivieren** aus, um den vertrauenswürdigen Zugriff für Ihr S3 Storage Lens-Dashboard zu aktivieren.

1. Wählen Sie **Änderungen speichern ** aus.

# Verwenden Sie den AWS CLI
<a name="OrganizationsEnableTrustedAccessS3LensCLI"></a>

**Example**  
Das folgende Beispiel zeigt Ihnen, wie Sie den AWS Organizations vertrauenswürdigen Zugriff für S3 Storage Lens in aktivieren AWS CLI.  

```
aws organizations enable-aws-service-access --service-principal storage-lens.s3.amazonaws.com
```

# Verwenden des AWS SDK for Java
<a name="OrganizationsEnableTrustedAccessS3LensJava"></a>

**Example — Aktivieren Sie den AWS Organizations vertrauenswürdigen Zugriff für S3 Storage Lens mithilfe des SDK for Java**  
Das folgende Beispiel zeigt, wie Sie den vertrauenswürdigen Zugriff für S3 Storage Lens im SDK für Java aktivieren. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.  

```
import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.regions.Regions;
import com.amazonaws.services.organizations.AWSOrganizations;
import com.amazonaws.services.organizations.AWSOrganizationsClient;
import com.amazonaws.services.organizations.model.EnableAWSServiceAccessRequest;

public class EnableOrganizationsTrustedAccess {
	private static final String S3_STORAGE_LENS_SERVICE_PRINCIPAL = "storage-lens.s3.amazonaws.com";

	public static void main(String[] args) {
		try {
            AWSOrganizations organizationsClient = AWSOrganizationsClient.builder()
                .withCredentials(new ProfileCredentialsProvider())
                .withRegion(Regions.US_EAST_1)
                .build();

            organizationsClient.enableAWSServiceAccess(new EnableAWSServiceAccessRequest()
                .withServicePrincipal(S3_STORAGE_LENS_SERVICE_PRINCIPAL));
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but AWS Organizations couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // AWS Organizations couldn't be contacted for a response, or the client
            // couldn't parse the response from AWS Organizations.
            e.printStackTrace();
        }
	}
}
```

# Deaktivieren des vertrauenswürdigen Zugriffs für S3 Storage Lens
<a name="storage_lens_with_organizations_disabling_trusted_access"></a>

Wenn der delegierte Administratorzugriff eines Kontos oder der vertrauenswürdige Zugriff entfernt wird, kann der Kontoinhaber nur noch auf Kontoebene auf die Dashboard-Metriken von S3 Storage Lens zugreifen. Jeder Kontoinhaber kann dann die Vorteile von S3 Storage Lens nur noch im begrenzten Umfang seines eigenen Kontos und nicht für seine gesamte Organisation sehen

Wenn Sie den vertrauenswürdigen Zugriff in S3 Storage Lens deaktivieren, werden alle Dashboards, die einen vertrauenswürdigen Zugriff erfordern, nicht mehr aktualisiert. Alle erstellten organisatorischen Dashboards werden ebenfalls nicht mehr aktualisiert. Stattdessen können Sie nur [historische Daten für das S3-Storage-Lens-Dashboard](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_basics_metrics_recommendations.html#storage_lens_basics_data_queries) abfragen, solange die Daten noch verfügbar sind.

**Anmerkung**  
Durch Deaktivieren des vertrauenswürdigen Zugriffs für S3 Storage Lens wird außerdem die Erfassung und Aggregation von Speichermetriken durch alle Dashboards auf Organisationsebene automatisch beendet. Dies liegt daran, dass S3 Storage Lens keinen vertrauenswürdigen Zugriff mehr auf die Unternehmenskonten hat.
Ihre Verwaltungs- und delegierten Administratorkonten können weiterhin die historischen Daten für alle deaktivierten Dashboards sehen. Sie können diese historischen Daten auch abfragen, solange sie noch verfügbar sind. 

# Verwenden der S3-Konsole
<a name="storage_lens_console_organizations_disabling_trusted_access"></a>

**So deaktivieren Sie den vertrauenswürdigen Zugriff für S3 Storage Lens**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Klicken Sie im linken Navigationsbereich auf **Storage Lens**.

1. Wählen Sie **AWS Organizations -Einstellungen** aus. Die Seite **Zugriff über AWS Organizations auf Storage Lens** wird angezeigt.

1. Wählen Sie unter **Vertrauenswürdiger Zugriff über AWS Organizations ** die Option **Bearbeiten** aus.

   Die Seite **Zugriff über AWS Organizations ** wird angezeigt.

1. Wählen Sie **Deaktivieren** aus, um den vertrauenswürdigen Zugriff für Ihr S3-Storage-Lens-Dashboard zu deaktivieren.

1. Wählen Sie **Änderungen speichern ** aus.

# Verwenden Sie den AWS CLI
<a name="OrganizationsDisableTrustedAccessS3LensCLI"></a>

**Example**  
Das folgende Beispiel deaktiviert den vertrauenswürdigen Zugriff für S3 Storage Lens mit der AWS CLI.  

```
aws organizations disable-aws-service-access --service-principal storage-lens.s3.amazonaws.com
```

# Verwenden des AWS SDK for Java
<a name="OrganizationsDisableTrustedAccessS3LensJava"></a>

**Example — Deaktivieren Sie den AWS Organizations vertrauenswürdigen Zugriff für S3 Storage Lens**  
Das folgende Beispiel zeigt Ihnen, wie Sie den AWS Organizations vertrauenswürdigen Zugriff für S3 Storage Lens im SDK for Java deaktivieren. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.  

```
import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.regions.Regions;
import com.amazonaws.services.organizations.AWSOrganizations;
import com.amazonaws.services.organizations.AWSOrganizationsClient;
import com.amazonaws.services.organizations.model.DisableAWSServiceAccessRequest;

public class DisableOrganizationsTrustedAccess {
	private static final String S3_STORAGE_LENS_SERVICE_PRINCIPAL = "storage-lens.s3.amazonaws.com";

	public static void main(String[] args) {
		try {
            AWSOrganizations organizationsClient = AWSOrganizationsClient.builder()
                .withCredentials(new ProfileCredentialsProvider())
                .withRegion(Regions.US_EAST_1)
                .build();

            // Make sure to remove any existing delegated administrator for S3 Storage Lens 
            // before disabling access; otherwise, the request will fail.
            organizationsClient.disableAWSServiceAccess(new DisableAWSServiceAccessRequest()
                .withServicePrincipal(S3_STORAGE_LENS_SERVICE_PRINCIPAL));
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but AWS Organizations couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // AWS Organizations couldn't be contacted for a response, or the client
            // couldn't parse the response from AWS Organizations.
            e.printStackTrace();
        }
	}
}
```

# Registrieren eines delegierten Administrators für S3 Storage Lens
<a name="storage_lens_with_organizations_registering_delegated_admins"></a>

Dashboards auf Organisationsebene können mithilfe des Verwaltungskontos Ihrer Organisation oder mit delegierten Administratorkonten erstellt werden. Der delegierte Administratorzugriff ermöglicht anderen Konten neben dem Verwaltungskonto, Dashboards auf Organisationsebene zu erstellen. Das Registrieren und Aufheben der Registrierung anderer Konten als delegierte Administratoren für eine Organisation kann lediglich über das Verwaltungskonto erfolgen.

Nachdem Sie den vertrauenswürdigen Zugriff aktiviert haben, können Sie den delegierten Administratorzugriff auf Konten in Ihrer Organisation mithilfe der AWS Organizations REST-API oder SDKs über das [Verwaltungskonto](https://docs.aws.amazon.com/managedservices/latest/userguide/management-account.html) registrieren. AWS CLI Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/organizations/latest/APIReference/API_RegisterDelegatedAdministrator.html](https://docs.aws.amazon.com/organizations/latest/APIReference/API_RegisterDelegatedAdministrator.html) in der *AWS Organizations -API-Referenz*. Wenn ein Konto als delegierter Administrator registriert ist, erhält das Konto die Autorisierung für den Zugriff auf alle schreibgeschützten API-Operationen AWS Organizations . Das macht die Mitglieder und Strukturen Ihrer Organisation sichtbar, sodass die delegierten Administratoren in Ihrem Namen S3-Storage-Lens-Dashboards erstellen können.

**Anmerkung**  
Bevor Sie mithilfe der AWS Organizations REST-API, oder, einen delegierten Administrator bestimmen können AWS CLI SDKs, müssen Sie den Vorgang aufrufen. [https://docs.aws.amazon.com/organizations/latest/APIReference/API_EnableAWSServiceAccess.html](https://docs.aws.amazon.com/organizations/latest/APIReference/API_EnableAWSServiceAccess.html)

# Verwenden der S3-Konsole
<a name="storage_lens_console_organizations_registering_delegated_admins"></a>

**So registrieren Sie delegierte Administratoren für S3 Storage Lens**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Klicken Sie im linken Navigationsbereich auf **Storage Lens**.

1.  Wählen Sie **AWS Organizations -Einstellungen** aus.

1. Wählen Sie unter **Delegierte Administratoren** die Option **Neues Konto registrieren** aus.

1. Fügen Sie eine AWS-Konto ID hinzu, um das Konto als delegierter Administrator zu registrieren. Der delegierte Administrator kann Dashboards auf Organisationsebene für alle Konten und Speicher in Ihrer Organisation erstellen.

1. Wählen Sie **Konto registrieren** aus.

# Mit dem AWS CLI
<a name="OrganizationsRegisterDelegatedAdministratorS3LensCLI"></a>

**Example**  
Das folgende Beispiel zeigt, wie Sie delegierte Organizations-Administratoren für S3 Storage Lens mit der AWS CLI registrieren. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.  

```
aws organizations register-delegated-administrator --service-principal storage-lens.s3.amazonaws.com --account-id 111122223333
```

# Verwenden des AWS SDK for Java
<a name="OrganizationsRegisterDelegatedAdministratorS3LensJava"></a>

**Example – Registrieren delegierter Organizations-Administratoren für S3 Storage Lens**  
Das folgende Beispiel zeigt Ihnen, wie Sie AWS Organizations delegierte Administratoren für S3 Storage Lens im SDK for Java registrieren. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.  

```
import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.regions.Regions;
import com.amazonaws.services.organizations.AWSOrganizations;
import com.amazonaws.services.organizations.AWSOrganizationsClient;
import com.amazonaws.services.organizations.model.RegisterDelegatedAdministratorRequest;

public class RegisterOrganizationsDelegatedAdministrator {
	private static final String S3_STORAGE_LENS_SERVICE_PRINCIPAL = "storage-lens.s3.amazonaws.com";

	public static void main(String[] args) {
		try {
            String delegatedAdminAccountId = "111122223333"; // Account Id for the delegated administrator.
            AWSOrganizations organizationsClient = AWSOrganizationsClient.builder()
                .withCredentials(new ProfileCredentialsProvider())
                .withRegion(Regions.US_EAST_1)
                .build();

            organizationsClient.registerDelegatedAdministrator(new RegisterDelegatedAdministratorRequest()
                .withAccountId(delegatedAdminAccountId)
                .withServicePrincipal(S3_STORAGE_LENS_SERVICE_PRINCIPAL));
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but AWS Organizations couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // AWS Organizations couldn't be contacted for a response, or the client
            // couldn't parse the response from AWS Organizations.
            e.printStackTrace();
        }
	}
}
```

# Aufheben der Registrierung eines delegierten Administrators für S3 Storage Lens
<a name="storage_lens_with_organizations_deregistering_delegated_admins"></a>

Nachdem Sie den vertrauenswürdigen Zugriff aktiviert haben, können Sie die Registrierung anderer Konten in Ihrer Organisation für den delegierten Administratorzugriff auch aufheben. Der delegierte Administratorzugriff ermöglicht anderen Konten neben dem [Verwaltungskonto](https://docs.aws.amazon.com/managedservices/latest/userguide/management-account.html), Dashboards auf Organisationsebene zu erstellen. Konten, die als delegierte Administratoren festgelegt wurden, können nur über das Verwaltungskonto einer Organisation abgemeldet werden.

Sie können einen delegierten Administrator abmelden AWS Organizations AWS-Managementkonsole, indem Sie die REST-API oder das AWS SDKS vom Verwaltungskonto aus verwenden. AWS CLI Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/organizations/latest/APIReference/API_DeregisterDelegatedAdministrator.html](https://docs.aws.amazon.com/organizations/latest/APIReference/API_DeregisterDelegatedAdministrator.html) in der *AWS Organizations -API-Referenz*.

Wenn die Registrierung eines Kontos als delegierter Administrator aufgehoben wird, verliert es den Zugriff auf Folgendes:
+ Alle AWS Organizations API-Operationen mit Schreibschutz, die den Mitgliedern und Strukturen Ihrer Organisation Einblick gewähren.
+ Alle Dashboards auf Organisationsebene, die vom delegierten Administrator erstellt wurden. Durch das Aufheben der Registrierung eines delegierten Administrators wird die Aggregation neuer Speichermetriken durch alle Dashboards auf Organisationsebene, die von diesem delegierten Administrator erstellt wurden, automatisch beendet.
**Anmerkung**  
Die delegierten Administratoren mit aufgehobener Registrierung können weiterhin die historischen Daten für die Dashboards, die sie erstellt haben, anzeigen, während Daten für Abfragen verfügbar sind.

# Verwenden der S3-Konsole
<a name="storage_lens_console_organizations_deregistering_delegated_admins"></a>

**So heben Sie die Registrierung delegierter Administratoren für S3 Storage Lens auf**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Klicken Sie im linken Navigationsbereich auf **Storage Lens**.

1.  Wählen Sie **AWS Organizations -Einstellungen** aus.

1. Wählen Sie unter **Delegierte Administratoren** das Konto aus, das Sie abmelden möchten.

1. Wählen Sie **Registrierung des Kontos aufheben** aus. Das abgemeldete Konto ist nicht mehr ein delegierter Administrator und kann nun keine organisationsweiten Dashboards für alle Konten und den Speicher in Ihrer Organisation mehr erstellen.

1. Wählen Sie **Konto registrieren** aus.

# Verwenden Sie den AWS CLI
<a name="OrganizationsDeregisterDelegatedAdministratorS3LensCLI"></a>

**Example**  
Das folgende Beispiel zeigt, wie Sie die Registrierung delegierter Organizations-Administratoren für S3 Storage Lens über die AWS CLI aufheben. Wenn Sie dieses Beispiel verwenden möchten, ersetzen `111122223333` mit Ihrer eigenen AWS-Konto -ID.  

```
aws organizations deregister-delegated-administrator --service-principal storage-lens.s3.amazonaws.com --account-id 111122223333
```

# Verwenden des AWS SDK for Java
<a name="OrganizationsDeregisterDelegatedAdministratorS3LensJava"></a>

**Example – Abmelden delegierter Organizations-Administratoren für S3 Storage Lens**  
Das folgende Beispiel zeigt, wie Sie die Registrierung delegierter Organizations-Administratoren für S3 Storage Lens mit dem SDK für Java aufheben. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.  

```
import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.regions.Regions;
import com.amazonaws.services.organizations.AWSOrganizations;
import com.amazonaws.services.organizations.AWSOrganizationsClient;
import com.amazonaws.services.organizations.model.DeregisterDelegatedAdministratorRequest;

public class DeregisterOrganizationsDelegatedAdministrator {
	private static final String S3_STORAGE_LENS_SERVICE_PRINCIPAL = "storage-lens.s3.amazonaws.com";

	public static void main(String[] args) {
		try {
            String delegatedAdminAccountId = "111122223333"; // Account Id for the delegated administrator.
            AWSOrganizations organizationsClient = AWSOrganizationsClient.builder()
                .withCredentials(new ProfileCredentialsProvider())
                .withRegion(Regions.US_EAST_1)
                .build();

            organizationsClient.deregisterDelegatedAdministrator(new DeregisterDelegatedAdministratorRequest()
                .withAccountId(delegatedAdminAccountId)
                .withServicePrincipal(S3_STORAGE_LENS_SERVICE_PRINCIPAL));
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but AWS Organizations couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // AWS Organizations couldn't be contacted for a response, or the client
            // couldn't parse the response from AWS Organizations.
            e.printStackTrace();
        }
	}
}
```

# Arbeiten mit S3-Storage-Lens-Gruppen zum Filtern und Aggregieren von Metriken
<a name="storage-lens-groups-overview"></a>

Eine Amazon-S3-Storage-Lens-Gruppe aggregiert Metriken mithilfe benutzerdefinierter Filter auf der Grundlage von Objektmetadaten. Mit Storage-Lens-Gruppen können Sie Details zu den Eigenschaften Ihrer Daten anzeigen, etwa die Objektverteilung nach Alter, die gängigsten Dateitypen usw. Sie können Metriken beispielsweise nach Objekt-Tag filtern, um die am schnellsten wachsenden Datensätze zu ermitteln, oder den Speicher auf Grundlage der Objektgröße und des Objektalters visualisieren, um die Speicherarchivierungsstrategie festzulegen. Folglich vermitteln Amazon-S3-Storage-Lens-Gruppen Ihnen ein besseres Verständnis des S3-Speichers und unterstützen Sie bei seiner Optimierung.

Wenn Sie Storage-Lens-Gruppen verwenden, können Sie S3-Storage-Lens-Metriken anhand von Objektmetadaten wie Präfixen, Suffixen, [Objekt-Tags](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-tagging.html), Objektgröße oder Objektalter analysieren und filtern. Diese Filter lassen sich auch kombinieren. Nachdem Sie eine Storage-Lens-Gruppe an das S3-Storage-Lens-Dashboard angehängt haben, können Sie die nach Amazon-S3-Storage-Lens-Gruppen aggregierten S3-Storage-Lens-Metriken direkt im Dashboard anzeigen.

Filtern Sie Messwerte beispielsweise auch nach Objektgröße oder Altersklassen, um festzustellen, welcher Speicheranteil aus kleinen Objekten besteht. Sie können diese Informationen dann mit S3 Intelligent-Tiering oder im S3-Lebenszyklus verwenden, um kleine Objekte zur Kosten- und Speicheroptimierung in verschiedene Speicherklassen zu überführen.

**Topics**
+ [Funktionsweise von S3-Storage-Lens-Gruppen](storage-lens-groups.md)
+ [Verwenden von Storage-Lens-Gruppen](storage-lens-group-tasks.md)

# Funktionsweise von S3-Storage-Lens-Gruppen
<a name="storage-lens-groups"></a>

Mit Storage-Lens-Gruppen lassen sich Metriken mithilfe benutzerdefinierter Filter auf der Grundlage von Objektmetadaten aggregieren. Wenn Sie einen benutzerdefinierten Filter definieren, können Sie Präfixe, Suffixe, Objekt-Tags, Objektgrößen, Objektalter oder eine Kombination dieser benutzerdefinierten Filter verwenden. Bei der Erstellung einer Storage-Lens-Gruppe können Sie zudem einen einzelnen Filter oder mehrere Filterbedingungen angeben. Zur Angabe mehrerer Filterbedingungen verwenden Sie den logischen Operator `And` oder `Or`.

Wenn Sie eine Storage-Lens-Gruppe erstellen und konfigurieren, dient die Storage-Lens-Gruppe selbst als benutzerdefinierter Filter im Dashboard, an das Sie die Gruppe anhängen. Im Dashboard können Sie dann den Storage-Lens-Gruppenfilter verwenden, um Speichermetriken auf Grundlage des benutzerdefinierten Filters abzurufen, den Sie in der Gruppe definiert haben. 

Um die Daten für die Storage-Lens-Gruppe im S3-Storage-Lens-Dashboard anzuzeigen, müssen Sie die Gruppe nach der Erstellung an das Dashboard anhängen. Nachdem die Storage-Lens-Gruppe an das Storage-Lens-Dashboard angehängt wurde, erfasst das Dashboard innerhalb von 48 Stunden Metriken zur Speichernutzung. Sie können diese Daten dann im Storage-Lens-Dashboard visualisieren oder sie über einen Metrikexport exportieren. Falls Sie vergessen, eine Storage-Lens-Gruppe an ein Dashboard anzuhängen, werden die Daten der Storage-Lens-Gruppe weder erfasst noch angezeigt.

**Anmerkung**  
Wenn Sie eine S3 Storage Lens-Gruppe erstellen, erstellen Sie eine AWS Ressource. Daher hat jede Storage-Lens-Gruppe ihren eigenen Amazon-Ressourcennamen (ARN), den Sie angeben können, wenn Sie sie [an ein S3-Storage-Lens-Dashboard anhängen oder daraus ausschließen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-lens-groups-dashboard-console.html). 
Wenn eine Storage-Lens-Gruppe nicht an ein Dashboard angehängt ist, fallen für Sie keine zusätzlichen Gebühren für die Erstellung einer Storage-Lens-Gruppe an.
S3 Storage Lens aggregiert Nutzungsmetriken für ein Objekt aus allen passenden Storage-Lens-Gruppen. Wenn also ein Objekt den Filterbedingungen für zwei oder mehr Storage-Lens-Gruppen entspricht, werden Sie in Ihrer Speichernutzung wiederholte Angaben für dasselbe Objekt sehen.

Sie können eine Storage Lens-Gruppe auf Kontoebene in einer bestimmten Heimatregion (aus der Liste der unterstützten AWS-Regionen) erstellen. Anschließend können Sie die Storage-Lens-Gruppe mehreren Storage-Lens-Dashboards zuordnen, sofern sich die Dashboards in demselben AWS-Konto und in derselben Heimatregion befinden. Sie sind in der Lage, pro Heimatregion in jedem AWS-Konto bis zu 50 Storage-Lens-Gruppen zu erstellen.

Sie können S3 Storage Lens-Gruppen mithilfe der Amazon S3 S3-Konsole AWS Command Line Interface (AWS CLI) oder der Amazon S3 S3-REST-API erstellen und verwalten. AWS SDKs

**Topics**
+ [Anzeigen aggregierter Metriken von Storage-Lens-Gruppen](#storage-lens-group-aggregation)
+ [Berechtigungen für Storage-Lens-Gruppen](#storage-lens-group-permissions)
+ [Konfiguration von Storage-Lens-Gruppen](#storage-lens-groups-configuration)
+ [AWS Ressourcen-Tags](#storage-lens-group-resource-tags)
+ [Metrikexport für Storage-Lens-Gruppen](#storage-lens-groups-metrics-export)

## Anzeigen aggregierter Metriken von Storage-Lens-Gruppen
<a name="storage-lens-group-aggregation"></a>

Sie können die aggregierten Metriken für Storage-Lens-Gruppen anzeigen, indem Sie die Gruppen an ein Dashboard anhängen. Die anzuhängenden Storage-Lens-Gruppen müssen sich in der angegebenen Heimatregion des Dashboard-Kontos befinden. 

Um eine Storage-Lens-Gruppe an ein Dashboard anzuhängen, müssen Sie die Gruppe im Abschnitt **Aggregation von Storage-Lens-Gruppen** der Dashboard-Konfiguration angeben. Sind mehrere Storage-Lens-Gruppen vorhanden, können Sie die Ergebnisse der **Aggregation von Storage-Lens-Gruppen** filtern und bestimmte Gruppen ein- oder ausschließen. Weitere Informationen zum Anhängen von Gruppen an Dashboards finden Sie unter [Anhängen von S3-Storage-Lens-Gruppen an das Dashboard und Entfernen der Gruppen](storage-lens-groups-dashboard-console.md). 

Nachdem Sie die Gruppen angehängt haben, erhalten Sie innerhalb von 48 Stunden die zusätzlichen Aggregationsdaten der Storage-Lens-Gruppen im Dashboard. 

**Anmerkung**  
Wenn Sie aggregierte Metriken für die Storage-Lens-Gruppe einsehen möchten, müssen Sie die Gruppe an das S3-Storage-Lens-Dashboard anhängen.

## Berechtigungen für Storage-Lens-Gruppen
<a name="storage-lens-group-permissions"></a>

Storage Lens-Gruppen benötigen bestimmte Berechtigungen in AWS Identity and Access Management (IAM), um den Zugriff auf S3 Storage Lens-Gruppenaktionen zu autorisieren. Zum Erteilen dieser Berechtigungen können Sie eine identitätsbasierte IAM-Richtlinie verwenden. Die Richtlinie lässt sich an IAM-Benutzer, -Gruppen oder -Rollen anhängen, wodurch diese die entsprechenden Berechtigungen erhalten. Solche Berechtigungen können die Fähigkeit beinhalten, Storage-Lens-Gruppen zu erstellen oder zu löschen, ihre Konfigurationen einzusehen oder ihre Tags zu verwalten.

Der IAM-Benutzer oder die IAM-Rolle, dem bzw. der Sie Berechtigungen gewähren, muss zu dem Konto gehören, das die Storage-Lens-Gruppe erstellt hat oder dem diese angehört.

Zur Nutzung von Storage-Lens-Gruppen und zur Anzeige der Metriken von Storage-Lens-Gruppen benötigen Sie zunächst die entsprechenden Berechtigungen für die Verwendung von S3 Storage Lens. Weitere Informationen finden Sie unter [Festlegen der Berechtigungen für Amazon S3 Storage Lens](storage_lens_iam_permissions.md).

Für die Erstellung und Verwaltung von S3-Storage-Lens-Gruppen sind je nachdem, welche Aktionen Sie ausführen möchten, die folgenden IAM-Berechtigungen erforderlich:


| Action | IAM-Berechtigungen | 
| --- | --- | 
|  Erstellen einer neuen Storage-Lens-Gruppe  |  `s3:CreateStorageLensGroup`  | 
|  Erstellen einer neuen Storage-Lens-Gruppe  |  `s3:CreateStorageLensGroup`, `s3:TagResource`  | 
|  Aktualisieren einer vorhandenen Storage-Lens-Gruppe  |  `s3:UpdateStorageLensGroup`  | 
|  Zurückgeben der Konfigurationsdetails einer Storage-Lens-Gruppe  |  `s3:GetStorageLensGroup`  | 
|  Auflisten aller Storage-Lens-Gruppen in der Heimatregion  |  `s3:ListStorageLensGroups`  | 
|  Löschen einer Storage-Lens-Gruppe  |  `s3:DeleteStorageLensGroup`  | 
|  Auflisten der Tags, die der Storage-Lens-Gruppe hinzugefügt wurden  |  `s3:ListTagsForResource`  | 
|  Hinzufügen oder Aktualisieren eines Storage-Lens-Gruppen-Tags für eine vorhandene Storage-Lens-Gruppe  |  `s3:TagResource`  | 
|  Löschen eines Tags aus einer Storage-Lens-Gruppe  |  `s3:UntagResource`  | 

Im Folgenden finden Sie ein Beispiel für die Konfiguration der IAM-Richtlinie in dem Konto, in dem die Storage-Lens-Gruppe erstellt wurde. Zur Verwendung dieser Richtlinie ersetzen Sie `us-east-1` durch die Heimatregion, in der sich die Storage-Lens-Gruppe befindet. Ersetzen Sie `111122223333` durch Ihre AWS-Konto -ID und `example-storage-lens-group` durch den Namen der Storage-Lens-Gruppe. Wenn Sie diese Berechtigungen auf alle Storage-Lens-Gruppen anwenden möchten, ersetzen Sie `example-storage-lens-group` durch ein `*`.

```
{
    "Version": "2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "EXAMPLE-Statement-ID",
            "Effect": "Allow",
            "Action": [
                "s3:CreateStorageLensGroup",
                "s3:UpdateStorageLensGroup",
                "s3:GetStorageLensGroup",
                "s3:ListStorageLensGroups",
                "s3:DeleteStorageLensGroup,
                "s3:TagResource",
                "s3:UntagResource",
                "s3:ListTagsForResource"
                ],
            "Resource": "arn:aws:s3:us-east-1:111122223333:storage-lens-group/example-storage-lens-group"
        }
    ]
}
```

Weitere Informationen zur Verwendung von S3-Storage-Lens-Berechtigungen finden Sie unter [Festlegen der Berechtigungen für Amazon S3 Storage Lens](storage_lens_iam_permissions.md). Weitere Informationen zur IAM-Richtliniensprache finden Sie unter [Richtlinien und Berechtigungen in Amazon S3](access-policy-language-overview.md).

## Konfiguration von Storage-Lens-Gruppen
<a name="storage-lens-groups-configuration"></a>

### Namen von S3-Storage-Lens-Gruppen
<a name="storage-lens-group-name"></a>

Wir empfehlen, Storage-Lens-Gruppen Namen zu geben, die auf ihren Zweck hinweisen. Auf diese Weise können Sie leicht feststellen, an welche Gruppen Dashboards angehängt werden sollen. Um [eine Storage-Lens-Gruppe an ein Dashboard anzuhängen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-lens-groups-dashboard-console.html), müssen Sie die Gruppe im Abschnitt **Aggregation von Storage-Lens-Gruppen** der Dashboard-Konfiguration angeben. 

Namen von Storage-Lens-Gruppen müssen innerhalb des Kontos eindeutig sein. Sie dürfen nicht länger als 64 Zeichen sein. Nur Buchstaben (a–z, A–Z), Zahlen (0–9), Bindestriche (`-`) und Unterstriche (`_`) sind zulässig.

### Heimatregion
<a name="storage-lens-group-home-region"></a>

In der Heimatregion wird AWS-Region Ihre Storage Lens-Gruppe erstellt und verwaltet. Eine Storage-Lens-Gruppe wird in derselben Heimatregion wie das Amazon-S3-Storage-Lens-Dashboard erstellt. Die Konfiguration und die Metriken der Storage-Lens-Gruppe werden ebenfalls in dieser Region gespeichert. Sie sind in der Lage, in einer Heimatregion bis zu 50 Storage-Lens-Gruppen zu erstellen.

 Nachdem Sie eine Storage-Lens-Gruppe erstellt haben, können Sie die Heimatregion nicht bearbeiten.

### Scope
<a name="storage-lens-group-scope"></a>

Um Objekte in eine Storage-Lens-Gruppe aufzunehmen, müssen sie sich im Umfang des Amazon-S3-Storage-Lens-Dashboards befinden. Der Umfang des Storage-Lens-Dashboards wird durch die Buckets bestimmt, die Sie in den **Dashboard-Umfang** der S3-Storage-Lens-Dashboard-Konfiguration aufgenommen haben.

Sie können verschiedene Filter für Ihre Objekte verwenden, um den Umfang einer Storage-Lens-Gruppe zu definieren. Um diese Storage-Lens-Gruppenmetriken im S3-Storage-Lens-Dashboard anzuzeigen, müssen Objekte den Filtern entsprechen, die Sie in die Storage-Lens-Gruppen aufnehmen. Angenommen, in einer Storage-Lens-Gruppe werden Objekte mit dem Präfix `marketing` und dem Suffix `.png` berücksichtigt, aber keine Objekte entsprechen diesen Kriterien. In diesem Fall werden in dem täglichen Metrikexport keine Metriken für diese Storage-Lens-Gruppe generiert und im Dashboard sind keine Metriken für diese Gruppe sichtbar.

### Filter
<a name="storage-lens-group-filters"></a>

Sie können die folgenden Filter in einer S3-Storage-Lens-Gruppe verwenden:
+ **Präfixe** – Gibt das [Präfix](https://docs.aws.amazon.com/AmazonS3/latest/userguide/using-prefixes.html) der berücksichtigten Objekte an. Es handelt sich um eine Zeichenfolge am Anfang des Objektschlüsselnamens. Der Wert `images` für den Filter **Präfixe** schließt beispielsweise Objekte mit einem der folgenden Präfixe ein:`images/`, `images-marketing` und `images/production`. Die maximale Länge eines Präfixes beträgt 512 Byte.
+ **Suffixe** – Gibt das Suffix der berücksichtigten Objekte an (z. B. `.png`, `.jpeg` oder `.csv`). Die maximale Länge eines Suffixes beträgt 1 024 Byte. 
+ **Objekt-Tags** – Gibt die Liste der [Objekt-Tags](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-tagging.html) an, nach denen gefiltert werden soll. Ein Tag-Schlüssel darf nicht mehr als 128 Unicode-Zeichen beinhalten, ein Tag-Wert maximal 256 Unicode-Zeichen. Beachten Sie, dass S3 Storage Lens das Objekt nur mit anderen Objekten gruppiert, die ebenfalls leere Tag-Werte haben, wenn das Feld für den Objekt-Tag-Wert leer bleibt.
+ **Alter** – Gibt den Altersbereich der enthaltenen Objekte in Tagen an. Es werden nur Ganzzahlen unterstützt.
+ **Größe** – Gibt den Objektgrößenbereich der berücksichtigten Objekte in Byte an. Es werden nur Ganzzahlen unterstützt. Der maximal zulässige Wert ist 50 TB.

### Objekt-Tags von Storage-Lens-Gruppen
<a name="storage-lens-group-object-tags"></a>

Sie können [eine Storage-Lens-Gruppe erstellen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-lens-groups-create.html), die bis zu 10 Objekt-Tag-Filter enthält. Das folgende Beispiel enthält zwei Schlüssel-Wert-Paare für Objekt-Tags als Filter für eine Storage-Lens-Gruppe namens `Marketing-Department`. Zur Verwendung dieses Beispiels ersetzen Sie `Marketing-Department` durch den Namen Ihrer Gruppe und `object-tag-key-1`, `object-tag-value-1` usw. durch die Schlüssel-Wert-Paare der Objekt-Tags, nach denen Sie filtern möchten.

```
{
    "Name": "Marketing-Department",
    "Filter": {
     "MatchAnyTag":[
                {
                    "Key": "object-tag-key-1",
                    "Value": "object-tag-value-1"
                },
                {
                    "Key": "object-tag-key-2",
                    "Value": "object-tag-value-2"
                }
            ]
    }
}
```

### Logische Operatoren (`And` oder `Or`)
<a name="storage-lens-group-logical-operators"></a>

Um mehrere Filterbedingungen in eine Storage-Lens-Gruppe aufzunehmen, können Sie logische Operatoren (entweder `And` oder `Or`) einsetzen. Im folgenden Beispiel besitzt die Storage-Lens-Gruppe `Marketing-Department` einen `And`-Operator, der die Filter `ObjectSize`, `Prefix` und `ObjectAge` enthält. Aufgrund des `And`-Operators werden nur Objekte, die **allen** Filterbedingungen entsprechen, in den Umfang der Storage-Lens-Gruppe aufgenommen. 

Zur Verwendung dieses Beispiels ersetzen Sie die `user input placeholders` durch die Werte, nach denen Sie filtern möchten.

```
{
    "Name": "Marketing-Department",
    "Filter": {
        "And": {
            "MatchAnyPrefix": [
                "prefix-1",
                "prefix-2",
                "prefix-3/sub-prefix-1" 
            ],
             "MatchObjectAge": {
                "DaysGreaterThan": 10,
                "DaysLessThan": 60
            },
            "MatchObjectSize": {
                "BytesGreaterThan": 10,
                "BytesLessThan": 60 
            }
        }
    }
}
```

**Anmerkung**  
Wenn Sie Objekte berücksichtigen möchten, die nur **einer** Filterbedingung entsprechen, ersetzen Sie in diesem Beispiel den logischen Operator `And` durch den logischen Operator `Or`.

## AWS Ressourcen-Tags
<a name="storage-lens-group-resource-tags"></a>

Jede S3 Storage Lens-Gruppe wird als AWS Ressource mit eigenem Amazon-Ressourcennamen (ARN) gezählt. Daher können Sie bei der Konfiguration einer Storage-Lens-Gruppe optional AWS -Ressourcen-Tags zur Gruppe hinzufügen. Es ist möglich, für jede Storage-Lens-Gruppe bis zu 50 Tags hinzuzufügen. Zum Erstellen einer Storage-Lens-Gruppe mit Tags benötigen Sie die Berechtigungen `s3:TagResource` und `s3:CreateStorageLensGroup`.

Sie können AWS Ressourcen-Tags verwenden, um Ressourcen nach Abteilung, Geschäftsbereich oder Projekt zu kategorisieren. Dies ist sinnvoll, wenn viele Ressourcen desselben Typs vorliegen. Durch die Anwendung von Tags können Sie eine bestimmte Storage-Lens-Gruppe auf Grundlage der ihr zugewiesenen Tags schnell identifizieren. Sie können Tags auch verwenden, um Ihre Kosten zu kategorisieren und zu verfolgen.

Wenn Sie Ihrer Storage Lens-Gruppe ein AWS Ressourcen-Tag hinzufügen, aktivieren Sie außerdem die [attributebasierte Zugriffskontrolle](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction_attribute-based-access-control.html) (ABAC). ABAC ist eine Autorisierungsstrategie, die Berechtigungen basierend auf Attributen – in diesem Fall Tags – definiert. [Sie können auch Bedingungen verwenden, die Ressourcen-Tags in Ihren IAM-Richtlinien angeben, um den Zugriff auf Ressourcen zu kontrollieren. AWS](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_tags.html#access_tags_control-resources)

Sie können Tag (Markierung)-Schlüssel und -Werte bearbeiten und Tags (Markierungen) jederzeit von einer Ressource entfernen. Beachten Sie folgende Einschränkungen:
+ Bei Tag-Schlüsseln und Tag-Werten muss die Groß- und Kleinschreibung beachtet werden.
+ Wenn Sie ein Tag (Markierung) mit demselben Schlüssel wie ein vorhandener Tag (Markierung) für die Ressource hinzufügen, wird der alte Wert mit dem neuen überschrieben.
+ Wenn Sie eine Ressource löschen, werden alle Tags (Markierungen) der Ressource ebenfalls gelöscht. 
+ Nehmen Sie keine privaten oder sensiblen Daten in Ihre AWS Ressourcen-Tags auf.
+ Systemtags (oder Tags mit Tag-Schlüsseln, die mit `aws:` beginnen) werden nicht unterstützt.
+ Die einzelnen Tag-Schlüssel dürfen maximal 128 Zeichen lang sein. Die einzelnen Tag-Werte dürfen maximal 256 Zeichen lang sein.

## Metrikexport für Storage-Lens-Gruppen
<a name="storage-lens-groups-metrics-export"></a>

Die Metriken einer S3-Storage-Lens-Gruppe sind im [Amazon-S3-Storage-Lens-Metrikexport](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_understanding_metrics_export_schema.html) für das Dashboard enthalten, an das die Storage-Lens-Gruppe angehängt wird. Allgemeine Informationen zur Exportfunktion für Storage-Lens-Metriken finden Sie unter [Anzeigen von Amazon S3-Storage-Lens-Metriken mit einem Datenexport](storage_lens_view_metrics_export.md).

Der Metrikexport für Storage-Lens-Gruppen umfasst alle S3-Storage-Lens-Metriken, die im Umfang für das Dashboard enthalten sind, an das die Storage-Lens-Gruppe angehängt wurde. Der Export beinhaltet zudem zusätzliche Metrikdaten für Storage-Lens-Gruppen.

Nach Erstellung der Storage-Lens-Gruppe wird der Metrikexport täglich an den Bucket gesendet, den Sie bei der Konfiguration des Metrikexports für das Dashboard ausgewählt haben, an das die Gruppe angehängt wird. Es kann bis zu 48 Stunden dauern, bis Sie den ersten Metrikexport erhalten. 

Damit Metriken im täglichen Export generiert werden, müssen Objekte den Filtern entsprechen, die Sie in die Storage-Lens-Gruppen aufnehmen. Wenn den Filtern, die Sie in die Storage-Lens-Gruppe eingebunden haben, keine Objekte entsprechen, werden keine Metriken generiert. Entspricht ein Objekt jedoch zwei oder mehr Storage-Lens-Gruppen, wird das Objekt im Metrikexport für jede Gruppe separat aufgeführt.

Sie können Metriken für Storage-Lens-Gruppen ermitteln, indem Sie in der Spalte `record_type` des Metrikexports für das Dashboard nach einem der folgenden Werte suchen:
+ `STORAGE_LENS_GROUP_BUCKET`
+ `STORAGE_LENS_GROUP_ACCOUNT`

In der Spalte `record_value` wird der Ressourcen-ARN für die Storage-Lens-Gruppe angezeigt (z. B. `arn:aws:s3:us-east-1:111122223333:storage-lens-group/Marketing-Department`).

# Verwenden von Storage-Lens-Gruppen
<a name="storage-lens-group-tasks"></a>

Amazon-S3-Storage-Lens-Gruppen aggregieren Metriken mithilfe benutzerdefinierter Filter auf der Grundlage von Objektmetadaten. Sie können S3-Storage-Lens-Metriken anhand der Präfixe, der Suffixe, der Objekt-Tags, der Objektgröße oder des Objektalters analysieren und filtern. Zudem bieten Amazon-S3-Storage-Lens-Gruppen die Möglichkeit, die Nutzung innerhalb und zwischen Amazon-S3-Buckets zu kategorisieren. Auf diese Weise erhalten Sie mehr Informationen zum S3-Speicher und können ihn besser optimieren.

Für die Visualisierung der Daten für eine Storage-Lens-Gruppe müssen Sie zunächst [Ihre Storage-Lens-Gruppe an ein S3-Storage-Lens-Dashboard anhängen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-lens-groups-dashboard-console.html#storage-lens-groups-attach-dashboard-console). Wenn Sie Storage-Lens-Gruppen im Dashboard verwalten müssen, können Sie die Dashboard-Konfiguration bearbeiten. Um festzustellen, welche Storage-Lens-Gruppen sich in Ihrem Konto befinden, können Sie sie auflisten. Auf der Registerkarte **Storage-Lens-Gruppen** im Dashboard können Sie jederzeit überprüfen, welche Storage-Lens-Gruppen an das Dashboard angefügt sind. Wenn Sie den Umfang einer vorhandenen Storage-Lens-Gruppe überprüfen oder aktualisieren möchten, können Sie deren Details einsehen. Storage-Lens-Gruppen können auch dauerhaft gelöscht werden.

Um Berechtigungen zu verwalten, können Sie benutzerdefinierte AWS Ressourcen-Tags erstellen und zu Ihren Storage Lens-Gruppen hinzufügen. Mithilfe von AWS Ressourcen-Tags können Sie Ressourcen nach Abteilung, Geschäftsbereich oder Projekt kategorisieren. Dies ist sinnvoll, wenn viele Ressourcen desselben Typs vorliegen. Durch die Anwendung von Tags können Sie eine bestimmte Storage-Lens-Gruppe auf Grundlage der ihr zugewiesenen Tags schnell identifizieren. 

Wenn Sie Ihrer Storage Lens-Gruppe ein AWS Ressourcen-Tag hinzufügen, aktivieren Sie außerdem die [attributebasierte Zugriffskontrolle](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction_attribute-based-access-control.html) (ABAC). ABAC ist eine Autorisierungsstrategie, die Berechtigungen basierend auf Attributen – in diesem Fall Tags – definiert. [Sie können auch Bedingungen verwenden, die Ressourcen-Tags in Ihren IAM-Richtlinien angeben, um den Zugriff auf Ressourcen zu kontrollieren. AWS](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_tags.html#access_tags_control-resources)

**Topics**
+ [Erstellen einer Storage-Lens-Gruppe](storage-lens-groups-create.md)
+ [Anhängen von S3-Storage-Lens-Gruppen an das Dashboard und Entfernen der Gruppen](storage-lens-groups-dashboard-console.md)
+ [Visualisieren von Storage Lens-Gruppendaten](storage-lens-groups-visualize.md)
+ [Aktualisieren einer Storage-Lens-Gruppe](storage-lens-groups-update.md)
+ [Verwaltung von AWS Ressourcen-Tags mit Storage Lens-Gruppen](storage-lens-groups-manage-tags.md)
+ [Auflisten aller Storage-Lens-Gruppen](storage-lens-groups-list.md)
+ [Anzeigen von Details zu Storage-Lens-Gruppen](storage-lens-groups-view.md)
+ [Löschen einer Storage-Lens-Gruppe](storage-lens-groups-delete.md)

# Erstellen einer Storage-Lens-Gruppe
<a name="storage-lens-groups-create"></a>

Die folgenden Beispiele zeigen, wie Sie eine Amazon S3 Storage Lens-Gruppe mithilfe der Amazon S3 S3-Konsole, AWS Command Line Interface (AWS CLI) und erstellen AWS SDK für Java.

## Verwenden der S3-Konsole
<a name="create-storage-lens-group-console"></a>

**So erstellen Sie eine Storage-Lens-Gruppe**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie in der Navigationsleiste oben auf der Seite den Namen der aktuell angezeigten AWS -Region aus. Wählen Sie dann die Region aus, zu der Sie wechseln möchten. 

1. Wählen Sie im linken Navigationsbereich die Option **Storage-Lens-Gruppen** aus.

1. Wählen Sie **Storage-Lens-Gruppe erstellen** aus.

1. Gehen Sie unter **Allgemein** zu Ihrer **Heimatregion** und geben Sie den **Namen der Storage-Lens-Gruppe** ein.

1. Wählen Sie unter **Umfang** den Filter aus, der auf die Storage-Lens-Gruppe angewendet werden soll. Zum Anwenden mehrerer Filter wählen Sie die Filter und dann den logischen Operator **UND** oder **ODER** aus.
   + Wählen Sie für den Filter **Präfixe** die Option **Präfixe** aus und geben Sie eine Präfixzeichenfolge ein. Zum Hinzufügen mehrerer Präfixe wählen Sie **Präfix hinzufügen** aus. Zum Entfernen eines Präfixes wählen Sie neben dem zu entfernenden Präfix **Entfernen** aus.
   + Wählen Sie für den Filter **Objekt-Tags** die Option **Objekt-Tags** aus und geben Sie das Schlüssel-Wert-Paar für das Objekt ein. Wählen Sie dann **Tag hinzufügen** aus. Zum Entfernen eines vorhandenen Tags wählen Sie neben dem zu entfernenden Tag **Entfernen** aus.
   + Wählen Sie für den Filter **Suffixe** die Option **Suffixe** aus und geben Sie eine Suffixzeichenfolge ein. Um mehrere Suffixe hinzuzufügen, wählen Sie **Suffix hinzufügen** aus. Zum Entfernen eines Suffixes wählen Sie neben dem zu entfernenden Suffix **Entfernen** aus.
   + Geben Sie für den Filter **Alter** den Altersbereich des Objekts in Tagen an. Wählen Sie **Mindestobjektalter festlegen** aus und geben Sie das Mindestalter des Objekts ein. Wählen Sie dann **Das maximale Objektalter festlegen** aus und geben Sie das maximale Objektalter ein.
   + Geben Sie für den Filter **Größe** den Objektgrößenbereich und die Maßeinheit an. Wählen Sie **Mindestobjektgröße festlegen** aus und geben Sie die Mindestobjektgröße ein. Wählen Sie **Die maximale Objektgröße festlegen** aus und geben Sie die maximale Objektgröße ein.

1. (Optional) Fügen Sie für AWS Ressourcen-Tags das Schlüssel-Wert-Paar hinzu und wählen Sie dann Tag **hinzufügen**.

1. Wählen Sie **Storage-Lens-Gruppe erstellen** aus.

## Verwenden Sie AWS CLI
<a name="create-storage-lens-group-cli"></a>

Mit dem folgenden AWS CLI Beispielbefehl wird eine Storage Lens-Gruppe erstellt. Wenn Sie diese Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

```
aws s3control create-storage-lens-group --account-id 111122223333 \ 
--region us-east-1 --storage-lens-group=file://./marketing-department.json
```

Mit dem folgenden AWS CLI Beispielbefehl wird eine Storage Lens-Gruppe mit zwei AWS Ressourcen-Tags erstellt. Wenn Sie diesen Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

```
aws s3control create-storage-lens-group --account-id 111122223333 \ 
--region us-east-1 --storage-lens-group=file://./marketing-department.json \
--tags Key=k1,Value=v1 Key=k2,Value=v2
```

JSON-Beispielkonfigurationen finden Sie unter [Konfiguration von Storage-Lens-Gruppen](storage-lens-groups.md#storage-lens-groups-configuration).

## Verwenden des AWS SDK for Java
<a name="create-storage-lens-group-sdk-java"></a>

Im folgenden AWS SDK für Java Beispiel wird eine Storage Lens-Gruppe erstellt. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.

**Example – Erstellen einer Storage-Lens-Gruppe mit einem einzigen Filter**  
In dem folgenden Beispiel wird eine Storage-Lens-Gruppe namens `Marketing-Department` erstellt. Diese Gruppe besitzt einen Filter für das Objektalter, der einen Altersbereich von `30` bis `90` Tagen festlegt. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.  

```
package aws.example.s3control;
 
import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.CreateStorageLensGroupRequest;
import software.amazon.awssdk.services.s3control.model.MatchObjectAge;
import software.amazon.awssdk.services.s3control.model.StorageLensGroup;
import software.amazon.awssdk.services.s3control.model.StorageLensGroupFilter;
 
public class CreateStorageLensGroupWithObjectAge {
    public static void main(String[] args) {
        String storageLensGroupName = "Marketing-Department";
        String accountId = "111122223333";
        
        try {
            StorageLensGroupFilter objectAgeFilter = StorageLensGroupFilter.builder()
                    .matchObjectAge(MatchObjectAge.builder()
                            .daysGreaterThan(30)
                            .daysLessThan(90)
                            .build())
                    .build();

            StorageLensGroup storageLensGroup = StorageLensGroup.builder()
                    .name(storageLensGroupName)
                    .filter(objectAgeFilter)
                    .build();

            CreateStorageLensGroupRequest createStorageLensGroupRequest = CreateStorageLensGroupRequest.builder()
                    .storageLensGroup(storageLensGroup)
                    .accountId(accountId).build();

            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            s3ControlClient.createStorageLensGroup(createStorageLensGroupRequest);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

**Example — Erstellen einer Storage-Lens-Gruppe mit einem `AND`-Operator, der mehrere Filter umfasst**  
In dem folgenden Beispiel wird eine Storage-Lens-Gruppe namens `Marketing-Department` erstellt. Diese Gruppe verwendet den `AND`-Operator, um anzugeben, dass Objekte **allen** Filterbedingungen entsprechen müssen. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.   

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.CreateStorageLensGroupRequest;
import software.amazon.awssdk.services.s3control.model.MatchObjectAge;
import software.amazon.awssdk.services.s3control.model.MatchObjectSize;
import software.amazon.awssdk.services.s3control.model.S3Tag;
import software.amazon.awssdk.services.s3control.model.StorageLensGroup;
import software.amazon.awssdk.services.s3control.model.StorageLensGroupAndOperator;
import software.amazon.awssdk.services.s3control.model.StorageLensGroupFilter;


public class CreateStorageLensGroupWithAndFilter {
    public static void main(String[] args) {
        String storageLensGroupName = "Marketing-Department";
        String accountId = "111122223333";

        try {
            // Create object tags.
            S3Tag tag1 = S3Tag.builder()
                    .key("object-tag-key-1")
                    .value("object-tag-value-1")
                    .build();
            S3Tag tag2 = S3Tag.builder()
                    .key("object-tag-key-2")
                    .value("object-tag-value-2")
                    .build();

            StorageLensGroupAndOperator andOperator = StorageLensGroupAndOperator.builder()
                    .matchAnyPrefix("prefix-1", "prefix-2", "prefix-3/sub-prefix-1")
                    .matchAnySuffix(".png", ".gif", ".jpg")
                    .matchAnyTag(tag1, tag2)
                    .matchObjectAge(MatchObjectAge.builder()
                            .daysGreaterThan(30)
                            .daysLessThan(90).build())
                    .matchObjectSize(MatchObjectSize.builder()
                            .bytesGreaterThan(1000L)
                            .bytesLessThan(6000L).build())
                    .build();

            StorageLensGroupFilter andFilter = StorageLensGroupFilter.builder()
                    .and(andOperator)
                    .build();

            StorageLensGroup storageLensGroup = StorageLensGroup.builder()
                    .name(storageLensGroupName)
                    .filter(andFilter)
                    .build();

            CreateStorageLensGroupRequest createStorageLensGroupRequest = CreateStorageLensGroupRequest.builder()
                    .storageLensGroup(storageLensGroup)
                    .accountId(accountId).build();

            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            s3ControlClient.createStorageLensGroup(createStorageLensGroupRequest);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

**Example — Erstellen einer Storage-Lens-Gruppe mit einem `OR`-Operator, der mehrere Filter umfasst**  
In dem folgenden Beispiel wird eine Storage-Lens-Gruppe namens `Marketing-Department` erstellt. Für diese Gruppe wird ein `OR`-Operator verwendet, um einen Präfixfilter (`prefix-1`, `prefix-2`, `prefix3/sub-prefix-1`) oder einen Objektgrößenfilter mit einem Größenbereich zwischen `1000` Byte und `6000` Byte anzuwenden. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.CreateStorageLensGroupRequest;
import software.amazon.awssdk.services.s3control.model.MatchObjectSize;
import software.amazon.awssdk.services.s3control.model.StorageLensGroup;
import software.amazon.awssdk.services.s3control.model.StorageLensGroupFilter;
import software.amazon.awssdk.services.s3control.model.StorageLensGroupOrOperator;

public class CreateStorageLensGroupWithOrFilter {
    public static void main(String[] args) {
        String storageLensGroupName = "Marketing-Department";
        String accountId = "111122223333";

        try {
            StorageLensGroupOrOperator orOperator = StorageLensGroupOrOperator.builder()
                    .matchAnyPrefix("prefix-1", "prefix-2", "prefix-3/sub-prefix-1")
                    .matchObjectSize(MatchObjectSize.builder()
                            .bytesGreaterThan(1000L)
                            .bytesLessThan(6000L)
                            .build())
                    .build();

            StorageLensGroupFilter orFilter = StorageLensGroupFilter.builder()
                    .or(orOperator)
                    .build();

            StorageLensGroup storageLensGroup = StorageLensGroup.builder()
                    .name(storageLensGroupName)
                    .filter(orFilter)
                    .build();

            CreateStorageLensGroupRequest createStorageLensGroupRequest = CreateStorageLensGroupRequest.builder()
                    .storageLensGroup(storageLensGroup)
                    .accountId(accountId).build();

            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            s3ControlClient.createStorageLensGroup(createStorageLensGroupRequest);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

**Example — Erstellen Sie eine Storage Lens-Gruppe mit einem einzigen Filter und zwei AWS Ressourcen-Tags**  
In dem folgenden Beispiel wird eine Storage-Lens-Gruppe namens `Marketing-Department` erstellt, die einen Suffixfilter aufweist. In diesem Beispiel werden der Storage Lens-Gruppe außerdem zwei AWS Ressourcen-Tags hinzugefügt. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.CreateStorageLensGroupRequest;
import software.amazon.awssdk.services.s3control.model.StorageLensGroup;
import software.amazon.awssdk.services.s3control.model.StorageLensGroupFilter;
import software.amazon.awssdk.services.s3control.model.Tag;

public class CreateStorageLensGroupWithResourceTags {
    public static void main(String[] args) {
        String storageLensGroupName = "Marketing-Department";
        String accountId = "111122223333";

        try {
            // Create AWS resource tags.
            Tag resourceTag1 = Tag.builder()
                    .key("resource-tag-key-1")
                    .value("resource-tag-value-1")
                    .build();
            Tag resourceTag2 = Tag.builder()
                    .key("resource-tag-key-2")
                    .value("resource-tag-value-2")
                    .build();

            StorageLensGroupFilter suffixFilter = StorageLensGroupFilter.builder()
                    .matchAnySuffix(".png", ".gif", ".jpg")
                    .build();

            StorageLensGroup storageLensGroup = StorageLensGroup.builder()
                    .name(storageLensGroupName)
                    .filter(suffixFilter)
                    .build();

            CreateStorageLensGroupRequest createStorageLensGroupRequest = CreateStorageLensGroupRequest.builder()
                    .storageLensGroup(storageLensGroup)
                    .tags(resourceTag1, resourceTag2)
                    .accountId(accountId).build();

            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            s3ControlClient.createStorageLensGroup(createStorageLensGroupRequest);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

JSON-Beispielkonfigurationen finden Sie unter [Konfiguration von Storage-Lens-Gruppen](storage-lens-groups.md#storage-lens-groups-configuration).

# Anhängen von S3-Storage-Lens-Gruppen an das Dashboard und Entfernen der Gruppen
<a name="storage-lens-groups-dashboard-console"></a>

Nachdem Sie in Amazon S3 Storage Lens ein Upgrade auf das erweiterte Kontingent durchgeführt haben, können Sie eine [Storage-Lens-Gruppe](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-lens-groups-overview.html) an das Dashboard anhängen. Sind mehrere Storage-Lens-Gruppen vorhanden, lassen sich die gewünschten Gruppen ein- oder ausschließen. 

Die Storage-Lens-Gruppen müssen sich in der angegebenen Heimatregion im Dashboard-Konto befinden. Nachdem Sie eine Storage-Lens-Gruppe an das Dashboard angehängt haben, erhalten Sie innerhalb von 48 Stunden die Aggregationsdaten der zusätzlichen Storage-Lens-Gruppe im Metrikexport.

**Anmerkung**  
Wenn Sie aggregierte Metriken für die Storage Lens-Gruppe einsehen möchten, müssen Sie sie an das Storage-Lens-Dashboard anhängen. Beispiele für JSON-Konfigurationsdateien für eine Storage Lens-Gruppe finden Sie unter [Beispiel für S3-Storage-Lens-Konfiguration mit Storage-Lens-Gruppen in JSON](S3LensHelperFilesCLI.md#StorageLensGroupsHelperFilesCLI). 

## Verwenden der S3-Konsole
<a name="storage-lens-groups-attach-dashboard-console"></a>

**So hängen Sie eine Storage-Lens-Gruppe an ein Storage-Lens-Dashboard an**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich unter **Storage Lens** die Option **Dashboards** aus.

1. Aktivieren Sie das Optionsfeld für das Storage-Lens-Dashboard, an das Sie eine Storage-Lens-Gruppe anhängen möchten.

1. Wählen Sie **Bearbeiten** aus.

1. Unter **Metrikauswahl**, wählen Sie **Fortschrittliche Metriken und Empfehlungen** aus.

1. Wählen Sie **Aggregation von Storage-Lens-Gruppen** aus.
**Anmerkung**  
Standardmäßig ist die Option **Erweiterte Metriken** auch ausgewählt. Sie können diese Einstellung jedoch auch deaktivieren, da sie nicht erforderlich ist, um Daten von Storage-Lens-Gruppen zu aggregieren.

1. Scrollen Sie nach unten zu **Aggregation von Storage-Lens-Gruppen** und geben Sie die Storage-Lens-Gruppe(n) an, die Sie in der Datenaggregation berücksichtigen oder daraus ausschließen möchten. Sie können die folgenden Filteroptionen verwenden:
   + Wenn Sie bestimmte Storage-Lens-Gruppen berücksichtigen möchten, wählen Sie **Storage-Lens-Gruppen einbeziehen** aus. Wählen Sie unter **Zu berücksichtigende Storage-Lens-Gruppen** Ihre Storage-Lens-Gruppen aus.
   + Wenn Sie alle Storage-Lens-Gruppen berücksichtigen möchten, wählen Sie **Alle Storage-Lens-Gruppen in der Heimatregion in diesem Konto berücksichtigen** aus.
   + Möchten Sie bestimmte Storage-Lens-Gruppen ausschließen, wählen Sie **Storage-Lens-Gruppen ausschließen** aus. Wählen Sie unter **Auszuschließende Storage-Lens-Gruppen** die Storage-Lens-Gruppen aus, die Sie ausschließen möchten.

1. Wählen Sie **Änderungen speichern ** aus. Nachdem Sie eine Storage-Lens-Gruppe an das Dashboard angehängt haben, erhalten Sie innerhalb von 48 Stunden die Aggregationsdaten der zusätzlichen Storage-Lens-Gruppe im Metrikexport.

**So entfernen Sie eine Storage-Lens-Gruppe aus einem S3-Storage-Lens-Dashboard**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich unter **Storage Lens** die Option **Dashboards** aus.

1. Aktivieren Sie das Optionsfeld für das Storage-Lens-Dashboard, aus dem Sie eine Storage-Lens-Gruppe entfernen möchten.

1. Wählen Sie **Dashboard-Konfigurationen anzeigen** aus.

1. Wählen Sie **Bearbeiten** aus.

1. Scrollen Sie nach unten bis zum Abschnitt **Auswahl von Metriken**.

1. Wählen Sie unter **Aggregation von Storage-Lens-Gruppen** das **X** neben der Storage-Lens-Gruppe aus, die Sie entfernen möchten. Dadurch wird die Storage-Lens-Gruppe entfernt.

   Wenn Sie alle Storage-Lens-Gruppen in das Dashboard aufgenommen haben, deaktivieren Sie das Kontrollkästchen neben **Alle Storage-Lens-Gruppen in der Heimatregion in diesem Konto berücksichtigen**. 

1. Wählen Sie **Änderungen speichern ** aus.
**Anmerkung**  
Es dauert bis zu 48 Stunden, bis die Konfigurationsänderungen im Dashboard angezeigt werden.

## Verwenden des AWS SDK for Java
<a name="StorageLensGroupsConfigurationJava"></a>

**Example – Anhängen aller Storage-Lens-Gruppen an ein Dashboard**  
Das folgende Beispiel für ein SDK for Java ordnet alle Storage Lens-Gruppen im Konto dem *DashBoardConfigurationId* Dashboard *111122223333* zu:  

```
package aws.example.s3control;


import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.BucketLevel;
import com.amazonaws.services.s3control.model.PutStorageLensConfigurationRequest;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.model.AccountLevel;
import com.amazonaws.services.s3control.model.StorageLensConfiguration;
import com.amazonaws.services.s3control.model.StorageLensGroupLevel;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class CreateDashboardWithStorageLensGroups {
    public static void main(String[] args) {
        String configurationId = "ExampleDashboardConfigurationId";
        String sourceAccountId = "111122223333";

        try {
            StorageLensGroupLevel storageLensGroupLevel = new StorageLensGroupLevel();

            AccountLevel accountLevel = new AccountLevel()
                    .withBucketLevel(new BucketLevel())
                    .withStorageLensGroupLevel(storageLensGroupLevel);

            StorageLensConfiguration configuration = new StorageLensConfiguration()
                    .withId(configurationId)
                    .withAccountLevel(accountLevel)
                    .withIsEnabled(true);

            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            s3ControlClient.putStorageLensConfiguration(new PutStorageLensConfigurationRequest()
                    .withAccountId(sourceAccountId)
                    .withConfigId(configurationId)
                    .withStorageLensConfiguration(configuration)
            );
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

**Example – Anhängen von zwei Storage-Lens-Gruppen an ein Dashboard**  
Im folgenden AWS SDK für Java Beispiel werden zwei Storage Lens-Gruppen (*StorageLensGroupName1*und*StorageLensGroupName2*) an das *ExampleDashboardConfigurationId* Dashboard angehängt.  

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.AccountLevel;
import com.amazonaws.services.s3control.model.BucketLevel;
import com.amazonaws.services.s3control.model.PutStorageLensConfigurationRequest;
import com.amazonaws.services.s3control.model.StorageLensConfiguration;
import com.amazonaws.services.s3control.model.StorageLensGroupLevel;
import com.amazonaws.services.s3control.model.StorageLensGroupLevelSelectionCriteria;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class CreateDashboardWith2StorageLensGroups {
    public static void main(String[] args) {
        String configurationId = "ExampleDashboardConfigurationId";
        String storageLensGroupName1 = "StorageLensGroupName1";
        String storageLensGroupName2 = "StorageLensGroupName2";
        String sourceAccountId = "111122223333";

        try {
            StorageLensGroupLevelSelectionCriteria selectionCriteria = new StorageLensGroupLevelSelectionCriteria()
                    .withInclude(
                            "arn:aws:s3:" + US_WEST_2.getName() + ":" + sourceAccountId + ":storage-lens-group/" + storageLensGroupName1,
                            "arn:aws:s3:" + US_WEST_2.getName() + ":" + sourceAccountId + ":storage-lens-group/" + storageLensGroupName2);

            System.out.println(selectionCriteria);
            StorageLensGroupLevel storageLensGroupLevel = new StorageLensGroupLevel()
                    .withSelectionCriteria(selectionCriteria);

            AccountLevel accountLevel = new AccountLevel()
                    .withBucketLevel(new BucketLevel())
                    .withStorageLensGroupLevel(storageLensGroupLevel);

            StorageLensConfiguration configuration = new StorageLensConfiguration()
                    .withId(configurationId)
                    .withAccountLevel(accountLevel)
                    .withIsEnabled(true);

            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            s3ControlClient.putStorageLensConfiguration(new PutStorageLensConfigurationRequest()
                    .withAccountId(sourceAccountId)
                    .withConfigId(configurationId)
                    .withStorageLensConfiguration(configuration)
            );
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

**Example – Anhängen aller Storage-Lens-Gruppen mit Ausschlüssen**  
Das folgende Beispiel für ein SDK for Java fügt alle Storage Lens-Gruppen an das *ExampleDashboardConfigurationId* Dashboard an, mit Ausnahme der beiden angegebenen (*StorageLensGroupName1*und*StorageLensGroupName2*):  

```
package aws.example.s3control;


import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.services.s3control.AWSS3Control;
import com.amazonaws.services.s3control.AWSS3ControlClient;
import com.amazonaws.services.s3control.model.AccountLevel;
import com.amazonaws.services.s3control.model.BucketLevel;
import com.amazonaws.services.s3control.model.PutStorageLensConfigurationRequest;
import com.amazonaws.services.s3control.model.StorageLensConfiguration;
import com.amazonaws.services.s3control.model.StorageLensGroupLevel;
import com.amazonaws.services.s3control.model.StorageLensGroupLevelSelectionCriteria;

import static com.amazonaws.regions.Regions.US_WEST_2;

public class CreateDashboardWith2StorageLensGroupsExcluded {
    public static void main(String[] args) {
        String configurationId = "ExampleDashboardConfigurationId";
        String storageLensGroupName1 = "StorageLensGroupName1";
        String storageLensGroupName2 = "StorageLensGroupName2";
        String sourceAccountId = "111122223333";

        try {
            StorageLensGroupLevelSelectionCriteria selectionCriteria = new StorageLensGroupLevelSelectionCriteria()
                    .withInclude(
                            "arn:aws:s3:" + US_WEST_2.getName() + ":" + sourceAccountId + ":storage-lens-group/" + storageLensGroupName1,
                            "arn:aws:s3:" + US_WEST_2.getName() + ":" + sourceAccountId + ":storage-lens-group/" + storageLensGroupName2);

            System.out.println(selectionCriteria);
            StorageLensGroupLevel storageLensGroupLevel = new StorageLensGroupLevel()
                    .withSelectionCriteria(selectionCriteria);

            AccountLevel accountLevel = new AccountLevel()
                    .withBucketLevel(new BucketLevel())
                    .withStorageLensGroupLevel(storageLensGroupLevel);

            StorageLensConfiguration configuration = new StorageLensConfiguration()
                    .withId(configurationId)
                    .withAccountLevel(accountLevel)
                    .withIsEnabled(true);

            AWSS3Control s3ControlClient = AWSS3ControlClient.builder()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(US_WEST_2)
                    .build();

            s3ControlClient.putStorageLensConfiguration(new PutStorageLensConfigurationRequest()
                    .withAccountId(sourceAccountId)
                    .withConfigId(configurationId)
                    .withStorageLensConfiguration(configuration)
            );
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Visualisieren von Storage Lens-Gruppendaten
<a name="storage-lens-groups-visualize"></a>

Sie können Storage-Lens-Gruppendaten visualisieren, indem Sie [die Gruppe an das Amazon-S3-Storage-Lens-Dashboard anhängen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-lens-groups-dashboard-console.html#storage-lens-groups-attach-dashboard-console). Nachdem Sie die Storage-Lens-Gruppe in die Aggregation von Storage-Lens-Gruppen in der Dashboard-Konfiguration aufgenommen haben, kann es bis zu 48 Stunden dauern, bis die Daten der Storage-Lens-Gruppe im Dashboard angezeigt werden.

Nach Aktualisierung der Dashboard-Konfiguration werden alle neu hinzugefügten Storage-Lens-Gruppen in der Liste der verfügbaren Ressourcen auf der Registerkarte **Storage-Lens-Gruppen** angezeigt. Zudem können Sie die Speichernutzung auf der Registerkarte **Übersicht** weiter analysieren, indem Sie die Daten nach einer anderen Dimension aufteilen. Wählen Sie z. B. eines der Elemente aus, die in den **drei wichtigsten** Kategorien aufgeführt sind, und dann **Analysieren nach**, um die Daten nach einer anderen Dimension zu aufzuteilen. Sie können nicht dieselbe Dimension wie der Filter selbst anwenden.

**Anmerkung**  
Es ist nicht möglich, einen Storage-Lens-Gruppenfilter zusammen mit einem Präfixfilter anzuwenden oder umgekehrt. Sie können eine Storage-Lens-Gruppe auch nicht weiter analysieren, indem Sie einen Präfixfilter verwenden.

Mithilfe der Registerkarte **Storage-Lens-Gruppen** im Amazon-S3-Storage-Lens-Dashboard lässt sich die Datenvisualisierung für die Storage-Lens-Gruppen anzupassen, die mit dem Dashboard verknüpft sind. Sie können entweder die Daten für einige Storage-Lens-Gruppen, die an das Dashboard angehängt sind, oder für alle Gruppen visualisieren.

Beachten Sie bei der Visualisierung von Storage-Lens-Gruppendaten im S3-Storage-Lens-Dashboard Folgendes:
+ S3 Storage Lens aggregiert Nutzungsmetriken für ein Objekt aus allen passenden Storage-Lens-Gruppen. Wenn also ein Objekt den Filterbedingungen für zwei oder mehr Storage-Lens-Gruppen entspricht, werden Sie in Ihrer Speichernutzung wiederholte Angaben für dasselbe Objekt sehen.
+ Objekte müssen den Filtern entsprechen, die Sie in die Storage-Lens-Gruppen einbinden. Wenn den Filtern, die Sie in die Storage-Lens-Gruppe eingebunden haben, keine Objekte entsprechen, werden keine Metriken generiert. Um festzustellen, ob es nicht zugewiesene Objekte gibt, überprüfen Sie die Gesamtzahl der Objekte im Dashboard auf Konto- und Bucket-Ebene.

# Aktualisieren einer Storage-Lens-Gruppe
<a name="storage-lens-groups-update"></a>

In den folgenden Beispielen wird veranschaulicht, wie eine Amazon-S3-Storage-Lens-Gruppe aktualisiert wird. Sie können eine Storage Lens-Gruppe mithilfe der Amazon S3 S3-Konsole, AWS Command Line Interface (AWS CLI) und aktualisieren AWS SDK für Java.

## Verwenden der S3-Konsole
<a name="update-storage-lens-group-console"></a>

**So aktualisieren Sie eine Storage-Lens-Gruppe**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich die Option **Storage-Lens-Gruppen** aus.

1. Wählen Sie unter **Storage-Lens-Gruppen** die zu aktualisierende Storage-Lens-Gruppe aus.

1. Wählen Sie unter **Umfang** die Option **Bearbeiten** aus.

1. Wählen Sie auf der Seite **Umfang** den Filter aus, der auf die Storage-Lens-Gruppe angewendet werden soll. Zum Anwenden mehrerer Filter wählen Sie die Filter und dann den logischen Operator **UND** oder **ODER** aus.
   + Wählen Sie für den Filter **Präfixe** die Option **Präfixe** aus und geben Sie eine Präfixzeichenfolge ein. Zum Hinzufügen mehrerer Präfixe wählen Sie **Präfix hinzufügen** aus. Zum Entfernen eines Präfixes wählen Sie neben dem zu entfernenden Präfix **Entfernen** aus.
   + Geben Sie für den Filter **Objekt-Tags** das Schlüssel-Wert-Paar für das Objekt ein. Wählen Sie dann **Tag hinzufügen** aus. Zum Entfernen eines vorhandenen Tags wählen Sie neben dem zu entfernenden Tag **Entfernen** aus.
   + Wählen Sie für den Filter **Suffixe** die Option **Suffixe** aus und geben Sie eine Suffixzeichenfolge ein. Um mehrere Suffixe hinzuzufügen, wählen Sie **Suffix hinzufügen** aus. Zum Entfernen eines Suffixes wählen Sie neben dem zu entfernenden Suffix **Entfernen** aus.
   + Geben Sie für den Filter **Alter** den Altersbereich des Objekts in Tagen an. Wählen Sie **Mindestobjektalter festlegen** aus und geben Sie das Mindestalter des Objekts ein. Geben Sie für **Das maximale Objektalter festlegen** das maximale Objektalter ein.
   + Geben Sie für den Filter **Größe** den Objektgrößenbereich und die Maßeinheit an. Wählen Sie **Mindestobjektgröße festlegen** aus und geben Sie die Mindestobjektgröße ein. Geben Sie für **Die maximale Objektgröße festlegen** die maximale Objektgröße ein.

1. Wählen Sie **Änderungen speichern ** aus. Die Detailseite für die Storage-Lens-Gruppe wird angezeigt. 

1. (Optional) Wenn Sie ein neues AWS Ressourcen-Tag hinzufügen möchten, scrollen Sie zum Abschnitt mit den **AWS Ressourcen-Tags** und wählen Sie dann **Tags hinzufügen**. Die Seite **Add tags (Tags hinzufügen)** wird angezeigt. 

   Fügen Sie das neue Schlüssel-Wert-Paar hinzu und wählen Sie dann **Änderungen speichern** aus. Die Detailseite für die Storage-Lens-Gruppe wird angezeigt.

1. (Optional) Wenn Sie ein vorhandenes AWS Ressourcen-Tag entfernen möchten, scrollen Sie zum Abschnitt mit den **AWS Ressourcen-Tags** und wählen Sie das Ressourcen-Tag aus. Wählen Sie dann **Löschen** aus. Das Dialogfeld ** AWS -Ressourcen-Tags löschen** wird angezeigt. 

   Wählen Sie erneut **Löschen** aus, um das AWS -Ressourcen-Tag dauerhaft zu löschen.
**Anmerkung**  
Nachdem Sie ein AWS Ressourcen-Tag dauerhaft gelöscht haben, kann es nicht wiederhergestellt werden.

## Mit dem AWS CLI
<a name="update-storage-lens-group-cli"></a>

Der folgende AWS CLI Beispielbefehl gibt die Konfigurationsdetails für eine Storage Lens-Gruppe mit dem Namen zurück`marketing-department`. Wenn Sie diese Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.



```
aws s3control get-storage-lens-group --account-id 111122223333 \ 
--region us-east-1 --name marketing-department
```

Im folgenden AWS CLI Beispiel wird eine Storage Lens-Gruppe aktualisiert. Wenn Sie diesen Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen. 

```
aws s3control update-storage-lens-group --account-id 111122223333 \ 
--region us-east-1 --storage-lens-group=file://./marketing-department.json
```

JSON-Beispielkonfigurationen finden Sie unter [Konfiguration von Storage-Lens-Gruppen](storage-lens-groups.md#storage-lens-groups-configuration).

## Verwenden des AWS SDK for Java
<a name="update-storage-lens-group-sdk-java"></a>

Im folgenden AWS SDK für Java Beispiel werden die Konfigurationsdetails für die `Marketing-Department` Storage Lens-Gruppe im Konto zurückgegeben`111122223333`. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.GetStorageLensGroupRequest;
import software.amazon.awssdk.services.s3control.model.GetStorageLensGroupResponse;

public class GetStorageLensGroup {
    public static void main(String[] args) {
        String storageLensGroupName = "Marketing-Department";
        String accountId = "111122223333";

        try {
            GetStorageLensGroupRequest getRequest = GetStorageLensGroupRequest.builder()
                    .name(storageLensGroupName)
                    .accountId(accountId).build();
            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            GetStorageLensGroupResponse response = s3ControlClient.getStorageLensGroup(getRequest);
            System.out.println(response);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

In dem folgenden Beispiel wird die Storage-Lens-Gruppe `Marketing-Department` im Konto `111122223333` aktualisiert. In diesem Beispiel wird der Dashboard-Umfang so aktualisiert, dass die Objekte berücksichtigt werden, die einem der folgenden Suffixe entsprechen: `.png`, `.gif`, `.jpg` oder `.jpeg`. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.StorageLensGroup;
import software.amazon.awssdk.services.s3control.model.StorageLensGroupFilter;
import software.amazon.awssdk.services.s3control.model.UpdateStorageLensGroupRequest;

public class UpdateStorageLensGroup {
    public static void main(String[] args) {
        String storageLensGroupName = "Marketing-Department";
        String accountId = "111122223333";

        try {
            // Create updated filter.
            StorageLensGroupFilter suffixFilter = StorageLensGroupFilter.builder()
                    .matchAnySuffix(".png", ".gif", ".jpg", ".jpeg")
                    .build();

            StorageLensGroup storageLensGroup = StorageLensGroup.builder()
                    .name(storageLensGroupName)
                    .filter(suffixFilter)
                    .build();

            UpdateStorageLensGroupRequest updateStorageLensGroupRequest = UpdateStorageLensGroupRequest.builder()
                    .name(storageLensGroupName)
                    .storageLensGroup(storageLensGroup)
                    .accountId(accountId)
                    .build();

            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            s3ControlClient.updateStorageLensGroup(updateStorageLensGroupRequest);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

JSON-Beispielkonfigurationen finden Sie unter [Konfiguration von Storage-Lens-Gruppen](storage-lens-groups.md#storage-lens-groups-configuration).

# Verwaltung von AWS Ressourcen-Tags mit Storage Lens-Gruppen
<a name="storage-lens-groups-manage-tags"></a>

Jede Amazon S3 Storage Lens-Gruppe wird als AWS Ressource mit eigenem Amazon-Ressourcennamen (ARN) gezählt. Daher können Sie bei der Konfiguration einer Storage-Lens-Gruppe optional AWS -Ressourcen-Tags zur Gruppe hinzufügen. Es ist möglich, für jede Storage-Lens-Gruppe bis zu 50 Tags hinzuzufügen. Zum Erstellen einer Storage-Lens-Gruppe mit Tags benötigen Sie die Berechtigungen `s3:TagResource` und `s3:CreateStorageLensGroup`.

Sie können AWS Ressourcen-Tags verwenden, um Ressourcen nach Abteilung, Geschäftsbereich oder Projekt zu kategorisieren. Dies ist sinnvoll, wenn viele Ressourcen desselben Typs vorliegen. Durch die Anwendung von Tags können Sie eine bestimmte Storage-Lens-Gruppe auf Grundlage der ihr zugewiesenen Tags schnell identifizieren. Sie können Tags auch verwenden, um Ihre Kosten zu kategorisieren und zu verfolgen.

Wenn Sie Ihrer Storage Lens-Gruppe ein AWS Ressourcen-Tag hinzufügen, aktivieren Sie außerdem die [attributebasierte Zugriffskontrolle](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction_attribute-based-access-control.html) (ABAC). ABAC ist eine Autorisierungsstrategie, die Berechtigungen basierend auf Attributen – in diesem Fall Tags – definiert. [Sie können auch Bedingungen verwenden, die Ressourcen-Tags in Ihren IAM-Richtlinien angeben, um den Zugriff auf Ressourcen zu kontrollieren. AWS](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_tags.html#access_tags_control-resources)

Sie können Tag (Markierung)-Schlüssel und -Werte bearbeiten und Tags (Markierungen) jederzeit von einer Ressource entfernen. Beachten Sie folgende Einschränkungen:
+ Bei Tag-Schlüsseln und Tag-Werten muss die Groß- und Kleinschreibung beachtet werden.
+ Wenn Sie ein Tag (Markierung) mit demselben Schlüssel wie ein vorhandener Tag (Markierung) für die Ressource hinzufügen, wird der alte Wert mit dem neuen überschrieben.
+ Wenn Sie eine Ressource löschen, werden alle Tags (Markierungen) der Ressource ebenfalls gelöscht. 
+ Nehmen Sie keine privaten oder sensiblen Daten in Ihre AWS Ressourcen-Tags auf.
+ System-Tags (mit Tag-Schlüsseln, die mit `aws:` beginnen) werden nicht unterstützt.
+ Die einzelnen Tag-Schlüssel dürfen maximal 128 Zeichen lang sein. Die einzelnen Tag-Werte dürfen maximal 256 Zeichen lang sein.

Die folgenden Beispiele zeigen, wie Sie AWS Ressourcen-Tags mit Storage Lens-Gruppen verwenden können.

**Topics**
+ [Hinzufügen eines AWS Ressourcen-Tags zu einer Storage Lens-Gruppe](storage-lens-groups-add-tags.md)
+ [Aktualisieren von Tag-Werten einer Storage-Lens-Gruppe](storage-lens-groups-update-tags.md)
+ [Löschen eines AWS Ressourcen-Tags aus einer Storage Lens-Gruppe](storage-lens-groups-delete-tags.md)
+ [Auflisten von Storage-Lens-Gruppen-Tags](storage-lens-groups-list-tags.md)

# Hinzufügen eines AWS Ressourcen-Tags zu einer Storage Lens-Gruppe
<a name="storage-lens-groups-add-tags"></a>

Die folgenden Beispiele zeigen, wie AWS Ressourcen-Tags zu einer Amazon S3 Storage Lens-Gruppe hinzugefügt werden. Sie können Ressourcen-Tags mithilfe der Amazon S3 S3-Konsole hinzufügen, AWS Command Line Interface (AWS CLI) und AWS SDK für Java.

## Verwenden der S3-Konsole
<a name="storage-lens-groups-add-tags-console"></a>

**Um ein AWS Ressourcen-Tag zu einer Storage Lens-Gruppe hinzuzufügen**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich die Option **Storage-Lens-Gruppen** aus.

1. Wählen Sie unter **Storage-Lens-Gruppen** die zu aktualisierende Storage-Lens-Gruppe aus.

1. Wählen Sie unter **AWS -Ressourcen-Tags** die Option **Tags hinzufügen** aus.

1. Fügen Sie auf der Seite **Tags hinzufügen** das neue Schlüssel-Wert-Paar hinzu.
**Anmerkung**  
Wenn Sie ein neues Tag hinzufügen, dessen Schlüssel mit dem eines vorhandenen Tags identisch ist, wird der vorherige Tag-Wert überschrieben.

1. (Optional) Um mehrere neue Tags hinzuzufügen, wählen Sie erneut **Tag hinzufügen** aus und fügen Sie weiterhin neue Einträge hinzu. Sie können Ihrer Storage Lens-Gruppe bis zu 50 AWS Ressourcen-Tags hinzufügen.

1. (Optional) Wenn Sie einen neu hinzugefügten Eintrag entfernen möchten, wählen Sie neben dem zu entfernenden Tag **Entfernen** aus.

1. Wählen Sie **Änderungen speichern ** aus.

## Mit dem AWS CLI
<a name="storage-lens-groups-add-tags-cli"></a>

Mit dem folgenden AWS CLI Beispielbefehl werden zwei Ressourcentags zu einer vorhandenen Storage Lens-Gruppe mit dem Namen hinzugefügt`marketing-department`. Wenn Sie diese Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

```
aws s3control tag-resource --account-id 111122223333 \
--resource-arn arn:aws:s3:us-east-1:111122223333:storage-lens-group/marketing-department \
--region us-east-1 --tags Key=k1,Value=v1 Key=k2,Value=v2
```

## Verwenden des AWS SDK for Java
<a name="storage-lens-groups-add-tags-sdk-java"></a>

Im folgenden AWS SDK für Java Beispiel werden einer vorhandenen Storage Lens-Gruppe zwei AWS Resource-Tags hinzugefügt. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.Tag;
import software.amazon.awssdk.services.s3control.model.TagResourceRequest;

public class TagResource {
    public static void main(String[] args) {
        String resourceARN = "Resource_ARN";
        String accountId = "111122223333";

        try {
            Tag resourceTag1 = Tag.builder()
                .key("resource-tag-key-1")
                .value("resource-tag-value-1")
                .build();
            Tag resourceTag2 = Tag.builder()
                    .key("resource-tag-key-2")
                    .value("resource-tag-value-2")
                    .build();
            TagResourceRequest tagResourceRequest = TagResourceRequest.builder()
                    .resourceArn(resourceARN)
                    .tags(resourceTag1, resourceTag2)
                    .accountId(accountId)
                    .build();
            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            s3ControlClient.tagResource(tagResourceRequest);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Aktualisieren von Tag-Werten einer Storage-Lens-Gruppe
<a name="storage-lens-groups-update-tags"></a>

Die folgenden Beispiele zeigen, wie Sie Storage Lens-Gruppen-Tag-Werte mithilfe der Amazon S3 S3-Konsole, AWS Command Line Interface (AWS CLI) und aktualisieren AWS SDK für Java.

## Verwenden der S3-Konsole
<a name="storage-lens-groups-update-tags-console"></a>

**Um ein AWS Ressourcen-Tag für eine Storage Lens-Gruppe zu aktualisieren**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich die Option **Storage-Lens-Gruppen** aus.

1. Wählen Sie unter **Storage-Lens-Gruppen** die zu aktualisierende Storage-Lens-Gruppe aus.

1. Wählen Sie unter **AWS -Ressourcen-Tags** das zu aktualisierende Tag aus.

1. Fügen Sie den neuen Tag-Wert hinzu. Verwenden Sie hierbei den Schlüssel, der dem Schlüssel des zu aktualisierenden Schlüssel-Wert-Paares entspricht. Klicken Sie auf das Häkchen-Symbol, um den Tag-Wert zu aktualisieren.
**Anmerkung**  
Wenn Sie ein neues Tag hinzufügen, dessen Schlüssel mit dem eines vorhandenen Tags identisch ist, wird der vorherige Tag-Wert überschrieben.

1. (Optional) Wenn Sie neue Tags hinzufügen möchten, wählen Sie **Tag hinzufügen** aus, um neue Einträge hinzuzufügen. Die Seite **Add tags (Tags hinzufügen)** wird angezeigt. 

   Sie können bis zu 50 AWS Ressourcen-Tags für Ihre Storage Lens-Gruppe hinzufügen. Wenn Sie das Hinzufügen der neuen Tags beendet haben, klicken Sie auf **Änderungen speichern**.

1. (Optional) Wenn Sie einen neu hinzugefügten Eintrag entfernen möchten, wählen Sie neben dem zu entfernenden Tag **Entfernen** aus. Wenn Sie mit dem Entfernen der Tags fertig sind, wählen Sie **Speichern** aus. 

## Mit dem AWS CLI
<a name="storage-lens-groups-update-tags-cli"></a>

Mit dem folgenden AWS CLI Beispielbefehl werden zwei Tagwerte für die Storage Lens-Gruppe mit dem Namen aktualisiert`marketing-department`. Wenn Sie diese Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

```
aws s3control tag-resource --account-id 111122223333 \
--resource-arn arn:aws:s3:us-east-1:111122223333:storage-lens-group/marketing-department \
--region us-east-1 --tags Key=k1,Value=v3 Key=k2,Value=v4
```

## Verwenden des AWS SDK for Java
<a name="storage-lens-groups-update-tags-sdk-java"></a>

Im folgenden AWS SDK für Java Beispiel werden zwei Storage Lens-Gruppen-Tag-Werte aktualisiert. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.Tag;
import software.amazon.awssdk.services.s3control.model.TagResourceRequest;

public class UpdateTagsForResource {
    public static void main(String[] args) {
        String resourceARN = "Resource_ARN";
        String accountId = "111122223333";

        try {
            Tag updatedResourceTag1 = Tag.builder()
                .key("resource-tag-key-1")
                .value("resource-tag-updated-value-1")
                .build();
            Tag updatedResourceTag2 = Tag.builder()
                    .key("resource-tag-key-2")
                    .value("resource-tag-updated-value-2")
                    .build();
            TagResourceRequest tagResourceRequest = TagResourceRequest.builder()
                    .resourceArn(resourceARN)
                    .tags(updatedResourceTag1, updatedResourceTag2)
                    .accountId(accountId)
                    .build();
            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            s3ControlClient.tagResource(tagResourceRequest);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Löschen eines AWS Ressourcen-Tags aus einer Storage Lens-Gruppe
<a name="storage-lens-groups-delete-tags"></a>

Die folgenden Beispiele zeigen, wie Sie ein AWS Ressourcen-Tag aus einer Storage Lens-Gruppe löschen. Sie können Tags mithilfe der Amazon S3 S3-Konsole AWS Command Line Interface (AWS CLI) und löschen AWS SDK für Java.

## Verwenden der S3-Konsole
<a name="storage-lens-groups-delete-tags-console"></a>

**Um ein AWS Ressourcen-Tag aus einer Storage Lens-Gruppe zu löschen**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich die Option **Storage-Lens-Gruppen** aus.

1. Wählen Sie unter **Storage-Lens-Gruppen** die zu aktualisierende Storage-Lens-Gruppe aus.

1. Wählen Sie unter **AWS -Ressourcen-Tags** das zu löschende Schlüssel-Wert-Paar aus.

1. Wählen Sie **Löschen** aus. Das Dialogfeld ** AWS -Ressourcen-Tags löschen** wird angezeigt.
**Anmerkung**  
Wenn Tags für die Zugriffskontrolle verwendet werden, kann die Durchführung dieser Aktion Auswirkungen auf zugehörige Ressourcen haben. Nachdem Sie ein Tag dauerhaft gelöscht haben, kann es nicht wiederhergestellt werden.

1. Wählen Sie **Löschen** aus, um das Schlüssel-Wert-Paar dauerhaft zu löschen.

## Verwenden Sie den AWS CLI
<a name="storage-lens-groups-delete-tags-cli"></a>

Mit dem folgenden AWS CLI Befehl werden zwei AWS Ressourcen-Tags aus einer vorhandenen Storage Lens-Gruppe gelöscht: Um diesen Beispielbefehl zu verwenden, ersetzen Sie die `user input placeholders` durch Ihre eigenen Informationen.

```
aws s3control untag-resource --account-id 111122223333 \
--resource-arn arn:aws:s3:us-east-1:111122223333:storage-lens-group/Marketing-Department \
--region us-east-1 --tag-keys k1 k2
```

## Verwenden des AWS SDK for Java
<a name="storage-lens-groups-delete-tags-sdk-java"></a>

Im folgenden AWS SDK für Java Beispiel werden zwei AWS Ressourcen-Tags aus der Storage Lens-Gruppe Amazon Resource Name (ARN) gelöscht, die Sie im Konto `111122223333` angeben. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.UntagResourceRequest;

public class UntagResource {
    public static void main(String[] args) {
        String resourceARN = "Resource_ARN";
        String accountId = "111122223333";

        try {
            String tagKey1 = "resource-tag-key-1";
            String tagKey2 = "resource-tag-key-2";
            UntagResourceRequest untagResourceRequest = UntagResourceRequest.builder()
                    .resourceArn(resourceARN)
                    .tagKeys(tagKey1, tagKey2)
                    .accountId(accountId)
                    .build();
            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            s3ControlClient.untagResource(untagResourceRequest);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Auflisten von Storage-Lens-Gruppen-Tags
<a name="storage-lens-groups-list-tags"></a>

Die folgenden Beispiele zeigen, wie Sie die AWS Ressourcen-Tags auflisten, die einer Storage Lens-Gruppe zugeordnet sind. Sie können Tags mithilfe der Amazon S3 S3-Konsole AWS Command Line Interface (AWS CLI) und auflisten AWS SDK für Java.

## Verwenden der S3-Konsole
<a name="storage-lens-groups-list-tags-console"></a>

**So überprüfen Sie die Liste der Tags und Tag-Werte für eine Storage-Lens-Gruppe**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich die Option **Storage-Lens-Gruppen** aus.

1. Wählen Sie unter **Storage-Lens-Gruppen** die betreffende Storage-Lens-Gruppe aus.

1. Scrollen Sie nach unten zum Abschnitt **AWS -Ressourcen-Tags**. Alle benutzerdefinierten AWS Ressourcen-Tags, die zu Ihrer Storage Lens-Gruppe hinzugefügt wurden, werden zusammen mit ihren Tag-Werten aufgelistet.

## Mit dem AWS CLI
<a name="storage-lens-group-list-tags-cli"></a>

Der folgende AWS CLI Beispielbefehl listet alle Tag-Werte der Storage Lens-Gruppe für die Storage Lens-Gruppe mit dem Namen auf`marketing-department`. Wenn Sie diese Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

```
aws s3control list-tags-for-resource --account-id 111122223333 \
--resource-arn arn:aws:s3:us-east-1:111122223333:storage-lens-group/marketing-department \
--region us-east-1
```

## Verwenden des AWS SDK for Java
<a name="storage-lens-group-list-tags-sdk-java"></a>

Das folgende AWS SDK für Java Beispiel listet die Storage Lens-Gruppen-Tag-Werte für die Storage Lens-Gruppe Amazon Resource Name (ARN) auf, die Sie angeben. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.ListTagsForResourceRequest;
import software.amazon.awssdk.services.s3control.model.ListTagsForResourceResponse;

public class ListTagsForResource {
    public static void main(String[] args) {
        String resourceARN = "Resource_ARN";
        String accountId = "111122223333";

        try {
            ListTagsForResourceRequest listTagsForResourceRequest = ListTagsForResourceRequest.builder()
                    .resourceArn(resourceARN)
                    .accountId(accountId)
                    .build();
            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            ListTagsForResourceResponse response = s3ControlClient.listTagsForResource(listTagsForResourceRequest);
            System.out.println(response);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Auflisten aller Storage-Lens-Gruppen
<a name="storage-lens-groups-list"></a>

In den folgenden Beispielen wird veranschaulicht, wie alle Amazon-S3-Storage-Lens-Gruppen in einem AWS-Konto und in einer Heimatregion aufgelistet werden. Diese Beispiele zeigen, wie alle Storage Lens-Gruppen mithilfe der Amazon S3 S3-Konsole, AWS Command Line Interface (AWS CLI) und aufgelistet AWS SDK für Java werden.

## Verwenden der S3-Konsole
<a name="storage-lens-group-list-console"></a>

**So listen Sie alle Storage-Lens-Gruppen in einem Konto und einer Heimatregion auf**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich die Option **Storage-Lens-Gruppen** aus.

1. Unter **Storage-Lens-Gruppen** wird die Liste der Storage-Lens-Gruppen in Ihrem Konto angezeigt.

## Verwenden Sie den AWS CLI
<a name="storage-lens-groups-list-cli"></a>

Im folgenden AWS CLI Beispiel werden alle Storage Lens-Gruppen für Ihr Konto aufgeführt. Wenn Sie diese Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

```
aws s3control list-storage-lens-groups --account-id 111122223333 \
--region us-east-1
```

## Verwenden des AWS SDK for Java
<a name="storage-lens-groups-list-sdk-java"></a>

Im folgenden AWS SDK für Java Beispiel werden die Storage Lens-Gruppen für das Konto aufgeführt`111122223333`. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.ListStorageLensGroupsRequest;
import software.amazon.awssdk.services.s3control.model.ListStorageLensGroupsResponse;

public class ListStorageLensGroups {
    public static void main(String[] args) {
        String accountId = "111122223333";

        try {
            ListStorageLensGroupsRequest listStorageLensGroupsRequest = ListStorageLensGroupsRequest.builder()
                    .accountId(accountId)
                    .build();
            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            ListStorageLensGroupsResponse response = s3ControlClient.listStorageLensGroups(listStorageLensGroupsRequest);
            System.out.println(response);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Anzeigen von Details zu Storage-Lens-Gruppen
<a name="storage-lens-groups-view"></a>

In den folgenden Beispielen wird veranschaulicht, wie die Konfigurationsdetails einer Amazon-S3-Storage-Lens-Gruppe angezeigt werden. Sie können diese Details mithilfe der Amazon S3 S3-Konsole AWS Command Line Interface (AWS CLI) und anzeigen AWS SDK für Java.

## Verwenden der S3-Konsole
<a name="view-storage-lens-group-console"></a>



**So zeigen Sie die Konfigurationsdetails einer Storage-Lens-Gruppe an**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich die Option **Storage-Lens-Gruppen** aus.

1. Wählen Sie unter **Storage-Lens-Gruppen** die Optionsschaltfläche neben der betreffenden Storage-Lens-Gruppe aus.

1. Wählen Sie die Option **Details anzeigen** aus. Jetzt können Sie die Details der Storage-Lens-Gruppe überprüfen.

## Verwenden Sie den AWS CLI
<a name="view-storage-lens-group-cli"></a>

Im folgenden AWS CLI Beispiel werden die Konfigurationsdetails für eine Storage Lens-Gruppe zurückgegeben. Wenn Sie diese Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

```
aws s3control get-storage-lens-group --account-id 111122223333 \ 
--region us-east-1 --name marketing-department
```

## Verwenden des AWS SDK for Java
<a name="view-storage-lens-group-sdk-java"></a>

Im folgenden AWS SDK für Java Beispiel werden die Konfigurationsdetails für die `Marketing-Department` im Konto angegebene Storage Lens-Gruppe zurückgegeben`111122223333`. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.GetStorageLensGroupRequest;
import software.amazon.awssdk.services.s3control.model.GetStorageLensGroupResponse;

public class GetStorageLensGroup {
    public static void main(String[] args) {
        String storageLensGroupName = "Marketing-Department";
        String accountId = "111122223333";

        try {
            GetStorageLensGroupRequest getRequest = GetStorageLensGroupRequest.builder()
                    .name(storageLensGroupName)
                    .accountId(accountId).build();
            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            GetStorageLensGroupResponse response = s3ControlClient.getStorageLensGroup(getRequest);
            System.out.println(response);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Löschen einer Storage-Lens-Gruppe
<a name="storage-lens-groups-delete"></a>

Die folgenden Beispiele zeigen, wie Sie eine Amazon S3 Storage Lens-Gruppe mithilfe der Amazon S3 S3-Konsole, AWS Command Line Interface (AWS CLI) und löschen AWS SDK für Java.

## Verwenden der S3-Konsole
<a name="delete-storage-lens-group-console"></a>

**So löschen Sie eine Storage-Lens-Gruppe**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich die Option **Storage-Lens-Gruppen** aus.

1. Aktivieren Sie unter **Storage-Lens-Gruppen** das Optionsfeld neben der zu löschenden Storage-Lens-Gruppe.

1. Wählen Sie **Löschen** aus. Das Dialogfeld **Storage-Lens-Gruppe löschen** wird angezeigt.

1. Wählen Sie erneut **Löschen** aus, um die Storage-Lens-Gruppe dauerhaft zu löschen.
**Anmerkung**  
Nachdem Sie eine Storage-Lens-Gruppe gelöscht haben, kann sie nicht wiederhergestellt werden.

## Verwenden Sie den AWS CLI
<a name="delete-storage-lens-group-cli"></a>

Im folgenden AWS CLI Beispiel wird die Storage Lens-Gruppe mit dem Namen `marketing-department` gelöscht. Wenn Sie diese Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

```
aws s3control delete-storage-lens-group --account-id 111122223333 \ 
--region us-east-1 --name marketing-department
```

## Verwenden des AWS SDK for Java
<a name="delete-storage-lens-group-sdk-java"></a>

Im folgenden AWS SDK für Java Beispiel wird die im Konto `111122223333` angegebene Storage Lens-Gruppe gelöscht. `Marketing-Department` Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.

```
package aws.example.s3control;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3control.S3ControlClient;
import software.amazon.awssdk.services.s3control.model.DeleteStorageLensGroupRequest;

public class DeleteStorageLensGroup {
    public static void main(String[] args) {
        String storageLensGroupName = "Marketing-Department";
        String accountId = "111122223333";

        try {
            DeleteStorageLensGroupRequest deleteStorageLensGroupRequest = DeleteStorageLensGroupRequest.builder()
                    .name(storageLensGroupName)
                    .accountId(accountId).build();
            S3ControlClient s3ControlClient = S3ControlClient.builder()
                    .region(Region.US_WEST_2)
                    .credentialsProvider(ProfileCredentialsProvider.create())
                    .build();
            s3ControlClient.deleteStorageLensGroup(deleteStorageLensGroupRequest);
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it and returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

# Katalogisieren und Analysieren Ihrer Daten mit S3 Inventory
<a name="storage-inventory"></a>

Sie können Amazon S3 Inventory verwenden, um Ihren Speicher zu verwalten. Sie können es beispielsweise für die Prüfung und Meldung des Replikations- und Verschlüsselungsstatus Ihrer Objekte für Unternehmens-, Compliance- und regulatorische Anforderungen verwenden. Außerdem können Sie Business Workflows und Big-Data-Aufgaben mithilfe von Amazon S3 Inventory vereinfachen und beschleunigen. Es bietet Ihnen eine geplante Alternative zu den synchronen `List`-API-Operationen von Amazon S3. Amazon S3 Inventory verwendet die `List`-API-Operationen nicht zur Überprüfung Ihrer Objekte und hat keinen Einfluss auf die Anforderungsrate Ihres Buckets.

Amazon S3 Inventory stellt Ausgabedateien als Comma Separated Values (CSV), [Apache-Optimized Row Columnar (ORC)](https://orc.apache.org/) oder [https://parquet.apache.org/](https://parquet.apache.org/) bereit, die Ihre Objekte und die zugehörigen Metadaten auf täglicher oder wöchentlicher Basis für einen S3-Bucket oder Objekte mit einem gemeinsam verwendeten Präfix (das heißt, Objekte, deren Namen mit einer allgemeinen Zeichenfolge beginnen) auflisten. Wenn Sie eine wöchentliche Bestandsabfrage einrichten, wird nach dem ersten Bericht jeden Sonntag (UTC-Zeitzone) ein Bericht generiert. Informationen zu den Preisen für Amazon S3 Inventory finden Sie unter [Amazon-S3-Preise](https://aws.amazon.com/s3/pricing/).

Sie können mehrere Bestandslisten für einen Bucket konfigurieren. Wenn Sie eine Bestandsliste konfigurieren, können Sie Folgendes angeben: 
+ welche Objektmetadaten in das Inventar aufgenommen werden sollen 
+ ob alle Objektversionen oder nur aktuelle Versionen aufgelistet werden sollen
+ wo die Ausgabe der Bestandslistendatei gespeichert werden soll
+ ob der Bestandsbericht täglich oder wöchentlich generiert werden soll
+ ob die Bestandslistendatei verschlüsselt werden soll

Sie können Amazon S3 Inventory mit Standard-SQL-Abfragen abfragen, indem Sie [Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/what-is.html), [Amazon Redshift Spectrum](https://docs.aws.amazon.com/redshift/latest/dg/c-getting-started-using-spectrum.html) und andere Tools wie [https://prestodb.io/](https://prestodb.io/), [https://hive.apache.org/](https://hive.apache.org/) und [https://databricks.com/spark/about/](https://databricks.com/spark/about/) verwenden. Weitere Informationen zur Verwendung von Athena zum Abfragen Ihrer Bestandsdaten finden Sie unter [Abfragen von Amazon S3 Inventory mit Amazon Athena](storage-inventory-athena-query.md). 

**Anmerkung**  
Es könnte bis zu 48 Stunden dauern, bis Amazon S3 den ersten Inventarbericht bereitstellt.

**Anmerkung**  
Nach dem Löschen einer Inventarkonfiguration kann Amazon S3 während einer kurzen Übergangsphase immer noch einen zusätzlichen Inventarbericht liefern, während das System den Löschvorgang verarbeitet.

## Quell- und Ziel-Buckets
<a name="storage-inventory-buckets"></a>

Der Bucket, dessen Objekte die Bestandserfassung auflistet, wird als *Quell-Bucket* bezeichnet. Der Bucket, in dem die Datei mit der Bestandsliste gespeichert ist, wird als *Ziel-Bucket* bezeichnet. 

**Quell-Bucket**

Der Bestand listet die Objekte auf, die im Quell-Bucket gespeichert sind. Sie können eine Bestandsliste für einen ganzen Bucket erhalten oder die Liste nach dem Präfix eines Objektschlüsselnamens filtern.

Der Quell-Bucket:
+ Enthält die Objekte, die im Bestand aufgelistet sind.
+ Enthält die Konfiguration für den Bestand.

**Ziel-Bucket**

Amazon S3 Inventory listet Dateien auf, die in den Ziel-Bucket geschrieben werden. Um alle Bestandslisten-Dateien an einem gemeinsamen Speicherort im Ziel-Bucket zu gruppieren, können Sie ein Zielpräfix in der Bestands-Konfiguration angeben.

Der Ziel-Bucket:
+ Enthält die Dateilisten für den Bestand. 
+ Enthält die Manifestdateien, die alle Bestandslistendateien enthalten, die im Ziel-Bucket gespeichert sind. Weitere Informationen finden Sie unter [Bestandsmanifest](storage-inventory-location.md#storage-inventory-location-manifest).
+ Erfordert eine Bucket-Richtlinie, um Amazon S3 die Berechtigung zu erteilen, die Eigentümerschaft an dem Bucket zu überprüfen, ebenso wie die Berechtigung, Dateien in den Bucket zu schreiben. 
+ Muss sich im selben Bucket befinden AWS-Region wie der Quell-Bucket.
+ Kann gleich dem Quell-Bucket sein.
+ Kann einem anderen Konto gehören AWS-Konto als dem Konto, dem der Quell-Bucket gehört.

## Amazon-S3-Inventory-Liste
<a name="storage-inventory-contents"></a>

Eine Datei mit einer Bestandsliste enthält eine Liste der Objekte im Quell-Bucket sowie die Metadaten für jedes Objekt. Eine Bestandslistendatei wird im Ziel-Bucket in einem der folgenden Formate gespeichert:
+ Als mit GZIP komprimierte CSV-Datei
+ Als mit ZLIB komprimierte Apache-ORC-Datei (Optimized Row Columnar)
+ Als mit Snappy komprimierte Apache-Parquet-Datei

**Anmerkung**  
Es kann nicht garantiert werden, dass Objekte in Berichten von Amazon S3 Inventory auf bestimmte Weise sortiert werden.

Eine Bestandslistendatei enthält eine Liste der Objekte im Quell-Bucket und Metadaten für jedes aufgelistete Objekt. Diese Standardfelder sind immer enthalten:
+ **Bucket name (Bucket-Name)** – Der Name des Buckets, für den der Bestand gilt.
+ **ETag**— Das Entity-Tag (ETag) ist ein Hash des Objekts. Das ETag spiegelt nur Änderungen am Inhalt eines Objekts wider, nicht an seinen Metadaten. Das ETag kann eine MD5 Zusammenfassung der Objektdaten sein. Dies hängt davon ab, wie das Objekt erstellt und verschlüsselt wurde. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/API_Object.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Object.html) in der *API-Referenz zu Amazon Simple Storage Service*.
+ **Key name (Schlüsselname)** – Name des Objektschlüssels (oder Schlüssel), der das Objekt in dem Bucket eindeutig identifiziert. Bei Verwendung des CSV-Dateiformats ist der Schlüsselname URL-kodiert und muss dekodiert werden, bevor Sie ihn verwenden können.
+ **Last modified date (Letztes Änderungsdatum)** – Datum der Erstellung oder der letzten Änderung des Objekts, je nachdem, welches neuer ist.
+ **Größe** – Die Objektgröße in Byte, ohne die Größe von unvollständigen mehrteiligen Uploads, Objektmetadaten und Löschmarkierungen.
+ **Storage class (Speicherklasse)** – Die für die Speicherung des Objekts verwendete Speicherklasse. Auf `STANDARD`, `REDUCED_REDUNDANCY`, `STANDARD_IA`, `ONEZONE_IA`, `INTELLIGENT_TIERING`, `GLACIER`, `DEEP_ARCHIVE`, `OUTPOSTS`, `GLACIER_IR` oder `SNOW` festgelegt. Weitere Informationen finden Sie unter [Verstehen und Verwalten von Amazon-S3-Speicherklassen](storage-class-intro.md).
**Anmerkung**  
S3 Inventory unterstützt S3 Express One Zone nicht.

Sie haben die Möglichkeit, die folgenden zusätzlichen Metadatenfelder in den Bericht aufzunehmen:
+ **Prüfsummen-Algorithmus** – Gibt den Algorithmus an, mit dem die Prüfsumme für das Objekt erstellt wurde. Weitere Informationen finden Sie unter [Verwenden unterstützter Prüfsummenalgorithmen](checking-object-integrity-upload.md#using-additional-checksums).
+ **Verschlüsselungsstatus** — Der serverseitige Verschlüsselungsstatus, abhängig von der Art des verwendeten Verschlüsselungsschlüssels — serverseitige Verschlüsselung mit Amazon S3 S3-verwalteten Schlüsseln (SSE-S3), serverseitige Verschlüsselung mit () Schlüsseln AWS Key Management Service (SSE-KMS AWS KMS), zweischichtige serverseitige Verschlüsselung mit Schlüsseln (DSSE-KMS) oder serverseitige Verschlüsselung mit vom Kunden bereitgestellten AWS KMS Schlüsseln (SSE-C). Setzen Sie den Wert auf `SSE-S3`, `SSE-KMS`, `DSSE-KMS`, `SSE-C` oder `NOT-SSE`. Der Status `NOT-SSE` bedeutet, dass das Objekt nicht mit serverseitiger Verschlüsselung verschlüsselt ist. Weitere Informationen finden Sie unter [Datenschutz durch Verschlüsselung](UsingEncryption.md).
+ **S3 Intelligent-Tiering access tier (S3-Intelligent-Tiering-Zugriffsebene)** – Zugriffsebene (häufig oder selten) des Objekts bei Speicherung in der Speicherklasse S3 Intelligent-Tiering. Setzen Sie den Wert auf `FREQUENT`, `INFREQUENT`, `ARCHIVE_INSTANT_ACCESS`, `ARCHIVE` oder `DEEP_ARCHIVE`. Weitere Informationen finden Sie unter [Speicherklasse zur automatischen Optimierung von Daten mit sich ändernden oder unbekannten Zugriffsmustern](storage-class-intro.md#sc-dynamic-data-access).
+ **S3 Object Lock retain until date (Beibehaltungsfrist für S3-Objektsperre)** – Das Datum, bis zu dem das gesperrte Objekt nicht gelöscht werden kann. Weitere Informationen finden Sie unter [Sperren von Objekten mit Object Lock](object-lock.md).
+ **S3 Object Lock retention mode (Aufbewahrungsmodus für S3-Objekt)** – Auf `Governance` oder `Compliance` gesetzt für Objekte, die gesperrt sind. Weitere Informationen finden Sie unter [Sperren von Objekten mit Object Lock](object-lock.md).
+ **S3 Object Lock legal hold status (Rechtlicher Aufbewahrungsstatus der S3-Objektsperre)** – Auf `On` gesetzt, wenn für ein Objekt eine rechtliche Aufbewahrungsfrist gilt. Andernfalls lautet der Wert `Off`. Weitere Informationen finden Sie unter [Sperren von Objekten mit Object Lock](object-lock.md).
+ **Version ID (Versions-ID)** – ID der Objektversion. Wenn Sie das Versioning für einen Bucket aktivieren, weist Amazon S3 allen Objekten, die dem Bucket hinzugefügt werden, eine Versionsnummer zu. Weitere Informationen finden Sie unter [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md). (Dieses Feld ist nicht enthalten, wenn die Liste nur für die aktuelle Version der Objekte konfiguriert ist.)
+ **IsLatest**— `True` Wird auf gesetzt, wenn es sich bei dem Objekt um die aktuelle Version des Objekts handelt. (Dieses Feld ist nicht enthalten, wenn die Liste nur für die aktuelle Version der Objekte konfiguriert ist.)
+ **Delete marker (Löschmarkierung)** – Auf `True` gesetzt, wenn es sich bei dem Objekt um eine Löschmarkierung handelt. Weitere Informationen finden Sie unter [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md). (Dieses Feld wird dem Bericht automatisch hinzugefügt, wenn Sie den Bericht so konfiguriert haben, dass alle Versionen der Objekte aufgenommen werden.)
+ **Multipart upload flag (Markierung für mehrteiligen Upload)** – Auf `True` gesetzt, wenn das Objekt als mehrteiliger Upload hochgeladen wurde. Weitere Informationen finden Sie unter [Hochladen und Kopieren von Objekten mit mehrteiligen Uploads in Amazon S3](mpuoverview.md).
+ **Objekteigentümer** – Die kanonische Benutzer-ID des Eigentümers des Objekts. Weitere Informationen [finden Sie unter Finden Sie die kanonische Benutzer-ID für Ihr AWS Konto](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-identifiers.html#FindCanonicalId) im *Referenzhandbuch zur AWS Kontoverwaltung.*
+ **Replikationsstatus** – Auf `PENDING`, `COMPLETED`, `FAILED`, oder `REPLICA` gesetzt. Weitere Informationen finden Sie unter [Abrufen von Replikationsstatusinformationen](replication-status.md).
+ **S3 Bucket Key status (Status des S3-Bucket-Schlüssels)** – Auf `ENABLED` oder `DISABLED` gesetzt. Gibt an, ob das Objekt einen S3-Bucket-Schlüssel für SSE-KMS verwendet. Weitere Informationen finden Sie unter [Verwenden von Amazon-S3-Bucket-Schlüssel](bucket-key.md).
+ **Objektzugriffskontrollliste** — Eine Zugriffskontrollliste (ACL) für jedes Objekt, die definiert, welchen AWS-Konten oder welchen Gruppen Zugriff auf dieses Objekt gewährt wird und welche Art von Zugriff gewährt wird. Das Feld „Objekt-ACL“ ist im JSON-Format definiert. Ein S3-Inventarbericht umfasst Objekte ACLs , die Objekten in Ihrem Quell-Bucket zugeordnet ACLs sind, auch wenn sie für den Bucket deaktiviert sind. Weitere Informationen erhalten Sie unter [Arbeiten mit dem Feld „Objekt-ACL“](objectacl.md) und [Zugriffskontrolllisten (ACL) – Übersicht](acl-overview.md).
**Anmerkung**  
Das Feld „Objekt-ACL“ ist im JSON-Format definiert. In einem Bestandsbericht wird der Wert für das Feld „Objekt-ACL“ als Base64-codierte Zeichenfolge angezeigt.  
Angenommen, Sie haben das folgende Feld „Objekt-ACL“ im JSON-Format:  

  ```
  {
          "version": "2022-11-10",
          "status": "AVAILABLE",
          "grants": [{
              "canonicalId": "example-canonical-user-ID",
              "type": "CanonicalUser",
              "permission": "READ"
          }]
  }
  ```
Das Feld „Objekt-ACL“ ist codiert und wird als die folgende Base64-codierte Zeichenfolge angezeigt:  

  ```
  eyJ2ZXJzaW9uIjoiMjAyMi0xMS0xMCIsInN0YXR1cyI6IkFWQUlMQUJMRSIsImdyYW50cyI6W3siY2Fub25pY2FsSWQiOiJleGFtcGxlLWNhbm9uaWNhbC11c2VyLUlEIiwidHlwZSI6IkNhbm9uaWNhbFVzZXIiLCJwZXJtaXNzaW9uIjoiUkVBRCJ9XX0=
  ```
Um für das Feld „Objekt-ACL“ den dekodierten Wert in JSON abzurufen, können Sie dieses Feld in Amazon Athena abfragen. Abfragebeispiele finden Sie unter [Abfragen von Amazon S3 Inventory mit Amazon Athena](storage-inventory-athena-query.md).
+ **Ablaufdatum des Lebenszyklus** — Legt den Ablaufzeitstempel des Objekts für den Lebenszyklus fest. Dieses Feld wird nur ausgefüllt, wenn das Objekt aufgrund einer geltenden Lebenszyklusregel abgelaufen sein soll. In anderen Fällen ist das Feld leer. Bei Objekten mit `FAILED` Replikationsstatus wird kein Ablaufdatum angegeben, da S3 Lifecycle Ablaufs- und Übergangsaktionen für diese Objekte verhindert, bis die Replikation erfolgreich abgeschlossen ist. Weitere Informationen finden Sie unter [Ablauf von Objekten](lifecycle-expire-general-considerations.md).

**Anmerkung**  
Wenn ein Objekt basierend auf seiner Lebenszykluskonfiguration das Ende seiner Lebensdauer erreicht hat, stellt Amazon S3 das Objekt zum Entfernen in eine Warteschlange und entfernt es asynchron. Daher kann es eine Verzögerung zwischen dem Ablaufdatum und dem Datum geben, an dem Amazon S3 ein Objekt entfernt. Der Bestandsbericht enthält die Objekte, die abgelaufen sind, aber noch nicht entfernt wurden. Weitere Informationen über die Ablaufaktionen im S3-Lebenszyklus finden Sie unter [Ablauf von Objekten](lifecycle-expire-general-considerations.md).

Im Folgenden finden Sie ein Beispiel für einen Bestandsbericht mit zusätzlichen Metadatenfeldern, der aus vier Datensätzen besteht.

```
amzn-s3-demo-bucket1    example-object-1    EXAMPLEDC8l.XJCENlF7LePaNIIvs001    TRUE        1500    2024-08-15T15:28:26.0004    EXAMPLE21e1518b92f3d92773570f600    STANDARD    FALSE    COMPLETED    SSE-KMS    2025-01-25T15:28:26.000Z    COMPLIANCE    Off        ENABLED        eyJ2ZXJzaW9uIjoiMjAyMi0xMS0xMCIsInN0YXR1cyI6IkFWQUlMQUJMRSIsImdyYW50cyI6W3sicGVybWlzc2lvbiI6IkZVTExfQ09OVFJPTCIsInR5cGUiOiJDYW5vbmljYWxVc2VyIiwiY2Fub25pY2FsSWQiOiJFWEFNUExFNzY2ZThmNmIxMTVkOTNkNDFkZjJlYWM0MjBhYTRhNDY1ZDE3N2MxMzk4YmM2YTA4OGM3NmI3MDAwIn1dfQ==    EXAMPLE766e8f6b115d93d41df2eac420aa4a465d177c1398bc6a088c76b7000
amzn-s3-demo-bucket1    example-object-2    EXAMPLEDC8l.XJCENlF7LePaNIIvs002    TRUE        200    2024-08-21T15:28:26.000Z    EXAMPLE21e1518b92f3d92773570f601    INTELLIGENT_TIERING    FALSE    COMPLETED    SSE-KMS    2025-01-25T15:28:26.000Z    COMPLIANCE    Off    INFREQUENT    ENABLED    SHA-256    eyJ2ZXJzaW9uIjoiMjAyMi0xMS0xMCIsInN0YXR1cyI6IkFWQUlMQUJMRSIsImdyYW50cyI6W3sicGVybWlzc2lvbiI6IkZVTExfQ09OVFJPTCIsInR5cGUiOiJDYW5vbmljYWxVc2VyIiwiY2Fub25pY2FsSWQiOiJFWEFNUExFNzY2ZThmNmIxMTVkOTNkNDFkZjJlYWM0MjBhYTRhNDY1ZDE3N2MxMzk4YmM2YTA4OGM3NmI3MDAwIn1dfQ==    EXAMPLE766e8f6b115d93d41df2eac420aa4a465d177c1398bc6a088c76b7001
amzn-s3-demo-bucket1    example-object-3    EXAMPLEDC8l.XJCENlF7LePaNIIvs003    TRUE        12500    2023-01-15T15:28:30.000Z    EXAMPLE21e1518b92f3d92773570f602    STANDARD    FALSE    REPLICA    SSE-KMS    2025-01-25T15:28:26.000Z    GOVERNANCE    On        ENABLED        eyJ2ZXJzaW9uIjoiMjAyMi0xMS0xMCIsInN0YXR1cyI6IkFWQUlMQUJMRSIsImdyYW50cyI6W3sicGVybWlzc2lvbiI6IkZVTExfQ09OVFJPTCIsInR5cGUiOiJDYW5vbmljYWxVc2VyIiwiY2Fub25pY2FsSWQiOiJFWEFNUExFNzY2ZThmNmIxMTVkOTNkNDFkZjJlYWM0MjBhYTRhNDY1ZDE3N2MxMzk4YmM2YTA4OGM3NmI3MDAwIn1dfQ==    EXAMPLE766e8f6b115d93d41df2eac420aa4a465d177c1398bc6a088c76b7002
amzn-s3-demo-bucket1    example-object-4    EXAMPLEDC8l.XJCENlF7LePaNIIvs004    TRUE        100    2021-02-15T15:28:27.000Z    EXAMPLE21e1518b92f3d92773570f603    STANDARD    FALSE    COMPLETED    SSE-KMS    2025-01-25T15:28:26.000Z    COMPLIANCE    Off        ENABLED        eyJ2ZXJzaW9uIjoiMjAyMi0xMS0xMCIsInN0YXR1cyI6IkFWQUlMQUJMRSIsImdyYW50cyI6W3sicGVybWlzc2lvbiI6IkZVTExfQ09OVFJPTCIsInR5cGUiOiJDYW5vbmljYWxVc2VyIiwiY2Fub25pY2FsSWQiOiJFWEFNUExFNzY2ZThmNmIxMTVkOTNkNDFkZjJlYWM0MjBhYTRhNDY1ZDE3N2MxMzk4YmM2YTA4OGM3NmI3MDAwIn1dfQ==    EXAMPLE766e8f6b115d93d41df2eac420aa4a465d177c1398bc6a088c76b7003
```

Wir empfehlen, eine Lebenszyklusrichtlinie einzurichten, die alte Bestandslisten löscht. Weitere Informationen finden Sie unter [Verwalten des Lebenszyklus von Objekten](object-lifecycle-mgmt.md).

Die `s3:PutInventoryConfiguration`-Berechtigung ermöglicht es einem Benutzer, beim Konfigurieren einer Bestandsliste sowohl alle Metadatenfelder auszuwählen, die zuvor für jedes Objekt aufgelistet wurden, als auch den Ziel-Bucket zum Speichern des Bestands anzugeben. Ein Benutzer mit Lesezugriff auf Objekte im Ziel-Bucket kann auf alle Objektmetadatenfelder zugreifen, die in der Bestandsliste verfügbar sind. Informationen zum Einschränken des Zugriffs auf Bestandsberichte finden Sie unter [Gewähren von Berechtigungen für S3 Inventory und S3 Analytics](example-bucket-policies.md#example-bucket-policies-s3-inventory-1).

### Bestandskonsistenz
<a name="storage-inventory-contents-consistency"></a>

Möglicherweise erscheinen nicht alle Ihre Objekte in jeder Bestandsliste. Die Bestandsliste bietet letztendliche Datenkonsistenz für `PUT`-Anforderungen (sowohl neuer als auch überschriebener Objekte) sowie für `DELETE`-Anforderungen. Jede Bestandsliste für einen Bucket ist ein Snapshot der Bucket-Elemente. Diese Listen sind letztendlich konsistent (das heißt, eine Liste enthält möglicherweise keine kürzlich hinzugefügten oder gelöschten Objekte). 

Um den Status eines Objekts zu überprüfen, bevor Sie eine Aktion dafür ausführen, empfehlen wir, eine `HeadObject`-REST-API-Anfrage zu stellen, um Metadaten für das Objekt abzurufen, oder die Objekteigenschaften in der Amazon S3-Konsole zu überprüfen. Sie können Objektmetadaten auch mit dem AWS CLI oder dem AWS SDKS überprüfen. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectHEAD.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectHEAD.html) in der *API-Referenz zu Amazon Simple Storage Service*.

Weitere Informationen zur Arbeit mit Amazon S3 Inventory finden Sie in den folgenden Themen.

**Topics**
+ [Quell- und Ziel-Buckets](#storage-inventory-buckets)
+ [Amazon-S3-Inventory-Liste](#storage-inventory-contents)
+ [Konfigurieren von Amazon S3 Inventory](configure-inventory.md)
+ [Lokalisieren Ihrer Bestandsliste](storage-inventory-location.md)
+ [Einrichten von Amazon-S3-Ereignis-Benachrichtigungen für den Bestandsabschluss](storage-inventory-notification.md)
+ [Abfragen von Amazon S3 Inventory mit Amazon Athena](storage-inventory-athena-query.md)
+ [Konvertieren leerer Versions-ID-Strings in Amazon-S3-Inventory-Berichten in Null-Zeichenfolgen](inventory-configure-bops.md)
+ [Arbeiten mit dem Feld „Objekt-ACL“](objectacl.md)

# Konfigurieren von Amazon S3 Inventory
<a name="configure-inventory"></a>

Amazon S3 Inventory stellt eine Flat-File-Liste Ihrer Objekte und Metadaten nach einem von Ihnen definierten Zeitplan bereit. Sie können S3 Inventory als geplante Alternative zur synchronen API-Operation `List` von Amazon S3 verwenden. S3 Inventory stellt Ausgabedateien im Format Comma-Separated Values (CSV), [Apache-Optimized Row Columnar (ORC)](https://orc.apache.org/) oder [https://parquet.apache.org/](https://parquet.apache.org/) bereit, in denen Ihre Objekte und die entsprechenden Metadaten aufgeführt werden. 

Sie können S3 Inventory so konfigurieren, dass täglich oder wöchentlich Bestandslisten für einen S3-Bucket oder für Objekte mit gemeinsamem Präfix (Objekte, deren Namen mit derselben Zeichenfolge beginnen) erstellt werden. Weitere Informationen finden Sie unter [Katalogisieren und Analysieren Ihrer Daten mit S3 Inventory](storage-inventory.md).

In diesem Abschnitt wird beschrieben, wie Sie einen Bestand, einschließlich Details über die Quell- und Ziel-Buckets des Bestands, einrichten.

**Topics**
+ [-Übersicht](#storage-inventory-setting-up)
+ [Erstellen einer Ziel-Bucket-Richtlinie](#configure-inventory-destination-bucket-policy)
+ [Erteilen der Berechtigung an Amazon S3 zur Verwendung Ihres vom Kunden verwalteten Schlüssels für die Verschlüsselung](#configure-inventory-kms-key-policy)
+ [Konfigurieren des Bestands mit der S3-Konsole](#configure-inventory-console)
+ [Verwendung der REST-API für die Arbeit mit S3 Inventory](#rest-api-inventory)

## -Übersicht
<a name="storage-inventory-setting-up"></a>

Amazon S3 Inventory hilft Ihnen, Ihren Speicher zu verwalten, indem nach einem definierten Zeitplan Listen der Objekte in einem S3-Bucket erstellt werden. Sie können mehrere Bestandslisten für einen Bucket konfigurieren. Die Bestandslisten werden in CSV-, ORC,- oder Parquet-Dateien in einem Ziel-Bucket veröffentlicht. 

Der einfachste Weg, ein Inventar einzurichten, ist die Verwendung der Amazon S3 S3-Konsole, aber Sie können auch die Amazon S3 S3-REST-API, AWS Command Line Interface (AWS CLI) oder verwenden AWS SDKs. Die Konsole führt den ersten Schritt des folgenden Verfahrens für Sie durch: Hinzufügen einer Bucket-Richtlinie zum Ziel-Bucket.

**So richten Sie Amazon S3 Inventory für einen S3-Bucket ein**

1. **Fügen Sie eine Bucket-Richtlinie für den Ziel-Bucket hinzu.**

   Sie müssen eine Bucket-Richtlinie für den Ziel-Bucket einrichten, der Amazon S3 die Berechtigung zu erteilt, Objekte in den Bucket an dem definierten Speicherort zu schreiben. Eine Beispielrichtlinie finden Sie unter [Gewähren von Berechtigungen für S3 Inventory und S3 Analytics](example-bucket-policies.md#example-bucket-policies-s3-inventory-1). 

1. **Konfigurieren Sie eine Bestandsliste, um die Objekte in einem Quell-Bucket aufzulisten und die Liste in einem Ziel-Bucket zu veröffentlichen.**

   Wenn Sie eine Bestandsliste für einen Quell-Bucket konfigurieren, geben Sie den Ziel-Bucket an, in dem die Liste gespeichert werden soll, und ob Sie möchten, dass die Liste täglich oder wöchentlich generiert werden soll. Sie können auch konfigurieren, ob alle Objektversionen oder nur die aktuellen Versionen aufgelistet werden sollen und welche Objektmetadaten enthalten sein sollen. 

   Einige Objektmetadatenfelder in S3-Inventory-Berichtskonfigurationen sind optional, was bedeutet, dass sie standardmäßig verfügbar sind, aber eingeschränkt werden können, wenn Sie einem Benutzer die `s3:PutInventoryConfiguration`-Berechtigung erteilen. Mithilfe des `s3:InventoryAccessibleOptionalFields`-Bedingungsschlüssels können Sie steuern, ob Benutzer diese optionalen Metadatenfelder in ihre Berichte aufnehmen können.

   Weitere Informationen zu den optionalen Metadatenfeldern, die in S3 Inventory verfügbar sind, finden Sie unter [https://docs.aws.amazon.com//AmazonS3/latest/API/API_PutBucketInventoryConfiguration.html#API_PutBucketInventoryConfiguration_RequestBody](https://docs.aws.amazon.com//AmazonS3/latest/API/API_PutBucketInventoryConfiguration.html#API_PutBucketInventoryConfiguration_RequestBody) in der *API-Referenz zum Amazon Simple Storage Service*. Weitere Informationen zum Einschränken des Zugriffs auf bestimmte optionale Metadatenfelder in einer Bestandskonfiguration finden Sie unter [Steuern der Erstellung der Konfiguration von S3-Inventory-Berichten](example-bucket-policies.md#example-bucket-policies-s3-inventory-2).

   Sie können angeben, dass die Inventarlistendatei mithilfe einer serverseitigen Verschlüsselung mit einem von Amazon S3 verwalteten Schlüssel (SSE-S3) oder einem () vom Kunden verwalteten Schlüssel AWS Key Management Service (SSE-KMS AWS KMS) verschlüsselt wird. 
**Anmerkung**  
 Von AWS verwalteter Schlüssel (`aws/s3`) wird für die SSE-KMS-Verschlüsselung mit S3 Inventory nicht unterstützt. 

   Weitere Informationen zu SSE-S3 und SSE-KMS finden Sie unter [Schützen von Daten mit serverseitiger Verschlüsselung](serv-side-encryption.md). Wenn Sie die SSE-KMS-Verschlüsselung verwenden möchten, siehe Schritt 3.
   + Informationen zur Verwendung der Konsole zum Konfigurieren einer Bestandsliste finden Sie unter [Konfigurieren des Bestands mit der S3-Konsole](#configure-inventory-console).
   + Um die Amazon S3 S3-API zur Konfiguration einer Inventarliste zu verwenden, verwenden Sie die [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTInventoryConfig.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTInventoryConfig.html)REST-API-Operation oder eine Entsprechung aus AWS CLI oder AWS SDKs. 

1. **Um die Bestandslisten-Datei mit SSE-KMS zu verschlüsseln, erteilen Sie Amazon S3 die Berechtigung, AWS KMS key zu verwenden.**

   Sie können die Verschlüsselung für die Inventarlistendatei mithilfe der Amazon S3 S3-Konsole, der Amazon S3 S3-REST-API AWS CLI, oder konfigurieren AWS SDKs. Unabhängig davon, welche Möglichkeit Sie wählen: Sie müssen Amazon S3 die Berechtigung gewähren, den vom Kunden verwalteten Schlüssel zum Verschlüsseln der Bestandsdatei zu verwenden. Sie [erteilen Amazon S3 die Berechtigung, indem Sie die Schlüsselrichtlinie für den kundenseitig verwalteten Schlüssel ändern](https://docs.aws.amazon.com/AmazonS3/latest/userguide/configure-inventory.html#configure-inventory-kms-key-policy), den Sie zur Verschlüsselung der Bestandsdatei verwenden möchten. Stellen Sie sicher, dass Sie einen KMS-Schlüssel-ARN in der S3-Bestandskonfiguration oder in den Verschlüsselungseinstellungen des Ziel-Buckets angegeben haben. Wenn kein KMS-Schlüssel-ARN angegeben wurde und die Standardverschlüsselungseinstellungen verwendet werden, können Sie nicht auf Ihren S3-Inventarbericht zugreifen.

   Der Ziel-Bucket, in dem die Bestandslistendatei gespeichert wird, kann zu einem anderen AWS-Konto  als zu dem Konto gehören, zu dem der Quell-Bucket gehört. Wenn Sie SSE-KMS-Verschlüsselung für die kontoübergreifenden Operationen von Amazon S3 Inventory verwenden, empfehlen wir, einen vollständig qualifizierten KMS-Schlüssel-ARN zu verwenden, wenn Sie S3 Inventory konfigurieren. Weitere Informationen finden Sie unter [Verwenden der SSE-KMS-Verschlüsselung für kontoübergreifende Vorgänge](bucket-encryption.md#bucket-encryption-update-bucket-policy) und unter [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ServerSideEncryptionByDefault.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ServerSideEncryptionByDefault.html) in der *API-Referenz für Amazon Simple Storage Service*.
**Anmerkung**  
Wenn Sie nicht auf Ihren S3-Bestandsbericht zugreifen können, verwenden Sie die [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketEncryption.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketEncryption.html)-API und prüfen Sie, ob für den Ziel-Bucket die standardmäßige SSE-KMS-Verschlüsselung aktiviert ist. Wenn kein KMS-Schlüssel-ARN angegeben wurde und die Standardverschlüsselungseinstellungen verwendet werden, können Sie nicht auf Ihren S3-Inventarbericht zugreifen. Um wieder auf S3-Bestandsberichte zuzugreifen, geben Sie entweder einen KMS-Schlüssel-ARN in der S3-Bestandskonfiguration oder in den Verschlüsselungseinstellungen des Ziel-Buckets an.

## Erstellen einer Ziel-Bucket-Richtlinie
<a name="configure-inventory-destination-bucket-policy"></a>

Wenn Sie Ihre Bestandskonfiguration über die S3-Konsole erstellen, erstellt Amazon S3 automatisch eine Bucket-Richtlinie für den Ziel-Bucket, die ihm Amazon-S3-Schreibberechtigung gewährt. Wenn Sie Ihre Inventarkonfiguration jedoch über die AWS CLI AWS SDKs, oder die Amazon S3 S3-REST-API erstellen, müssen Sie dem Ziel-Bucket manuell eine Bucket-Richtlinie hinzufügen. Mit der Ziel-Bucket-Richtlinie für S3 Inventory kann Amazon S3 Daten für die Bestandsberichte in den Bucket schreiben. 

Hier finden Sie ein Beispiel für eine Bucket-Richtlinie. 

------
#### [ JSON ]

****  

```
{  
      "Version":"2012-10-17",		 	 	 
      "Statement": [
        {
            "Sid": "InventoryExamplePolicy",
            "Effect": "Allow",
            "Principal": {
                "Service": "s3.amazonaws.com"
            },
            "Action": "s3:PutObject",
            "Resource": [
                "arn:aws:s3:::DOC-EXAMPLE-DESTINATION-BUCKET/*"
            ],
            "Condition": {
                "ArnLike": {
                    "aws:SourceArn": "arn:aws:s3:::DOC-EXAMPLE-SOURCE-BUCKET"
                },
                "StringEquals": {
                    "aws:SourceAccount": "source-123456789012",
                    "s3:x-amz-acl": "bucket-owner-full-control"
                }
            }
        }
    ]
}
```

------

Weitere Informationen finden Sie unter [Gewähren von Berechtigungen für S3 Inventory und S3 Analytics](example-bucket-policies.md#example-bucket-policies-s3-inventory-1).

Wenn beim Erstellen der Bucket-Richtlinie ein Problem auftritt, erhalten Sie Anweisungen zur Fehlerbehebung. Wenn Sie beispielsweise einen Ziel-Bucket in einem anderen auswählen AWS-Konto und nicht über Lese- und Schreibberechtigungen für die Bucket-Richtlinie verfügen, wird Ihnen eine Fehlermeldung angezeigt.

In diesem Fall muss der Eigentümer des Ziel-Buckets die Bucket-Richtlinie dem Ziel-Bucket hinzufügen. Wird die Richtlinie dem Ziel-Bucket nicht hinzugefügt, erhalten Sie keinen Bestandsbericht, da Amazon S3 nicht über die Berechtigung verfügt, in den Ziel-Bucket zu schreiben. Wenn der Quell-Bucket nicht dem Konto des aktuellen Benutzers gehört, muss die richtige Konto-ID des Quell-Bucket-Eigentümers in der Richtlinie ersetzt werden.

**Anmerkung**  
Stellen Sie sicher, dass keine Deny-Anweisungen zur Ziel-Bucket-Richtlinie hinzugefügt werden, die die Zustellung von Bestandsberichten in diesen Bucket verhindern würden. Weitere Informationen finden Sie unter [Warum kann ich keinen Amazon-S3-Bestandsbericht erstellen?](https://repost.aws/knowledge-center/s3-inventory-report).

## Erteilen der Berechtigung an Amazon S3 zur Verwendung Ihres vom Kunden verwalteten Schlüssels für die Verschlüsselung
<a name="configure-inventory-kms-key-policy"></a>

Um Amazon S3 die Erlaubnis zu erteilen, Ihren AWS Key Management Service (AWS KMS) vom Kunden verwalteten Schlüssel für die serverseitige Verschlüsselung zu verwenden, müssen Sie eine Schlüsselrichtlinie verwenden. Gehen Sie wie folgt vor, um Ihre Schlüsselrichtlinie zu aktualisieren, damit Sie einen vom Kunden verwalteten Schlüssel verwenden können.

**So gewähren Sie Amazon-S3-Berechtigungen zum Verschlüsseln mit Ihrem vom Kunden verwalteten Schlüssel**

1. Melden Sie AWS-Konto sich mit dem Schlüssel, der dem Kunden gehört, bei der AWS-Managementkonsole an.

1. Öffnen Sie die AWS KMS Konsole unter [https://console.aws.amazon.com/kms](https://console.aws.amazon.com/kms).

1. Um das zu ändern AWS-Region, verwenden Sie die Regionsauswahl in der oberen rechten Ecke der Seite.

1. Klicken Sie im linken Navigationsbereich auf **Customer managed keys (Vom Kunden verwaltete Schlüssel)**.

1. Wählen Sie unter **Kundenverwaltete Schlüssel** den vom Kunden verwalteten Schlüssel aus, den Sie zum Verschlüsseln der Bestandsdateien verwenden möchten.

1. Wählen Sie im Abschnitt **Key policy (Schlüsselrichtlinie)** die Option **Switch to policy view (Zur Richtlinienansicht wechseln)** aus.

1. Um die Schlüsselrichtlinie zu aktualisieren, wählen Sie **Bearbeiten** aus.

1. Fügen Sie auf der Seite **Schlüsselrichtlinie bearbeiten** die folgenden Zeilen zu der vorhandenen Schlüsselrichtlinie hinzu. Geben Sie für `source-account-id` und `amzn-s3-demo-source-bucket` die entsprechenden Werte für Ihren Anwendungsfall an.

   ```
   {
       "Sid": "Allow Amazon S3 use of the customer managed key",
       "Effect": "Allow",
       "Principal": {
           "Service": "s3.amazonaws.com"
       },
       "Action": [
           "kms:GenerateDataKey"
       ],
       "Resource": "*",
       "Condition":{
         "StringEquals":{
            "aws:SourceAccount":"source-account-id"
        },
         "ArnLike":{
           "aws:SourceARN": "arn:aws:s3:::amzn-s3-demo-source-bucket"
        }
      }
   }
   ```

1. Wählen Sie **Änderungen speichern ** aus.

Weitere Informationen zum Erstellen von kundenverwalteten Schlüsseln in und zum Verwenden von Schlüsselrichtlinien finden Sie unter den folgenden Links im *AWS Key Management Service Benutzerhandbuch*:
+ [Verwalten von Schlüsseln](https://docs.aws.amazon.com/kms/latest/developerguide/getting-started.html)
+ [Die wichtigsten Richtlinien in AWS KMS](https://docs.aws.amazon.com/kms/latest/developerguide/key-policies.html)

**Anmerkung**  
Stellen Sie sicher, dass keine Deny-Anweisungen zur Ziel-Bucket-Richtlinie hinzugefügt werden, die die Zustellung von Bestandsberichten in diesen Bucket verhindern würden. Weitere Informationen finden Sie unter [Warum kann ich keinen Amazon-S3-Bestandsbericht erstellen?](https://repost.aws/knowledge-center/s3-inventory-report).

## Konfigurieren des Bestands mit der S3-Konsole
<a name="configure-inventory-console"></a>

Verwenden Sie diese Anweisungen, um den Bestand mit der S3-Konsole zu konfigurieren.
**Anmerkung**  
Es könnte bis zu 48 Stunden dauern, bis Amazon S3 den ersten Inventarbericht bereitstellt.

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus.

1. Wählen Sie in der Bucket-Liste den Namen des Buckets, für den Sie Amazon S3 Inventory konfigurieren möchten.

1. Wählen Sie den Tab **Management**.

1. Wählen Sie unter **Inventory configurations (Bestands-Konfigurationen)** die Option **Create inventory configuration (Bestands-Konfiguration erstellen)**.

1. Geben Sie unter **Name der Bestandskonfiguration** einen Namen ein.

1. Gehen Sie für **Umfang für den Bestand** wie folgt vor:
   + Geben Sie ein optionales Präfix ein.
   + Wählen Sie aus, welche Objektversionen eingeschlossen werden sollen: **Nur aktuelle Versionen** oder **Alle Versionen einschließen**.

1. Wählen Sie unter **Berichtsdetails** den Speicherort des AWS-Konto aus, in dem Sie die Berichte speichern möchten: **Dieses Konto** oder **ein anderes Konto**.

1. Wählen Sie unter **Destination (Ziel)** den Ziel-Bucket aus, in dem die Bestandsberichte gespeichert werden sollen.

   Der Ziel-Bucket muss sich im selben Bucket befinden AWS-Region wie der Bucket, für den Sie das Inventar einrichten. Der Ziel-Bucket kann sich in einem anderem AWS-Konto befinden. Beim Festlegen des Ziel-Buckets können Sie auch ein optionales Präfix angeben, um Ihre Bestandsberichte zu gruppieren. 

   Unter dem Bucket-Feld **Destination (Ziel)** sehen Sie die Anweisung **Ziel-Bucket-Berechtigung**, die der Ziel-Bucket-Richtlinie hinzugefügt wird, damit Amazon S3 Daten in diesen Bucket platzieren kann. Weitere Informationen finden Sie unter [Erstellen einer Ziel-Bucket-Richtlinie](#configure-inventory-destination-bucket-policy).

1. Wählen Sie unter **Häufigkeit** aus, wie oft der Bericht erstellt wird: **Täglich** oder **Wöchentlich**.

1. Wählen Sie als **Ausgabeformat** eines der folgenden Formate für den Bericht aus:
   + **CSV** – Wenn Sie diesen Bestandsbericht mit S3-Batchoperationen verwenden oder in einem anderen Tool wie Microsoft Excel analysieren möchten, wählen Sie **CSV** aus.
   + **Apache ORC**
   + **Apache Parquet**

1. Wählen Sie unter **Status** die Option **Enable (Aktivieren)** oder **Disable (Deaktivieren)** aus.

1. Führen Sie unter **Verschlüsselung des Bestandsberichts** die folgenden Schritte aus, um die serverseitige Verschlüsselung zu konfigurieren:

   1. Wählen Sie unter **Serverseitige Verschlüsselung** entweder die Option **Keinen Verschlüsselungsschlüssel angeben** oder **Verschlüsselungsschlüssel angeben** für die Datenverschlüsselung aus.
      + Um die Bucket-Einstellungen für die serverseitige Standardverschlüsselung von Objekten beizubehalten, wenn sie in Amazon S3 gespeichert werden, wählen Sie **Keinen Verschlüsselungsschlüssel angeben** aus. Solange S3-Bucket-Schlüssel für den Ziel-Bucket aktiviert sind, wendet der Kopiervorgang S3-Bucket-Schlüssel auf den Ziel-Bucket an.
**Anmerkung**  
Wenn die Bucket-Richtlinie für das angegebene Ziel vorschreibt, dass Objekte verschlüsselt werden müssen, bevor sie in Amazon S3 gespeichert werden, müssen Sie **Verschlüsselungsschlüssel angeben** auswählen. Andernfalls schlägt das Kopieren von Objekten in das Ziel fehl.
      + Um Objekte zu verschlüsseln, bevor sie in Amazon S3 gespeichert werden, wählen Sie **Verschlüsselungsschlüssel angeben** aus.

   1. Bei Auswahl von **Verschlüsselungsschlüssel angeben** müssen Sie unter **Verschlüsselungstyp** entweder **Von Amazon S3 verwalteter Schlüssel (SSE-S3)** oder **AWS Key Management Service -Schlüssel (SSE-KMS)** auswählen.

      SSE-S3 verwendet für die Verschlüsselung der einzelnen Objekte eine der stärksten Blockverschlüsselungen: 256-bit Advanced Encryption Standard (AES-256). Mit SSE-KMS erhalten Sie mehr Kontrolle über Ihren Schlüssel. Weitere Informationen zu SSE-S3 finden Sie unter [Verwenden serverseitiger Verschlüsselung mit von Amazon S3 verwalteten Schlüsseln (SSE-S3)](UsingServerSideEncryption.md). Weitere Informationen zu SSE-KMS finden Sie unter [Verwenden der serverseitigen Verschlüsselung mit AWS KMS Schlüsseln (SSE-KMS)](UsingKMSEncryption.md).
**Anmerkung**  
Um die Bestandslisten-Datei mit SSE-KMS zu verschlüsseln, müssen Sie Amazon S3 die Berechtigung erteilen, den vom Kunden verwalteten Schlüssel zu verwenden. Anleitungen finden Sie unter [Erteilen einer Amazon S3-Berechtigung zur Verschlüsselung mit Ihren KMS-Schlüsseln](#configure-inventory-kms-key-policy).

   1. Wenn Sie unter **AWS Key Management Service Schlüssel (SSE-KMS)** ausgewählt haben **AWS KMS key**, können Sie Ihren AWS KMS Schlüssel über eine der folgenden Optionen angeben.
**Anmerkung**  
Wenn der Ziel-Bucket, in dem die Inventarlistendatei gespeichert ist, einem anderen gehört AWS-Konto, stellen Sie sicher, dass Sie einen vollqualifizierten KMS-Schlüssel-ARN verwenden, um Ihren KMS-Schlüssel anzugeben.
      + Um aus einer Liste verfügbarer KMS-Schlüssel auszuwählen, wählen Sie **Wählen Sie aus Ihren AWS KMS Schlüsseln** und wählen Sie einen KMS-Schlüssel mit symmetrischer Verschlüsselung aus der Liste der verfügbaren Schlüssel aus. Stellen Sie sicher, dass sich der KMS-Schlüssel in derselben Region wie Ihr Bucket befindet. 
**Anmerkung**  
Sowohl der Von AWS verwalteter Schlüssel (`aws/s3`) als auch Ihr vom Kunden verwalteter Schlüssel werden in der Liste angezeigt. Von AWS verwalteter Schlüssel (`aws/s3`) wird jedoch nicht für die SSE-KMS-Verschlüsselung mit S3 Inventory unterstützt. 
      + Um den KMS-Schlüssel-ARN einzugeben, wählen **Sie Enter AWS KMS key ARN** und geben Sie Ihren KMS-Schlüssel-ARN in das angezeigte Feld ein.
      + Um einen neuen vom Kunden verwalteten Schlüssel in der AWS KMS Konsole zu **erstellen, wählen Sie Create a KMS Key** aus.

1. Wählen Sie für **Zusätzliche Metadatenfelder** eine oder mehrere der folgenden Optionen für das Hinzufügen zum Bestandsbericht aus:
   + **Größe** – Die Objektgröße in Byte, ohne die Größe von unvollständigen mehrteiligen Uploads, Objektmetadaten und Löschmarkierungen.
   + **Last modified date (Letztes Änderungsdatum)** – Datum der Erstellung oder der letzten Änderung des Objekts, je nachdem, welches neuer ist.
   +  **Multipart upload (Mehrteiliger Upload)** – Gibt an, dass das Objekt als mehrteiliger Upload hochgeladen wurde. Weitere Informationen finden Sie unter [Hochladen und Kopieren von Objekten mit mehrteiligen Uploads in Amazon S3](mpuoverview.md).
   + **Replication status (Replikationsstatus)** – Der Replikationsstatus des Objekts. Weitere Informationen finden Sie unter [Abrufen von Replikationsstatusinformationen](replication-status.md).
   + **Encryption status (Verschlüsselungsstatus)** – Der serverseitige Verschlüsselungstyp, der für die Verschlüsselung des Objekts verwendet wird. Weitere Informationen finden Sie unter [Schützen von Daten mit serverseitiger Verschlüsselung](serv-side-encryption.md).
   + **Bucket-Schlüsselstatus** — Gibt an, ob ein von generierter Schlüssel auf Bucket-Ebene für das Objekt AWS KMS gilt. Weitere Informationen finden Sie unter [Reduzieren des Preises von SSE-KMS mit Amazon-S3-Bucket-Schlüsseln](bucket-key.md).
   + **Objektzugriffskontrollliste** — Eine Zugriffskontrollliste (ACL) für jedes Objekt, die definiert, welchen AWS-Konten oder welchen Gruppen Zugriff auf dieses Objekt gewährt wird und welche Art von Zugriff gewährt wird. Weitere Hinweise zu diesem Feld finden Sie unter [Arbeiten mit dem Feld „Objekt-ACL“](objectacl.md). Weitere Hinweise zu finden ACLs Sie unter[Zugriffskontrolllisten (ACL) – Übersicht](acl-overview.md). 
   + **Object owner (Besitzer des Objekts)** – Der Besitzer des Objekts.
   + **Storage class (Speicherklasse)** – Die für die Speicherung des Objekts verwendete Speicherklasse. 
   + **Intelligent-Tiering: Access tier (Zugriffsebene)** – Zugriffsebene (häufig oder selten) des Objekts, wenn es im S3-Intelligent-Tiering-Speicher gespeichert wurde. Weitere Informationen finden Sie unter [Speicherklasse zur automatischen Optimierung von Daten mit sich ändernden oder unbekannten Zugriffsmustern](storage-class-intro.md#sc-dynamic-data-access).
   + **ETag**— Das Entity-Tag (ETag) ist ein Hash des Objekts. Das ETag spiegelt nur Änderungen am Inhalt eines Objekts wider, nicht an seinen Metadaten. Dies ETag kann eine MD5 Zusammenfassung der Objektdaten sein oder auch nicht. Dies hängt davon ab, wie das Objekt erstellt und verschlüsselt wurde. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/API_Object.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Object.html) in der *API-Referenz zu Amazon Simple Storage Service*.
   + **Prüfsummen-Algorithmus** – Gibt den Algorithmus an, mit dem die Prüfsumme für das Objekt erstellt wurde. Weitere Informationen finden Sie unter [Verwenden unterstützter Prüfsummenalgorithmen](checking-object-integrity-upload.md#using-additional-checksums).
   + **All Object lock configurations (Alle Objektsperre-Konfigurationen)** – Der Objektsperrenstatus des Objekts, einschließlich der folgenden Einstellungen: 
     + **Object Lock: Retention mode (Aufbewahrungsmodus der Objektsperre)** – Die auf das Objekt angewendete Schutzebene, entweder *Governance* oder *Compliance*.
     + **Object Lock: Retain until date (Beibehaltungsfrist für Objektsperre)** – Das Datum, bis zu dem das gesperrte Objekt nicht gelöscht werden kann.
     + **Object Lock: Legal hold status (Status der gesetzlichen Sperrfrist des Objekts)** – Der Status der gesetzlichen Sperrfrist des gesperrten Objekts. 

     Weitere Informationen zur S3-Objektsperre finden Sie unter [So funktioniert die S3-Objektsperre](object-lock.md#object-lock-overview).
   + **Ablaufdatum des Lebenszyklus** — Der Zeitstempel für den Ablauf des Lebenszyklus von Objekten in Ihrem Inventarbericht. Dieses Feld wird nur ausgefüllt, wenn das Objekt gemäß einer geltenden Lebenszyklusregel abgelaufen sein soll. In anderen Fällen ist das Feld leer. Weitere Informationen finden Sie unter [Ablauf von Objekten](lifecycle-expire-general-considerations.md).

   Weitere Informationen zum Inhalt eines Bestandsberichts finden Sie unter [Amazon-S3-Inventory-Liste](storage-inventory.md#storage-inventory-contents). 

   Weitere Informationen zum Einschränken des Zugriffs auf bestimmte optionale Metadatenfelder in einer Bestandskonfiguration finden Sie unter [Steuern der Erstellung der Konfiguration von S3-Inventory-Berichten](example-bucket-policies.md#example-bucket-policies-s3-inventory-2).

1. Wählen Sie **Erstellen** aus.

## Verwendung der REST-API für die Arbeit mit S3 Inventory
<a name="rest-api-inventory"></a>

Die folgenden sind die REST-Operationen, die Sie zur Arbeit mit Amazon S3 Inventory verwenden können.
+  [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketDELETEInventoryConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketDELETEInventoryConfiguration.html) 
+  [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETInventoryConfig.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGETInventoryConfig.html) 
+  [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketListInventoryConfigs.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketListInventoryConfigs.html) 
+  [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTInventoryConfig.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTInventoryConfig.html) 

# Lokalisieren Ihrer Bestandsliste
<a name="storage-inventory-location"></a>

Wenn eine Bestandsliste veröffentlicht wird, werden die Manifestdateien am folgenden Standort im Ziel-Bucket veröffentlicht.

```
destination-prefix/amzn-s3-demo-source-bucket/config-ID/YYYY-MM-DDTHH-MMZ/manifest.json
 destination-prefix/amzn-s3-demo-source-bucket/config-ID/YYYY-MM-DDTHH-MMZ/manifest.checksum
 destination-prefix/amzn-s3-demo-source-bucket/config-ID/hive/dt=YYYY-MM-DD-HH-MM/symlink.txt
```
+ `destination-prefix` ist das Präfix des Objektschlüsselnamens, das optional in der Bestandskonfiguration festgelegt wird. Sie können dieses Präfix verwenden, um alle Bestandslisten-Dateien an einem gemeinsamen Standort im Ziel-Bucket zu gruppieren.
+ `amzn-s3-demo-source-bucket` ist der Quell-Bucket, für den die Bestandsliste erstellt wird. Der Quell-Bucket-Name wird hinzugefügt, um Kollisionen zu vermeiden, wenn mehrere Bestandsberichte von mehreren Quell-Buckets an denselben Ziel-Bucket gesendet werden.
+ `config-ID` wird hinzugefügt, um Kollisionen zu vermeiden, wenn mehrere Bestandsberichte vom selben Quell-Bucket an denselben Ziel-Bucket gesendet werden. Die `config-ID` kommt aus der Bestandsbericht-Konfiguration und ist der Name des Berichts, der bei der Einrichtung festgelegt wurde.
+ `YYYY-MM-DDTHH-MMZ` ist der Zeitstempel, der sich aus der Startzeit und dem Datum zusammensetzt, an dem die Bestandsberichtserstellung mit dem Scannen des Buckets beginnt, z. B. `2016-11-06T21-32Z`.
+ `manifest.json` ist die Manifestdatei. 
+ `manifest.checksum`ist der MD5 Hash des Inhalts der `manifest.json` Datei. 
+ `symlink.txt` ist die mit Apache Hive kompatible Manifest-Datei. 

Die Bestandslisten werden täglich oder wöchentlich am folgenden Standort im Ziel-Bucket veröffentlicht.

```
destination-prefix/amzn-s3-demo-source-bucket/config-ID/data/example-file-name.csv.gz
...
destination-prefix/amzn-s3-demo-source-bucket/config-ID/data/example-file-name-1.csv.gz
```
+ `destination-prefix` ist das Präfix des Objektschlüsselnamens, das optional in der Bestandskonfiguration festgelegt wird. Es kann verwendet werden, um alle Bestandslisten-Dateien an einem gemeinsamen Standort innerhalb des Ziel-Buckets zu gruppieren.
+ `amzn-s3-demo-source-bucket` ist der Quell-Bucket, für den die Bestandsliste erstellt wird. Der Quell-Bucket-Name wird hinzugefügt, um Kollisionen zu vermeiden, wenn mehrere Bestandsberichte von mehreren Quell-Buckets an denselben Ziel-Bucket gesendet werden.
+ `example-file-name``.csv.gz` ist eine der CSV-Bestandsdateien. ORC-Bestandsnamen enden mit der Dateinamenserweiterung `.orc` und Parquet-Bestandsnamen enden mit der Dateinamenserweiterung `.parquet`.

## Bestandsmanifest
<a name="storage-inventory-location-manifest"></a>

Die Manifest-Dateien `manifest.json` und `symlink.txt` beschreiben, wo sich die Bestandsdateien befinden. Wenn eine neue Bestandsliste geliefert wird, wird sie durch eine neue Reihe von Manifestdateien begleitet. Diese Dateien könnten sich gegenseitig überschreiben. In versionierungsfähigen Buckets erstellt Amazon S3 neue Versionen der Manifestdateien. 

Jedes in der `manifest.json`-Datei enthaltene Manifest bietet Metadaten und andere grundlegende Informationen zu einem Bestand. Diese Informationen beinhalten Folgendes:
+ Name des Quell-Buckets
+ Name des Ziel-Buckets
+ Bestandsversion
+ Erstellungszeitstempel im Epochen-Datumsformat, der aus der Startzeit und dem Datum besteht, an dem die Bestandberichtserstellung beginnt, den Bucket zu scannen
+ Format und Schema der Bestandsdateien
+ Liste der Bestandsdateien, die im Ziel-Bucket enthalten sind

Immer wenn eine `manifest.json` Datei geschrieben wird, wird sie von einer `manifest.checksum` Datei begleitet, die den MD5 Hash des `manifest.json` Dateiinhalts darstellt.

**Example Bestandsmanifest in einer `manifest.json`-Datei**  
Die folgenden Beispiele zeigen ein Bestandsmanifest in einer `manifest.json`-Datei für CSV-, ORC- und Parquet-formatierte Bestände.  
Nachfolgend finden Sie ein Beispiel eines Manifests in einer `manifest.json`-Datei für einen CSV-formatierten Bestand.  

```
{
    "sourceBucket": "amzn-s3-demo-source-bucket",
    "destinationBucket": "arn:aws:s3:::example-inventory-destination-bucket",
    "version": "2016-11-30",
    "creationTimestamp" : "1514944800000",
    "fileFormat": "CSV",
    "fileSchema": "Bucket, Key, VersionId, IsLatest, IsDeleteMarker, Size, LastModifiedDate, ETag, StorageClass, IsMultipartUploaded, ReplicationStatus, EncryptionStatus, ObjectLockRetainUntilDate, ObjectLockMode, ObjectLockLegalHoldStatus, IntelligentTieringAccessTier, BucketKeyStatus, ChecksumAlgorithm, ObjectAccessControlList, ObjectOwner",
    "files": [
        {
            "key": "Inventory/amzn-s3-demo-source-bucket/2016-11-06T21-32Z/files/939c6d46-85a9-4ba8-87bd-9db705a579ce.csv.gz",
            "size": 2147483647,
            "MD5checksum": "f11166069f1990abeb9c97ace9cdfabc"
        }
    ]
}
```
Nachfolgend finden Sie ein Beispiel eines Manifests in einer `manifest.json`-Datei für einen ORC-formatierten Bestand.  

```
{
    "sourceBucket": "amzn-s3-demo-source-bucket",
    "destinationBucket": "arn:aws:s3:::example-destination-bucket",
    "version": "2016-11-30",
    "creationTimestamp" : "1514944800000",
    "fileFormat": "ORC",
    "fileSchema": "struct<bucket:string,key:string,version_id:string,is_latest:boolean,is_delete_marker:boolean,size:bigint,last_modified_date:timestamp,e_tag:string,storage_class:string,is_multipart_uploaded:boolean,replication_status:string,encryption_status:string,object_lock_retain_until_date:timestamp,object_lock_mode:string,object_lock_legal_hold_status:string,intelligent_tiering_access_tier:string,bucket_key_status:string,checksum_algorithm:string,object_access_control_list:string,object_owner:string>",
    "files": [
        {
            "key": "inventory/amzn-s3-demo-source-bucket/data/d794c570-95bb-4271-9128-26023c8b4900.orc",
            "size": 56291,
            "MD5checksum": "5925f4e78e1695c2d020b9f6eexample"
        }
    ]
}
```
Nachfolgend finden Sie ein Beispiel eines Manifests in einer `manifest.json`-Datei für einen Parquet-formatierten Bestand.  

```
{
    "sourceBucket": "amzn-s3-demo-source-bucket",
    "destinationBucket": "arn:aws:s3:::example-destination-bucket",
    "version": "2016-11-30",
    "creationTimestamp" : "1514944800000",
    "fileFormat": "Parquet",
    "fileSchema": "message s3.inventory { required binary bucket (UTF8); required binary key (UTF8); optional binary version_id (UTF8); optional boolean is_latest; optional boolean is_delete_marker; optional int64 size; optional int64 last_modified_date (TIMESTAMP_MILLIS); optional binary e_tag (UTF8); optional binary storage_class (UTF8); optional boolean is_multipart_uploaded; optional binary replication_status (UTF8); optional binary encryption_status (UTF8); optional int64 object_lock_retain_until_date (TIMESTAMP_MILLIS); optional binary object_lock_mode (UTF8); optional binary object_lock_legal_hold_status (UTF8); optional binary intelligent_tiering_access_tier (UTF8); optional binary bucket_key_status (UTF8); optional binary checksum_algorithm (UTF8); optional binary object_access_control_list (UTF8); optional binary object_owner (UTF8);}",
    "files": [
        {
           "key": "inventory/amzn-s3-demo-source-bucket/data/d754c470-85bb-4255-9218-47023c8b4910.parquet",
            "size": 56291,
            "MD5checksum": "5825f2e18e1695c2d030b9f6eexample"
        }
    ]
}
```
Die `symlink.txt`-Datei ist eine mit Apache Hive kompatible Manifest-Datei, mit der Bestandsdateien und die zugehörigen Datendateien automatisch entdecken kann. Das Hive-kompatible Manifest funktioniert mit den Hive-kompatiblen Services Athena und Amazon Redshift Spectrum. Es funktioniert auch mit Hive-kompatiblen Anwendungen, einschließlich [https://prestodb.io/](https://prestodb.io/), [https://hive.apache.org/](https://hive.apache.org/), [https://databricks.com/spark/about/](https://databricks.com/spark/about/)und vielen anderen.  
Die mit Apache Hive kompatible Manifest-Datei `symlink.txt` funktioniert derzeit nicht mit  AWS Glue.  
Das Lesen der Datei `symlink.txt` mit [https://hive.apache.org/](https://hive.apache.org/) und [https://databricks.com/spark/about/](https://databricks.com/spark/about/) wird für ORC- und Parquet-formatierte Bestandsdateien nicht unterstützt. 

# Einrichten von Amazon-S3-Ereignis-Benachrichtigungen für den Bestandsabschluss
<a name="storage-inventory-notification"></a>

Sie können eine Amazon S3-Ereignis-Benachrichtigung einrichten, um informiert zu werden, wenn die Prüfsummendatei für das Manifest erstellt wird, woran zu erkennen ist, dass dem Ziel-Bucket eine Bestandsliste hinzugefügt wurde. Das Manifest ist eine up-to-date Liste aller Inventarlisten am Zielort.

Amazon S3 kann Ereignisse in einem Amazon-Simple-Notification-Service-Thema (Amazon SNS), einer Amazon-Simple-Queue-Service-Warteschlange (Amazon SQS) oder einer AWS Lambda -Funktion veröffentlichen. Weitere Informationen finden Sie unter [Amazon-S3-Ereignisbenachrichtigungen](EventNotifications.md).

Die folgende Benachrichtigungskonfiguration definiert, dass alle `manifest.checksum`-Dateien, die dem Ziel-Bucket hinzugefügt werden, von der AWS Lambda `cloud-function-list-write`. verarbeitet werden.

```
<NotificationConfiguration>
  <QueueConfiguration>
      <Id>1</Id>
      <Filter>
          <S3Key>
              <FilterRule>
                  <Name>prefix</Name>
                  <Value>destination-prefix/source-bucket</Value>
              </FilterRule>
              <FilterRule>
                  <Name>suffix</Name>
                  <Value>checksum</Value>
              </FilterRule>
          </S3Key>
     </Filter>
     <CloudFunction>arn:aws:lambda:us-west-2:222233334444:cloud-function-list-write</CloudFunction>
     <Event>s3:ObjectCreated:*</Event>
  </QueueConfiguration>
  </NotificationConfiguration>
```

Weitere Informationen finden Sie unter [Using AWS Lambda with Amazon S3](https://docs.aws.amazon.com/lambda/latest/dg/with-s3.html) im *AWS Lambda Developer Guide*.

# Abfragen von Amazon S3 Inventory mit Amazon Athena
<a name="storage-inventory-athena-query"></a>

Sie können Dateien aus Amazon S3 Inventory mit Standard-SQL-Abfragen abfragen, indem Sie Amazon Athena in allen Regionen verwenden, in denen Athena verfügbar ist. Informationen zur AWS-Region Verfügbarkeit finden Sie in der [AWS-Region Tabelle](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/). 

Athena kann Amazon-S3-Inventory-Dateien in Format [Apache-ORC-Spalten (Optimized Row Columnar)](https://orc.apache.org/), [https://parquet.apache.org/](https://parquet.apache.org/) oder CSV (durch Komma getrennte Werte) abfragen. Wenn Sie Athena für die Abfrage der Bestandsdateien verwenden, empfehlen wir, dass Sie ORC- oder Parquet-formatierte Bestandsdateien verwenden. Die Formate ORC und Parquet bieten eine schnellere Abfrageleistung und niedrigere Abfragekosten. ORC und Parquet sind selbstbeschreibende, typerkennende und spaltenbasierte Datenformate, die für [http://hadoop.apache.org/](http://hadoop.apache.org/) entwickelt wurden. Das spaltenbasierte Format lässt den Leser nur die Spalten lesen, entpacken und verarbeiten, die für die aktuelle Abfrage benötigt werden. Das ORC und die Parquet Formate für Amazon S3 Inventory sind in allen AWS-Regionen verfügbar.

**So fragen Sie Amazon-S3-Inventory-Dateien mit Athena ab**

1. Erstellen Sie eine Athena-Tabelle. Informationen zum Erstellen einer Tabelle finden Sie unter [Erstellen von Tabellen in Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/creating-tables.html) im *Amazon Athena-Benutzerhandbuch*.

1. Erstellen Sie Ihre Abfrage mithilfe einer der folgenden Beispielabfragevorlagen, je nachdem, ob Sie einen ORC-formatierten, einen Parquet-formatierten oder einen CSV-formatierten Bestandsbericht abfragen. 
   + Bei Verwendung von Athena für die Abfrage eines ORC-formatierten Bestandsberichts verwenden Sie die folgende Beispielabfrage als Vorlage.

     Die folgende Beispielabfrage umfasst alle optionalen Felder in einem nach ORC formatierten Bestandsbericht. 

     Gehen Sie wie folgt vor, um diese Beispielabfrage zu verwenden: 
     + Ersetzen Sie `your_table_name` durch den Namen der Athena-Tabelle, die Sie erstellt haben.
     + Entfernen Sie alle optionalen Felder, die Sie für Ihren Bestand nicht ausgewählt haben, sodass die Abfrage den für Ihren Bestand gewählten Feldern entspricht.
     + Ersetzen Sie den folgenden Bucket-Namen und den Bestandsort (die Konfigurations-ID) entsprechend Ihrer Konfiguration.

       `s3://amzn-s3-demo-bucket/config-ID/hive/`
     + Ersetzen Sie das Datum `2022-01-01-00-00` unter `projection.dt.range` mit dem ersten Tag des Zeitbereichs, innerhalb dessen Sie die Daten in Athena partitionieren. Weitere Informationen finden Sie unter [Partitionieren von Daten in Athena](https://docs.aws.amazon.com/athena/latest/ug/partitions.html).

     ```
     CREATE EXTERNAL TABLE your_table_name (
              bucket string,
              key string,
              version_id string,
              is_latest boolean,
              is_delete_marker boolean,
              size bigint,
              last_modified_date timestamp,
              e_tag string,
              storage_class string,
              is_multipart_uploaded boolean,
              replication_status string,
              encryption_status string,
              object_lock_retain_until_date bigint,
              object_lock_mode string,
              object_lock_legal_hold_status string,
              intelligent_tiering_access_tier string,
              bucket_key_status string,
              checksum_algorithm string,
              object_access_control_list string,
              object_owner string,
              lifecycle_expiration_date timestamp
     ) PARTITIONED BY (
             dt string
     )
     ROW FORMAT SERDE 'org.apache.hadoop.hive.ql.io.orc.OrcSerde'
       STORED AS INPUTFORMAT 'org.apache.hadoop.hive.ql.io.SymlinkTextInputFormat'
       OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.IgnoreKeyTextOutputFormat'
       LOCATION 's3://amzn-s3-demo-bucket/config-ID/hive/'
       TBLPROPERTIES (
         "projection.enabled" = "true",
         "projection.dt.type" = "date",
         "projection.dt.format" = "yyyy-MM-dd-HH-mm",
         "projection.dt.range" = "2022-01-01-00-00,NOW",
         "projection.dt.interval" = "1",
         "projection.dt.interval.unit" = "HOURS"
       );
     ```
   + Wenn Sie Athena verwenden, um einen Parquet-formatierter Bestandsbericht abzufragen, verwenden Sie die Beispielabfrage für einen Bericht im ORC-Format. Verwenden Sie Parquet SerDe in der Erklärung jedoch Folgendes anstelle von ORC SerDe . `ROW FORMAT SERDE`

     ```
     ROW FORMAT SERDE 'org.apache.hadoop.hive.ql.io.parquet.serde.ParquetHiveSerDe'
     ```
   + Bei Verwendung von Athena für die Abfrage eines CSV-formatierten Bestandsberichts verwenden Sie die folgende Beispielabfrage als Vorlage.

     Die folgende Beispielabfrage umfasst alle optionalen Felder in einem nach CSV formatierten Bestandsbericht. 

     Gehen Sie wie folgt vor, um diese Beispielabfrage zu verwenden: 
     + Ersetzen Sie `your_table_name` durch den Namen der Athena-Tabelle, die Sie erstellt haben.
     + Entfernen Sie alle optionalen Felder, die Sie für Ihren Bestand nicht ausgewählt haben, sodass die Abfrage den für Ihren Bestand gewählten Feldern entspricht.
     + Ersetzen Sie den folgenden Bucket-Namen und den Bestandsort (die Konfigurations-ID) entsprechend Ihrer Konfiguration. 

       `s3://amzn-s3-demo-bucket/config-ID/hive/`
     + Ersetzen Sie das Datum `2022-01-01-00-00` unter `projection.dt.range` mit dem ersten Tag des Zeitbereichs, innerhalb dessen Sie die Daten in Athena partitionieren. Weitere Informationen finden Sie unter [Partitionieren von Daten in Athena](https://docs.aws.amazon.com/athena/latest/ug/partitions.html).

     ```
     CREATE EXTERNAL TABLE your_table_name (
              bucket string,
              key string,
              version_id string,
              is_latest boolean,
              is_delete_marker boolean,
              size string,
              last_modified_date string,
              e_tag string,
              storage_class string,
              is_multipart_uploaded boolean,
              replication_status string,
              encryption_status string,
              object_lock_retain_until_date string,
              object_lock_mode string,
              object_lock_legal_hold_status string,
              intelligent_tiering_access_tier string,
              bucket_key_status string,
              checksum_algorithm string,
              object_access_control_list string,
              object_owner string,
              lifecycle_expiration_date string
     ) PARTITIONED BY (
             dt string
     )
     ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.OpenCSVSerde'
       STORED AS INPUTFORMAT 'org.apache.hadoop.hive.ql.io.SymlinkTextInputFormat'
       OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.IgnoreKeyTextOutputFormat'
       LOCATION 's3://amzn-s3-demo-bucket/config-ID/hive/'
       TBLPROPERTIES (
         "projection.enabled" = "true",
         "projection.dt.type" = "date",
         "projection.dt.format" = "yyyy-MM-dd-HH-mm",
         "projection.dt.range" = "2022-01-01-00-00,NOW",
         "projection.dt.interval" = "1",
         "projection.dt.interval.unit" = "HOURS"
       );
     ```

1. Sie können jetzt verschiedene Bestandsabfragen ausführen, wie in den folgenden Beispielen gezeigt. Ersetzen Sie jeden `user input placeholder` durch Ihre Informationen.

   ```
   # Get a list of the latest inventory report dates available.
   SELECT DISTINCT dt FROM your_table_name ORDER BY 1 DESC limit 10;
             
   # Get the encryption status for a provided report date.
   SELECT encryption_status, count(*) FROM your_table_name WHERE dt = 'YYYY-MM-DD-HH-MM' GROUP BY encryption_status;
             
   # Get the encryption status for inventory report dates in the provided range.
   SELECT dt, encryption_status, count(*) FROM your_table_name 
   WHERE dt > 'YYYY-MM-DD-HH-MM' AND dt < 'YYYY-MM-DD-HH-MM' GROUP BY dt, encryption_status;
   ```

   Wenn Sie S3 Inventory so konfigurieren, dass das Feld „Objekt-Zugriffssteuerungsliste (ACL)“ zu einem Bestandsbericht hinzugefügt wird, zeigt der Bericht den Wert für das Feld „Objekt-ACL“ als Base64-codierte Zeichenfolge an. Um für das Feld „Objekt-ACL“ den dekodierten Wert in JSON abzurufen, können Sie dieses Feld mit Athena abfragen. Sehen Sie sich die folgenden Abfragebeispiele an. Weitere Informationen zum Feld „Objekt-ACL“ erhalten Sie unter [Arbeiten mit dem Feld „Objekt-ACL“](objectacl.md).

   ```
   # Get the S3 keys that have Object ACL grants with public access.
   WITH grants AS (
       SELECT key,
           CAST(
               json_extract(from_utf8(from_base64(object_access_control_list)), '$.grants') AS ARRAY(MAP(VARCHAR, VARCHAR))
           ) AS grants_array
       FROM your_table_name
   )
   SELECT key,
          grants_array,
          grant
   FROM grants, UNNEST(grants_array) AS t(grant)
   WHERE element_at(grant, 'uri') = 'http://acs.amazonaws.com/groups/global/AllUsers'
   ```

   ```
   # Get the S3 keys that have Object ACL grantees in addition to the object owner.
   WITH grants AS 
       (SELECT key,
       from_utf8(from_base64(object_access_control_list)) AS object_access_control_list,
            object_owner,
            CAST(json_extract(from_utf8(from_base64(object_access_control_list)),
            '$.grants') AS ARRAY(MAP(VARCHAR, VARCHAR))) AS grants_array
       FROM your_table_name)
   SELECT key,
          grant,
          objectowner
   FROM grants, UNNEST(grants_array) AS t(grant)
   WHERE cardinality(grants_array) > 1 AND element_at(grant, 'canonicalId') != object_owner;
   ```

   ```
   # Get the S3 keys with READ permission that is granted in the Object ACL. 
   WITH grants AS (
       SELECT key,
           CAST(
               json_extract(from_utf8(from_base64(object_access_control_list)), '$.grants') AS ARRAY(MAP(VARCHAR, VARCHAR))
           ) AS grants_array
       FROM your_table_name
   )
   SELECT key,
          grants_array,
          grant
   FROM grants, UNNEST(grants_array) AS t(grant)
   WHERE element_at(grant, 'permission') = 'READ';
   ```

   ```
   # Get the S3 keys that have Object ACL grants to a specific canonical user ID.
   WITH grants AS (
       SELECT key,
           CAST(
               json_extract(from_utf8(from_base64(object_access_control_list)), '$.grants') AS ARRAY(MAP(VARCHAR, VARCHAR))
           ) AS grants_array
       FROM your_table_name
   )
   SELECT key,
          grants_array,
          grant
   FROM grants, UNNEST(grants_array) AS t(grant)
   WHERE element_at(grant, 'canonicalId') = 'user-canonical-id';
   ```

   ```
   # Get the number of grantees on the Object ACL.
   SELECT key,
          object_access_control_list,
          json_array_length(json_extract(object_access_control_list,'$.grants')) AS grants_count
   FROM your_table_name;
   ```

Weitere Informationen zur Verwendung von Athena finden Sie im [Amazon Athena-Benutzerhandbuch](https://docs.aws.amazon.com/athena/latest/ug/).

# Konvertieren leerer Versions-ID-Strings in Amazon-S3-Inventory-Berichten in Null-Zeichenfolgen
<a name="inventory-configure-bops"></a>

**Anmerkung**  
**Das folgende Verfahren gilt nur für Amazon S3-Lagerbestandsberichte, die alle Versionen enthalten, und nur, wenn die Berichte „Alle Versionen“ als Manifeste für S3-Batch-Operationen bei Buckets verwendet werden, bei denen S3-Versionierung aktiviert ist.** Sie müssen keine Zeichenfolgen für S3-Inventory-Berichte konvertieren, die nur die aktuelle Version angeben.

Sie können S3-Inventory-Berichte als Manifeste für S3-Batchvorgänge verwenden. Wenn jedoch die S3-Versionsverwaltung für einen Bucket aktiviert ist, markieren S3-Inventory-Berichte, die alle Versionen enthalten, alle nullversionierten Objekte mit leeren Zeichenfolgen im Versions-ID-Feld. Wenn ein Inventarbericht alle Objektversionen enthält IDs, erkennt Batch Operations `null` Zeichenfolgen als Version IDs, aber keine leeren Zeichenfolgen. 

Wenn ein S3-Batchvorgangauftrag einen S3-Inventory-Bericht „alle Versionen“ als Manifest verwendet, schlägt er alle Aufgaben für Objekte fehl, die eine leere Zeichenfolge im Feld Versions-ID haben. Gehen Sie wie folgt vor, um leere Zeichenfolgen im Versions-ID-Feld des S3-Inventory-Berichts in `null`-Zeichenfolgen für Batchvorgänge zu konvertieren.

**Aktualisieren eines Amazon-S3-Inventory-Berichts zur Verwendung mit Batchvorgängen**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Navigieren Sie zu Ihrem S3-Inventory-Bericht. Der Inventory-Bericht befindet sich im Ziel-Bucket, den Sie beim Konfigurieren Ihres Inventory-Berichts angegeben haben. Weitere Informationen zum Auffinden von Inventory-Berichten finden Sie unter [Lokalisieren Ihrer Bestandsliste](storage-inventory-location.md).

   1. Wählen Sie den Ziel-Bucket aus.

   1. Wählen Sie den Ordner aus. Der Ordner ist nach dem ursprünglichen Quell-Bucket benannt.

   1. Wählen Sie den nach der Inventory-Konfiguration benannten Ordner aus.

   1. Aktivieren Sie das Kontrollkästchen neben dem Ordner namens **Hive** aus. Wählen Sie oben auf der Seite **S3-URI kopieren** aus, um den S3-URI für den Ordner zu kopieren.

1. Öffnen Sie die Amazon Athena Athena-Konsole unter [https://console.aws.amazon.com/athena/](https://console.aws.amazon.com/athena/home). 

1. Wählen Sie im Abfrage-Editor **Einstellungen** und anschließend **Verwalten** aus. Wählen Sie auf der Seite **Einstellungen verwalten** für **Standort des Abfrageergebnisses** einen S3-Bucket aus, um Ihre Abfrageergebnisse zu speichern.

1. Erstellen Sie im Abfrage-Editor eine Athena-Tabelle, um die Daten mit dem folgenden Befehl im Inventory-Bericht zu speichern. Ersetzen Sie `table_name` durch einen Namen Ihrer Wahl, und fügen Sie in der `LOCATION`-Klausel den zuvor kopierten S3-URI ein. Wählen Sie dann **Ausführen** aus, um die Abfrage auszuführen.

   ```
   CREATE EXTERNAL TABLE table_name(bucket string, key string, version_id string) PARTITIONED BY (dt string)ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.OpenCSVSerde'STORED AS INPUTFORMAT 'org.apache.hadoop.hive.ql.io.SymlinkTextInputFormat' OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.IgnoreKeyTextOutputFormat' LOCATION 'Copied S3 URI';
   ```

1. Um den Abfrage-Editor zu löschen, wählen Sie **Löschen**. Laden Sie den Inventory-Bericht mit dem folgenden Befehl in die Tabelle. Ersetzen Sie `table_name` durch denjenigen, den Sie im vorherigen Schritt ausgewählt haben. Wählen Sie dann **Ausführen** aus, um die Abfrage auszuführen.

   ```
   MSCK REPAIR TABLE table_name;
   ```

1. Um den Abfrage-Editor zu löschen, wählen Sie **Löschen**. Führen Sie die folgende `SELECT` Abfrage aus, um alle Einträge im ursprünglichen Lagerbestandsbericht abzurufen und alle leeren Versionen IDs durch `null` Zeichenfolgen zu ersetzen. Ersetzen Sie `table_name` durch das zuvor gewählte, und ersetzen Sie `YYYY-MM-DD-HH-MM` in der `WHERE`-Klausel durch das Datum des Inventory-Berichts, auf dem dieses Tool ausgeführt werden soll. Wählen Sie dann **Ausführen** aus, um die Abfrage auszuführen.

   ```
   SELECT bucket as Bucket, key as Key, CASE WHEN version_id = '' THEN 'null' ELSE version_id END as VersionId FROM table_name WHERE dt = 'YYYY-MM-DD-HH-MM';
   ```

1. Kehren Sie zur Amazon S3 S3-Konsole ([https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)) zurück und navigieren Sie zu dem S3-Bucket, den Sie zuvor für **Speicherort des Abfrageergebnisses** ausgewählt haben. Im Inneren sollte es eine Reihe von Ordnern geben, die mit dem Datum enden.

   Sie sollten beispielsweise so etwas wie **s3://**amzn-s3-demo-bucket**/*query-result-location*/Unsaved/2021/10/07/** sehen. Sie sollten `.csv`-Dateien sehen, die die Ergebnisse der ausgeführten `SELECT`-Abfrage enthalten. 

   Wählen Sie die CSV-Datei mit dem letzten Änderungsdatum aus. Laden Sie diese Datei für den nächsten Schritt auf Ihren lokalen Computer herunter.

1. Die generierte CSV-Datei enthält eine Headerzeile. Um diese CSV-Datei als Eingabe für einen S3-Batchvorgangsauftrag zu verwenden, müssen Sie den Header entfernen, da der Batchvorgang keine Header auf CSV-Manifesten unterstützt. 

   Um den Header zu entfernen, können Sie einen der folgenden Befehle für die Datei ausführen. Ersetzen Sie *`file.csv`* durch den Namen von Ihrer CSV-Datei. 

   **Führen Sie auf macOS- und Linux-Computern** den `tail`-Befehl in einem Terminalfenster aus. 

   ```
   tail -n +2 file.csv > tmp.csv && mv tmp.csv file.csv 
   ```

   Führen **Sie für Windows-Computer das folgende Skript** in einem Windows-Fenster aus. PowerShell Ersetzen Sie `File-location` durch den Dateipfad und `file.csv` durch den Namen Ihrer Datei.

   ```
   $ins = New-Object System.IO.StreamReader File-location\file.csv
   $outs = New-Object System.IO.StreamWriter File-location\temp.csv
   try {
       $skip = 0
       while ( !$ins.EndOfStream ) {
           $line = $ins.ReadLine();
           if ( $skip -ne 0 ) {
               $outs.WriteLine($line);
           } else {
               $skip = 1
           }
       }
   } finally {
       $outs.Close();
       $ins.Close();
   }
   Move-Item File-location\temp.csv File-location\file.csv -Force
   ```

1. Nachdem Sie den Header aus der CSV-Datei entfernt haben, können Sie sie als Manifest in einem S3-Batchvorgangsauftrag verwenden. Laden Sie die CSV-Datei in einen S3-Bucket oder einen Speicherort Ihrer Wahl hoch und erstellen Sie dann einen Batchvorgang-Auftrag mit der CSV-Datei als Manifest.

   Weitere Informationen zum Erstellen eines S3-Batchvorgang-Auftrags finden Sie unter [Erstellen eines S3-Batch-Vorgangsauftrags](batch-ops-create-job.md).

# Arbeiten mit dem Feld „Objekt-ACL“
<a name="objectacl"></a>

Eine Amazon-S3-Inventory-Bericht enthält eine Liste der Objekte im S3-Quell-Bucket sowie die Metadaten für jedes Objekt. Das Feld „Objekt-Zugriffsteuerungsliste (ACL)“ ist ein Metadatenfeld, das in Amazon S3 Inventory verfügbar ist. Insbesondere enthält das Feld „Objekt-ACL“ die Zugriffsteuerungsliste für jedes Objekt. Die ACL für ein Objekt definiert, welchen AWS-Konten Gruppen Zugriff auf dieses Objekt gewährt wird und welche Art von Zugriff gewährt wird. Weitere Informationen erhalten Sie unter [Zugriffskontrolllisten (ACL) – Übersicht](acl-overview.md) und [Amazon-S3-Inventory-Liste](storage-inventory.md#storage-inventory-contents). 

 Das Feld „Objekt-ACL“ in Berichten von Amazon S3 Inventory ist im JSON-Format definiert. Die JSON-Daten enthalten die folgenden Felder: 
+ `version` – Die Version des Objekt-ACL-Feldformats in den Bestandsberichten. Das Datumsformat lautet `yyyy-mm-dd`. 
+ `status` – Mögliche Werte sind `AVAILABLE` oder `UNAVAILABLE`, um anzugeben, ob eine Objekt-ACL für ein Objekt verfügbar ist. Wenn der Status für die Objekt-ACL `UNAVAILABLE` lautet, lautet der Wert des Felds „Objekteigentümer“ im Bestandsbericht ebenfalls `UNAVAILABLE`.
+ `grants` – Berechtigung-Berechtigungsempfänger-Paare, die den Berechtigungsstatus jedes Berechtigungsempfängers auflisten, der von der Objekt-ACL gewährt wird. Die verfügbaren Werte für einen Berechtigungsempfänger sind `CanonicalUser` und `Group`. Weitere Informationen zu den Berechtigungsempfängern finden Sie unter [Berechtigungsempfänger in Zugriffssteuerungslisten](https://docs.aws.amazon.com/AmazonS3/latest/userguide/acl-overview.html#specifying-grantee).

  Für einen Berechtigungsempfänger des Typs `Group` umfasst ein Berechtigung-Berechtigungsempfänger-Paar die folgenden Attribute:
  + `uri` – Eine vordefinierte Amazon-S3-Gruppe.
  + `permission` – Die ACL-Berechtigungen, die für das Objekt erteilt wurden. Weitere Informationen finden Sie unter [ACL-Berechtigungen für ein Objekt](https://docs.aws.amazon.com/AmazonS3/latest/userguide/acl-overview.html#permissions).
  + `type` – Den Typ `Group`, was bedeutet, dass es sich bei dem Berechtigungsempfänger um eine Gruppe handelt.

  Für einen Berechtigungsempfänger des Typs `CanonicalUser` umfasst ein Berechtigung-Berechtigungsempfänger-Paar die folgenden Attribute:
  + `canonicalId` – Eine verschleierte Form der  AWS-Konto -ID. Die kanonische Benutzer-ID für ein AWS-Konto ist spezifisch für dieses Konto. Sie können die kanonische Benutzer-ID abrufen. Weitere Informationen finden Sie unter [Finden Sie die kanonische Benutzer-ID für Ihr AWS-Konto](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-identifiers.html#FindCanonicalId) im *AWS Account Management Reference Guide*.
  + `permission` – Die ACL-Berechtigungen, die für das Objekt erteilt wurden. Weitere Informationen finden Sie unter [ACL-Berechtigungen für ein Objekt](https://docs.aws.amazon.com/AmazonS3/latest/userguide/acl-overview.html#permissions).
  + `type`— Der Typ`CanonicalUser`, der angibt, dass es sich bei dem Stipendiaten um einen handelt. AWS-Konto

Das folgende Beispiel zeigt mögliche Werte für das Feld „Objekt-ACL“ im JSON-Format: 

```
{
    "version": "2022-11-10",
    "status": "AVAILABLE",
    "grants": [{
        "uri": "http://acs.amazonaws.com/groups/global/AllUsers",
        "permission": "READ",
        "type": "Group"
    }, {
        "canonicalId": "example-canonical-id",
        "permission": "FULL_CONTROL",
        "type": "CanonicalUser"
    }]
}
```

**Anmerkung**  
Das Feld „Objekt-ACL“ ist im JSON-Format definiert. In einem Bestandsbericht wird der Wert für das Feld „Objekt-ACL“ als Base64-codierte Zeichenfolge angezeigt.  
Angenommen, Sie haben das folgende Feld „Objekt-ACL“ im JSON-Format:  

```
{
        "version": "2022-11-10",
        "status": "AVAILABLE",
        "grants": [{
            "canonicalId": "example-canonical-user-ID",
            "type": "CanonicalUser",
            "permission": "READ"
        }]
}
```
Das Feld „Objekt-ACL“ ist codiert und wird als die folgende Base64-codierte Zeichenfolge angezeigt:  

```
eyJ2ZXJzaW9uIjoiMjAyMi0xMS0xMCIsInN0YXR1cyI6IkFWQUlMQUJMRSIsImdyYW50cyI6W3siY2Fub25pY2FsSWQiOiJleGFtcGxlLWNhbm9uaWNhbC11c2VyLUlEIiwidHlwZSI6IkNhbm9uaWNhbFVzZXIiLCJwZXJtaXNzaW9uIjoiUkVBRCJ9XX0=
```
Um für das Feld „Objekt-ACL“ den dekodierten Wert in JSON abzurufen, können Sie dieses Feld in Amazon Athena abfragen. Abfragebeispiele finden Sie unter [Abfragen von Amazon S3 Inventory mit Amazon Athena](storage-inventory-athena-query.md).