

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Wie Amazon EFS Dateisystem- und Objektgrößen meldet
<a name="metered-sizes"></a>

In den folgenden Abschnitten wird beschrieben, wie Amazon EFS Dateisystemgrößen, Objektgrößen innerhalb eines Dateisystems und Dateisystemdurchsatz meldet.

## Messung von EFS-Dateisystemobjekten
<a name="metered-sizes-fs-objects"></a>

Zu den Objekten, die Sie in einem EFS-Dateisystem anzeigen können, gehören reguläre Dateien, Verzeichnisse, symbolische Links und spezielle Dateien (FIFOs und Sockets). Jedes dieser Objekte wird auf 2 KiB (Kibibyte) Metadaten (für den Inode) und ein oder mehrere Schritte von 4 KiB Daten gemessen. In der folgenden Liste werden die gemessenen Datengrößen für verschiedene Arten von Dateisystemobjekten erläutert:
+ **Normale Dateien**: Die gemessene Datengröße einer normalen Datei ist die logische Größe der Datei, gerundet auf den nächsten 4 KiB-Schritt. Bei Sparse-Dateien kann der Wert allerdings geringer sein.

  Eine *Sparse-Datei* ist eine Datei, bei der nicht in alle Dateipositionen Daten geschrieben werden, bevor ihre logische Größe erreicht ist. Bei einer Sparse-Datei ist der tatsächlich verwendete Speicherplatz in einigen Fällen geringer als die auf den nächsten 4 KiB-Schritt gerundete logische Größe. In diesen Fällen meldet Amazon EFS den tatsächlich belegten Speicher als gemessene Datengröße.
+ **Verzeichnisse** – Die gemessene Datengröße eines Verzeichnisses ist der für die Verzeichniseinträge und die Datenstruktur, in der diese enthalten sind, tatsächlich verwendete Speicher, gerundet auf den nächsten 4 KiB-Schritt. Die gemessene Datengröße beinhaltet nicht den tatsächlich von den Dateidaten verwendeten Speicherplatz.
+ **Symbolische Verknüpfungen und besondere Dateien** – Die gemessene Datengröße für diese Objekte beträgt immer 4 KiB.

Wenn Amazon EFS den für ein Objekt belegten Speicherplatz über das NFSv4 .1 `space_used` -Attribut meldet, schließt es die aktuelle gemessene Datengröße des Objekts ein, nicht jedoch die Metadatengröße. Sie können zwei Dienstprogramme zum Messen der Datenträgerverwendung einer Datei verwenden, `du` und `stat`. Im Folgenden finden Sie ein Beispiel für die Verwendung des `du` Dienstprogramms für eine leere Datei, das die `-k` Option enthält, die Ausgabe in Kilobyte zurückzugeben.

```
$ du -k file
4      file
```

Das folgende Beispiel zeigt, wie das `stat` Hilfsprogramm für eine leere Datei verwendet wird, um den Speicherverbrauch der Datei zurückzugeben.

```
$ /usr/bin/stat --format="%b*%B" file | bc
4096
```

Wenn Sie die Größe eines Verzeichnisses messen möchten, verwenden Sie das Dienstprogramm `stat`. Suchen Sie den Wert `Blocks`, und multiplizieren Sie diesen Wert mit der Blockgröße. Es folgt ein Beispiel für die Verwendung des Dienstprogramms `stat` mit einem leeren Verzeichnis:

```
$ /usr/bin/stat --format="%b*%B" . | bc 
4096
```

## Gemessene Größe eines EFS-Dateisystems
<a name="metered-sizes-fs"></a>

Die gemessene Größe eines EFS-Dateisystems umfasst die Summe der Größen aller aktuellen Objekte in allen EFS-Speicherklassen. Die Größe jedes Objekts wird anhand einer repräsentativen Stichprobe berechnet, die die Größe des Objekts während der gemessenen Stunde, also beispielsweise der Stunde zwischen 08:00 Uhr und 09:00 Uhr, darstellt.

Eine leere Datei trägt beispielsweise 6 KiB (2 KiB Metadaten \$1 4 KiB Daten) zur gemessenen Größe des Dateisystems bei. Bei der Erstellung verfügt ein Dateisystem über ein einzelnes leeres Stammverzeichnis, daher beträgt die gemessene Größe 6 KiB.

Die gemessenen Größen eines bestimmten Dateisystems legen die Nutzung fest, die dem Konto des Besitzers für das betreffende Dateisystem und die betreffende Stunde in Rechnung gestellt wird.

**Anmerkung**  
Die berechnete gemessene Größe stellt keinen konsistenten Snapshot des Dateisystems zu einem bestimmten Zeitpunkt während dieser Stunde dar. Sie stellt vielmehr die Größe der Objekte dar, die zu unterschiedlichen Zeiten innerhalb der Stunde oder möglicherweise der Stunde davor auf dem Dateisystem vorhanden waren. Diese Größe ist eine Summe der gemessenen Größe des Dateisystems zu dieser Stunde. Die gemessene Größe eines Dateisystems ist somit letztendlich mit den gemessenen Größen der gespeicherten Objekte konsistent, wenn es keine Schreibvorgänge in das Dateisystem gibt.

Sie können die gemessene Größe für ein EFS-Dateisystem auf folgende Weise anzeigen:
+ Unter Verwendung des [https://docs.aws.amazon.com/cli/latest/reference/efs/describe-file-systems.html](https://docs.aws.amazon.com/cli/latest/reference/efs/describe-file-systems.html) AWS CLI Befehls und der [DescribeFileSystem](API_DescribeFileSystems.md)API-Operation umfasst die Antwort Folgendes:

  ```
  "SizeInBytes":{
              "Timestamp": 1403301078,
              "Value": 29313744866,
              "ValueInIA": 675432,
              "ValueInStandard": 29312741784
              "ValueInArchive": 327650
           }
  ```

  Wobei die gemessene Größe von auch verwendet `ValueInStandard` wird, um den I/O Basisdurchsatz und die Burst-Raten für Dateisysteme zu bestimmen, die den [Bursting-Durchsatz](performance.md#throughput-modes) verwenden.
+ Sehen Sie sich die `StorageBytes` CloudWatch Metrik an, die die gemessene Gesamtgröße der Daten in den einzelnen Speicherklassen anzeigt. Für weitere Informationen über die `StorageBytes`-Metrik siehe [CloudWatch Metriken für Amazon EFS](efs-metrics.md). 
+ Führen Sie in Linux bei der Terminal-Eingabeaufforderung einer EC2-Instance den Befehl `df` aus. 

  Verwenden Sie den **du** Befehl im Stammverzeichnis des Dateisystems nicht zur Speichermessung, da die Antwort nicht den vollständigen Datensatz wiedergibt, der für die Messung Ihres Dateisystems verwendet wurde.

**Anmerkung**  
Mithilfe der gemessenen Größe `ValueInStandard` werden auch Ihre Baseline- und Burst-Raten für den E/A-Durchsatz ermittelt. Weitere Informationen finden Sie unter [Bursting-Durchsatz](performance.md#bursting).

### Messung seltener Zugriffe und Archivierung der Speicherklassen
<a name="metered-sizes-IA"></a>

Die EFS-Speicherklassen Infrequent Access (IA) und Archive werden in Schritten von 4 KiB berechnet und haben eine Mindestabrechnungsgebühr von 128 KiB pro Datei. IA- und Archivdatei-Metadaten (2 KiB pro Datei) werden immer in der Standard-Speicherklasse gespeichert und gemessen. Die Support für Dateien, die kleiner als 128 KiB sind, ist nur für Lebenszyklusrichtlinien verfügbar, die am oder nach 12:00 Uhr PT am 26. November 2023 aktualisiert wurden. Der Datenzugriff für IA und Archivspeicher wird in Schritten von 128 KiB gemessen.

Sie können die `StorageBytes` CloudWatch Metrik verwenden, um die gemessene Datengröße in jeder Speicherklasse anzuzeigen. Die Metrik zeigt auch die Gesamtzahl der Byte an, die bei der Rundung kleiner Dateien innerhalb der Speicherklassen IA und Archive verbraucht werden. Weitere Informationen zum Anzeigen von CloudWatch Metriken finden Sie unter. [Zugreifen auf CloudWatch Metriken für Amazon EFS](accessingmetrics.md) Für weitere Informationen über die `StorageBytes`-Metrik siehe [CloudWatch Metriken für Amazon EFS](efs-metrics.md). 

## Mess-Durchsatz
<a name="metering-throughput"></a>

Amazon EFS misst den Durchsatz für Leseanfragen auf ein Drittel der Geschwindigkeit der anderen I/O Dateisystemoperationen. Wenn Sie beispielsweise einen Lese- und Schreibdurchsatz von 30 Mebibyte pro Sekunde (MiBps) erzielen, zählt der Leseteil als 10 Mebibyte MiBps des effektiven Durchsatzes, der Schreibanteil zählt als 30 MiBps und der kombinierte gemessene Durchsatz beträgt 40. MiBps Dieser kombinierte Durchsatz, bereinigt um die Verbrauchsraten, spiegelt sich in der Metrik wider. `MeteredIOBytes` CloudWatch 

### Messung des Elastischen Durchsatzes
<a name="metering-elastic-throughput"></a>

Wenn der Elastic Throughput-Modus für ein Dateisystem aktiviert ist, zahlen Sie nur für die Menge an Metadaten und Daten, die aus dem Dateisystem gelesen oder in das Dateisystem geschrieben werden. EFS-Dateisysteme, die den Elastic Throughput Mode Meter verwenden und Metadatenlesevorgänge als Lesevorgänge und Metadaten-Schreibvorgänge als Schreibvorgänge abrechnen. Metadatenoperationen werden in Schritten von 1 KiB nach den ersten 4 KiB gemessen. Datenoperationen werden nach den ersten 32 KiB in Schritten von 1 KiB gemessen.

**Anmerkung**  
Elastic Throughput ist zwar darauf ausgelegt, elastisch mit Ihrem Durchsatz zu skalieren, wir empfehlen jedoch, im Rahmen Ihrer betrieblichen Best Practices eine angemessene Steuerung durch die Überwachung von Metriken mit CloudWatch (MeteredIOBytes) und Nutzungswarnungen zu implementieren. Dies hilft Ihnen dabei, eine optimale Ressourcennutzung aufrechtzuerhalten und Ihre geplanten Betriebsparameter einzuhalten. Weitere Informationen finden Sie unter [Metriken mit Amazon überwachen CloudWatch](monitoring-cloudwatch.md). 

### Messen des bereitgestellten Durchsatzes
<a name="metering-provisioned-throughput"></a>

Bei Dateisystemen, die den Durchsatzmodus Bereitgestellt verwenden, zahlen Sie nur für die Zeit, für die der Durchsatz aktiviert ist. Amazon EFS misst Dateisysteme mit aktiviertem Bereitstellungsdurchsatzmodus einmal pro Stunde. Für die Messung, wenn der Bereitgestellte Durchsatzmodus auf weniger als eine Stunde eingestellt ist, berechnet Amazon EFS den Zeitdurchschnitt mit einer Genauigkeit von Millisekunden.