

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Behebung von Fehlern bei Datenrepository-Aufgaben
<a name="failed-tasks"></a>

Sie können die [Protokollierung in Logs aktivieren](cw-event-logging.md), um Informationen über Fehler zu CloudWatch protokollieren, die beim Import oder Export von Dateien mithilfe von Datenrepository-Aufgaben aufgetreten sind. Informationen zu CloudWatch Protokoll-Ereignisprotokollen finden Sie unter[Datenrepository-Ereignisprotokolle](data-repo-event-logs.md).

Wenn eine Datenrepository-Aufgabe fehlschlägt, finden Sie die Anzahl der Dateien, die Amazon FSx nicht verarbeiten konnte, unter **Dateien konnten nicht exportiert** werden auf der **Task-Statusseite** der Konsole. Oder Sie können die CLI oder API verwenden und die `Status: FailedCount` Eigenschaft der Aufgabe anzeigen. Informationen zum Zugriff auf diese Informationen finden Sie unter[Zugreifen auf Datenrepository-Aufgaben](view-data-repo-tasks.md). 

Für Datenrepository-Aufgaben stellt Amazon optional FSx auch Informationen zu den spezifischen Dateien und Verzeichnissen, bei denen Fehler aufgetreten sind, in einem Abschlussbericht zur Verfügung. Der Bericht über den Abschluss der Aufgabe enthält den Datei- oder Verzeichnispfad auf dem Lustre Dateisystem, bei dem der Fehler aufgetreten ist, seinen Status und die Fehlerursache. Weitere Informationen finden Sie unter [Mit Berichten über den Abschluss von Aufgaben arbeiten](task-completion-report.md).

Eine Datenrepository-Aufgabe kann aus verschiedenen Gründen fehlschlagen, unter anderem aus den unten aufgeführten Gründen.


| Fehlercode | Erklärung | 
| --- | --- | 
|  `FileSizeTooLarge`  |  Die von Amazon S3 unterstützte maximale Objektgröße beträgt 5 TiB.  | 
|  `InternalError`  |  Im FSx Amazon-Dateisystem ist bei einer Import-, Export- oder Release-Aufgabe ein Fehler aufgetreten. Im Allgemeinen bedeutet dieser Fehlercode, dass sich das FSx Amazon-Dateisystem, auf dem die fehlgeschlagene Aufgabe ausgeführt wurde, im Lebenszyklusstatus FAILED befindet. In diesem Fall können die betroffenen Dateien aufgrund von Datenverlust möglicherweise nicht wiederhergestellt werden. Andernfalls können Sie HSM-Befehle (Hierarchical Storage Management) verwenden, um die Dateien und Verzeichnisse in das Datenrepository auf S3 zu exportieren. Weitere Informationen finden Sie unter [Exportieren von Dateien mithilfe von HSM-Befehlen](exporting-files-hsm.md).  | 
|  `OperationNotPermitted`  | Amazon FSxkonnte die Datei nicht veröffentlichen, da sie nicht in einen verknüpften S3-Bucket exportiert wurde. Sie müssen automatische Export- oder Export-Datenrepository-Aufgaben verwenden, um sicherzustellen, dass Ihre Dateien zuerst in Ihren verknüpften Amazon S3 S3-Bucket exportiert werden.  | 
|  `PathSizeTooLong`  |  Der Exportpfad ist zu lang. Die maximale Länge des Objektschlüssels, die von S3 unterstützt wird, beträgt 1.024 Zeichen.  | 
|  `ResourceBusy`  | Amazon FSxkonnte die Datei nicht exportieren oder veröffentlichen, da ein anderer Client im Dateisystem auf sie zugegriffen hat. Sie können es erneut versuchen, DataRepositoryTask nachdem Ihr Workflow das Schreiben in die Datei abgeschlossen hat.  | 
|  `S3AccessDenied`  |  Der Zugriff auf Amazon S3 wurde für eine Export- oder Importaufgabe des Datenrepositorys verweigert. Für Exportaufgaben muss das FSx Amazon-Dateisystem über die Berechtigung verfügen, den `S3:PutObject` Vorgang zum Exportieren in ein verknüpftes Datenrepository auf S3 auszuführen. Diese Berechtigung wird in der `AWSServiceRoleForFSxS3Access_fs-0123456789abcdef0` serviceverknüpften Rolle erteilt. Weitere Informationen finden Sie unter [Verwenden von serviceverknüpften Rollen für Amazon FSx](using-service-linked-roles.md). Da bei Exportaufgaben Daten außerhalb der VPC eines Dateisystems fließen müssen, kann dieser Fehler auftreten, wenn das Ziel-Repository über eine Bucket-Richtlinie verfügt, die einen der globalen Bedingungsschlüssel `aws:SourceVpc` oder `aws:SourceVpce` IAM-Bedingungsschlüssel enthält. Für Importaufgaben muss das FSx Amazon-Dateisystem über die Berechtigung verfügen, die `S3:GetObject` AND-Operationen für den `S3:HeadObject` Import aus einem verknüpften Daten-Repository auf S3 auszuführen. Wenn Ihr S3-Bucket für Importaufgaben serverseitige Verschlüsselung mit in AWS Key Management Service (SSE-KMS) gespeicherten kundenverwalteten Schlüsseln verwendet, müssen Sie die Richtlinienkonfigurationen unter befolgen. [Arbeiten mit serverseitig verschlüsselten Amazon S3 S3-Buckets](s3-server-side-encryption-support.md) Wenn Ihr S3-Bucket Objekte enthält, die von einem anderen AWS-Konto als Ihrem mit dem Dateisystem verknüpften S3-Bucket-Konto hochgeladen wurden, können Sie sicherstellen, dass Ihre Datenrepository-Aufgaben S3-Metadaten ändern oder S3-Objekte überschreiben können, unabhängig davon, welches Konto sie hochgeladen hat. Wir empfehlen Ihnen, die Funktion S3-Objektbesitz für Ihren S3-Bucket zu aktivieren. Mit dieser Funktion können Sie die Verantwortung für neue Objekte übernehmen, die von anderen in Ihren Bucket AWS-Konten hochgeladen werden, indem Sie Uploads dazu zwingen, die gespeicherte ACL `-/-acl bucket-owner-full-control` bereitzustellen. Sie aktivieren S3 Object Ownership, indem Sie in Ihrem **S3-Bucket die bevorzugte Option des Bucket-Besitzers** auswählen. Weitere Informationen finden Sie unter [Steuern des Eigentums an hochgeladenen Objekten mithilfe von S3 Object Ownership](https://docs.aws.amazon.com/AmazonS3/latest/userguide/about-object-ownership.html) im *Amazon S3 S3-Benutzerhandbuch*.  | 
|  `S3Error`  |  Amazon FSx ist auf einen S3-Fehler gestoßen, der nicht aufgetreten ist. `S3AccessDenied`  | 
|  `S3FileDeleted`  | Amazon FSx konnte eine Hardlink-Datei nicht exportieren, da die Quelldatei nicht im Daten-Repository existiert. | 
|  `S3ObjectInUnsupportedTier`  | Amazon FSx hat erfolgreich ein Objekt ohne Symlink aus einer Speicherklasse S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive importiert. Das `FileStatus` wird im Bericht über den `succeeded with warning` Abschluss der Aufgabe enthalten sein. Die Warnung weist darauf hin, dass Sie zum Abrufen der Daten zuerst das Objekt S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive wiederherstellen und dann einen `hsm_restore` Befehl verwenden müssen, um das Objekt zu importieren.  | 
|  `S3ObjectNotFound`  | Amazon FSx konnte die Datei nicht importieren oder exportieren, da sie nicht im Datenspeicher vorhanden ist. | 
|  `S3ObjectPathNotPosixCompliant`  |  Das Amazon S3 S3-Objekt ist vorhanden, kann aber nicht importiert werden, da es kein POSIX-kompatibles Objekt ist. Informationen zu unterstützten POSIX-Metadaten finden Sie unter. [Unterstützung von POSIX-Metadaten für Datenrepositorys](posix-metadata-support.md)  | 
|  `S3ObjectUpdateInProgressFromFileRename`  | Amazon FSxkonnte die Datei nicht veröffentlichen, da der automatische Export eine Umbenennung der Datei verarbeitet. Der automatische Umbenennungsprozess für den Export muss abgeschlossen sein, bevor die Datei veröffentlicht werden kann.  | 
|  `S3SymlinkInUnsupportedTier`  | Amazon FSx konnte ein Symlink-Objekt nicht importieren, da es sich in einer Amazon S3 S3-Speicherklasse befindet, die nicht unterstützt wird, wie z. B. einer S3 Glacier Flexible Retrieval- oder S3 Glacier Deep Archive Archive-Speicherklasse. Das `FileStatus` wird `failed` im Bericht zum Abschluss der Aufgabe enthalten sein. | 
|  `SourceObjectDeletedBeforeReleasing`  | Amazon FSx konnte die Datei nicht aus dem Dateisystem freigeben, da die Datei aus dem Daten-Repository gelöscht wurde, bevor sie veröffentlicht werden konnte. | 