Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Überlegungen zu Exporten von DB-Clustern
In den folgenden Abschnitten erfahren Sie mehr über Einschränkungen, Dateibenennungskonventionen sowie Datenkonvertierung und Speicherung beim Exportieren von DB-Cluster-Daten nach Amazon S3.
Einschränkungen
Das Exportieren von DB-Cluster-Daten nach Amazon S3 unterliegt folgenden Einschränkungen:
-
Sie können nicht mehrere Exportaufgaben für denselben DB-Cluster gleichzeitig ausführen. Dies gilt sowohl für vollständige als auch Teilexporte.
-
Sie können bis zu fünf gleichzeitige DB-Snapshot-Exportaufgaben pro AWS-Konto durchführen.
-
DB-Cluster von Aurora Serverless v1 unterstützen keine Exporte nach S3.
-
Aurora MySQL und Aurora PostgreSQL unterstützen Exporte nach S3 nur für den bereitgestellten Engine-Modus.
-
Exporte nach S3 unterstützen keine S3-Präfixe, die einen Doppelpunkt (:) enthalten.
-
Die folgenden Zeichen im S3-Dateipfad werden während des Exports in Unterstriche (_) konvertiert:
\ ` " (space) -
Wenn eine Datenbank, ein Schema oder eine Tabelle andere Zeichen als den folgenden enthält, wird ein teilweiser Export nicht unterstützt. Sie können jedoch den gesamten DB-Cluster exportieren.
-
Lateinische Buchstaben (A–Z)
-
Ziffern (0–9)
-
Dollar-Symbol ($)
-
Unterstrich (_)
-
-
Leerzeichen ( ) und bestimmte andere Zeichen werden in den Spaltennamen von Datenbanktabellen nicht unterstützt. Tabellen mit den folgenden Zeichen in Spaltennamen werden beim Export übersprungen:
, ; { } ( ) \n \t = (space) -
Tabellen mit Schrägstrichen (/) im Namen werden beim Export übersprungen.
-
Temporäre und nicht protokollierte Tabellen von Aurora PostgreSQL werden beim Export übersprungen.
-
Wenn die Daten ein großes Objekt wie BLOB oder CLOB mit einer Größe von 500 MB oder mehr enthalten, schlägt der Export fehl.
-
Wenn eine Zeile in einer Tabelle ca. 2 GB groß oder noch größer ist, wird die Tabelle beim Export übersprungen.
-
Bei Teilexporten beträgt die maximale Größe der
ExportOnly-Liste 200 KB. -
Es wird dringend empfohlen, für jede Exportaufgabe einen eindeutigen Namen zu verwenden. Wenn Sie keinen eindeutigen Aufgabennamen verwenden, erhalten Sie möglicherweise die folgende Fehlermeldung:
ExportTaskAlreadyExistsFault: Beim Aufrufen des StartExportTask-Vorgangs ist ein Fehler aufgetreten (ExportTaskAlreadyExists): Die Exportaufgabe mit der IDxxxxxist bereits vorhanden. -
Da einige Tabellen möglicherweise übersprungen werden, empfehlen wir, nach dem Export die Anzahl der Zeilen und Tabellen in den Daten zu überprüfen.
Benennungskonvention für Dateien
Exportierte Daten für bestimmte Tabellen werden im Format gespeichert, wobei das Basispräfix folgendes ist:base_prefix/files
export_identifier/database_name/schema_name.table_name/
Zum Beispiel:
export-1234567890123-459/rdststcluster/mycluster.DataInsert_7ADB5D19965123A2/
Ausgabedateien verwenden die folgende Benennungskonvention, wobei partition_index alphanumerisch ist:
partition_index/part-00000-random_uuid.format-based_extension
Zum Beispiel:
1/part-00000-c5a881bb-58ff-4ee6-1111-b41ecff340a3-c000.gz.parquet a/part-00000-d7a881cc-88cc-5ab7-2222-c41ecab340a4-c000.gz.parquet
Die Namenskonvention für Dateien kann geändert werden. Daher empfehlen wir beim Lesen von Zieltabellen, dass Sie alles innerhalb des Basispräfixes für die Tabelle lesen.
Datenkonvertierung und Speicherformat
Wenn Sie einen DB-Cluster in einen Amazon-S3-Bucket exportieren, konvertiert Amazon Aurora Daten in das Parquet-Format, exportiert Daten darin und speichert Daten in diesem Format. Weitere Informationen finden Sie unter Datenkonvertierung beim Exportieren in einen Amazon S3-Bucket.