Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Considérations relatives aux exportations de clusters de bases de données
Consultez les sections suivantes pour en savoir plus sur les limites, les conventions de dénomination des fichiers, ainsi que la conversion et le stockage des données lors de l'exportation de données de clusters de bases de données vers Amazon S3.
Limites
L'exportation de données du cluster de bases de données vers Amazon S3 présente les limites suivantes :
-
Vous ne pouvez pas exécuter simultanément plusieurs tâches d'exportation pour le même cluster de bases de données. Cette règle s'applique aux exportations complètes et partielles.
-
Vous pouvez avoir jusqu'à cinq tâches simultanées d'exportation de snapshots de base de données en cours par Compte AWS.
-
Aurora Serverless v1 Les clusters de base de données ne prennent pas en charge les exportations vers S3.
-
Aurora My SQL et Aurora Postgre SQL prennent en charge les exportations vers S3 uniquement pour le mode moteur provisionné.
-
Les exportations vers S3 ne prennent pas en charge les préfixes S3 contenant deux points (:).
-
Les caractères suivants du chemin d'accès au fichier S3 sont convertis en traits de soulignement (_) lors de l'exportation :
\ ` " (space)
-
Si une base de données, un schéma ou une table comporte des caractères autres que les suivants, l'exportation partielle n'est pas prise en charge. Toutefois, vous pouvez exporter l'ensemble du cluster de bases de données.
-
Lettres latines (A–Z)
-
Chiffres (0–9)
-
Symbole dollar ($)
-
Trait de soulignement (_)
-
-
Les espaces ( ) et certains caractères ne sont pas pris en charge dans les noms de colonnes des tables de base de données. Les tables dont les noms de colonnes contiennent les caractères suivants sont ignorées lors de l'exportation :
, ; { } ( ) \n \t = (space)
-
Les tables dont les noms contiennent des barres obliques (/) sont ignorées lors de l'exportation.
-
Les tables SQL temporaires et non enregistrées d'Aurora Postgre sont ignorées lors de l'exportation.
-
Si les données contiennent un objet volumineux, tel qu'un BLOB orCLOB, dont la taille est proche ou supérieure à 500 Mo, l'exportation échoue.
-
Si une table contient une grande ligne proche de ou supérieure à 2 Go, la table est ignorée lors de l'exportation.
-
Pour les exportations partielles, la taille maximale de la
ExportOnly
liste est de 200 Ko. -
Nous vous recommandons vivement d'utiliser un nom unique pour chaque tâche d'exportation. Si vous n'utilisez pas un nom de tâche unique, vous risquez de recevoir le message d'erreur suivant :
ExportTaskAlreadyExistsFault: Une erreur s'est produite (ExportTaskAlreadyExists) lors de l'appel de l' StartExportTaskopération : La tâche d'exportation avec l'ID
xxxxx
existe déjà. -
Certaines tables pouvant être ignorées, nous vous recommandons de vérifier les nombres de lignes et de tables dans les données après l'exportation.
Convention de dénomination de fichiers
Les données exportées pour des tables spécifiques sont stockées au format
, qui utilise le préfixe de base suivant :base_prefix
/files
export_identifier
/database_name
/schema_name
.table_name
/
Par exemple :
export-1234567890123-459/rdststcluster/mycluster.DataInsert_7ADB5D19965123A2/
Les fichiers de sortie utilisent la convention de dénomination suivante, où partition_index
est alphanumérique :
partition_index
/part-00000-random_uuid
.format-based_extension
Par exemple :
1/part-00000-c5a881bb-58ff-4ee6-1111-b41ecff340a3-c000.gz.parquet a/part-00000-d7a881cc-88cc-5ab7-2222-c41ecab340a4-c000.gz.parquet
La convention de dénomination de fichiers est sujette à modification. Par conséquent, lors de la lecture des tables cibles, nous vous conseillons de lire tout ce qui se trouve à l'intérieur du préfixe de base de la table.
Conversion des données et format de stockage
Lorsque vous exportez un cluster de base de données vers un compartiment Amazon S3, Amazon Aurora convertit, exporte et stocke les données au format Parquet. Pour de plus amples informations, veuillez consulter Conversion des données lors de l'exportation vers un compartiment Amazon S3.