Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Résolution des problèmes AWS Clean Rooms
Cette section décrit certains problèmes courants susceptibles de survenir lors de l'utilisation AWS Clean Rooms et explique comment les résoudre.
Problèmes
Une ou plusieurs tables référencées par la requête ne sont pas accessibles par le rôle de service associé. Le table/role propriétaire doit accorder au rôle de service l'accès à la table.
-
Vérifiez que les autorisations pour le rôle de service sont configurées conformément aux exigences. Pour plus d'informations, consultezCon AWS Clean Rooms figuration.
L'un des ensembles de données sous-jacents possède un format de fichier non pris en charge.
-
Assurez-vous que votre ensemble de données est dans l'un des formats de fichier pris en charge :
-
Parquet
-
RCFile
-
TextFile
-
SequenceFile
-
RegexSerde
-
OpenCSV
-
AVRO
-
JSON
Pour de plus amples informations, veuillez consulter Formats de données pour AWS Clean Rooms.
-
Les résultats des requêtes ne sont pas ceux attendus lors de l'utilisation de l'informatique cryptographique pourClean Rooms.
Si vous utilisez l'informatique cryptographique pour Clean Rooms (C3R), vérifiez que votre requête utilise correctement les colonnes chiffrées :
-
Les sealed colonnes ne sont utilisées que dans les SELECT clauses.
-
Les fingerprint colonnes ne sont utilisées que dans JOIN les clauses (et GROUP BY les clauses sous certaines conditions).
-
Que vous n'êtes que JOINing fingerprint des colonnes portant le même nom si les paramètres de collaboration l'exigent.
Pour plus d’informations, consultez Informatique cryptographique pour Clean Rooms et Types de colonnes dans le calcul cryptographique pour Clean Rooms.
AWS Clean Rooms Spark SQL : données de partition manquantes
Si vous utilisez le moteur AWS Clean Rooms Spark SQL avec des tables partitionnées (tables S3), toutes les partitions AWS Glue Data Catalog doivent également contenir des données dans S3. Le moteur utilise le paramètre Spark spark.sql.files.ignoreMissingFiles=False
Pour plus d'informations, voir https://spark.apache.org/docs/latest/sql-data-sources-generic-options.html# ignore-missing-files
Si vous rencontrez cette erreur, le message d'erreur suivant s'affichera : "Missing
partition data: One of the configured tables is partitioned and one or more of the
partitions does not have data".
Comparez vos données présentes dans Amazon S3 avec les partitions répertoriées dans AWS Glue Data Catalog le tableau correspondant. Supprimez les partitions qui n'ont pas de données correspondantes dans S3.