Amazon Redshift ne prendra plus en charge la création de nouvelles fonctions Python définies par l’utilisateur à compter du 1er novembre 2025. Si vous souhaitez utiliser des fonctions Python définies par l’utilisateur, créez-les avant cette date. Les fonctions Python définies par l’utilisateur existantes continueront de fonctionner normalement. Pour plus d’informations, consultez le billet de blog
Considérations relatives à l’unité de partage des données avec des tables de lacs de données dans Amazon Redshift
Voici des éléments à prendre en compte lors de l’utilisation des tables de lacs de données dans Amazon Redshift :
-
Le partage de données de tables de lacs de données ne prend pas en charge les AWS KMS keys gérées par le client pour le chiffrement des compartiments Amazon S3. Vous pouvez utiliser Clés gérées par AWS pour le chiffrement. Pour plus d’informations, consultez Utilisation du chiffrement côté serveur avec des clés gérées par Amazon S3 (SSE-S3).
-
Pour partager des tables de lacs de données à partir d’un catalogue AWS Glue chiffré, vous devez déléguer les opérations AWS KMS à un rôle IAM en suivant les instructions de la section Chiffrement de votre catalogue de données.
-
Les tables externes qui spécifient explicitement les fichiers manifestes dans la clause
LOCATIONne sont pas prises en charge pour le partage de données. Cela inclut les tables suivantes prises en charge par Amazon Redshift Spectrum :Delta Lake
Hudi