Amazon Redshift ne prendra plus en charge la création de nouveaux Python UDFs à compter du 1er novembre 2025. Si vous souhaitez utiliser Python UDFs, créez la version UDFs antérieure à cette date. Le Python existant UDFs continuera à fonctionner normalement. Pour plus d'informations, consultez le billet de blog
Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
SVV_COPY_JOB_INTEGRATIONS
Utilisez SVV_COPY_JOB_INTEGRATIONS pour afficher les détails des intégrations d'événements S3.
Cette vue contient les intégrations d'événements S3 qui ont été créées.
SVV_COPY_JOB_INTEGRATIONS est visible par tous les utilisateurs. Les super-utilisateurs peuvent voir toutes les lignes, tandis que les utilisateurs standard peuvent voir uniquement leurs propres données. Pour plus d'informations, consultez Visibilité des données dans les tables et vues système.
Colonnes de la table
Nom de la colonne | Type de données | Description |
---|---|---|
propriétaire du poste | entier | Identifiant du propriétaire de la tâche. |
channel_arn | name | Identifiant d'intégration. |
bucket | text | Le nom du compartiment Amazon S3 associé à l'intégration. |
état du canal | name | État de l’intégration. Valeurs valides : Pending Established , etInactive . |
db_name | name | Nom de base de données de l'objet dépendant. |
job_name | text | Nom de la tâche . |
état_emploi | entier | L'état du poste. Valeurs valides : 0 pour actif, 1 pour en attente. |
L'exemple suivant renvoie les intégrations S3 pour la base de données actuelle.
SELECT * FROM SVV_COPY_JOB_INTEGRATIONS WHERE db_name = pg_catalog.current_database();