Lecture à partir d’entités Pipedrive - AWS Glue

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Lecture à partir d’entités Pipedrive

Prérequis

  • Un objet Pipedrive à partir duquel vous souhaitez lire. Reportez-vous au tableau des entités prises en charge ci-dessous pour vérifier les entités disponibles.

Entités prises en charge

Entité Peut être filtré Limit prise en charge Order by prise en charge Select prise en charge* Partitionnement pris en charge
Activités Oui Oui Non Oui Oui
Type d'activité Non Non Non Oui Non
Call Logs Non Non Non Oui Non
Currencies Oui Oui Non Oui Non
Deals Oui Oui Oui Oui Oui
Leads Oui Oui Oui Oui Non
Lead Sources Non Oui Non Oui Non
Lead Labels Non Non Non Non Non
Remarques Oui Oui Oui Oui Oui
Organisation Oui Oui Non Oui Oui
Jeux d'autorisations Oui Non Non Oui Non
Personnes Oui Oui Oui Oui Oui
Pipelines Non Oui Non Oui Non
Produits Oui Oui Non Oui Oui
Rôles Non Oui Non Oui Non
Étapes Oui Oui Non Oui Non
Users Non Non Non Oui Non

Exemple

pipedrive_read= glueContext.create_dynamic_frame.from_options( connection_type="PIPEDRIVE", connection_options={ "connectionName": "connectionName", "ENTITY_NAME": "activites", "API_VERSION": "v1" }

Détails des entités et des champs Pipedrive

Liste des entités :

Entité Type de données Opérateurs pris en charge
Activities, Deals, Notes, Organization, Persons et Products. Date '='
Entier '='
Chaîne '='
Booléen '='

Requêtes de partitionnement

Dans Pipedrive, un seul champ (due_date) de l’entité Activities prend en charge le partitionnement basé sur les champs. Il s’agit d’un champ Date.

Les options Spark supplémentaires PARTITION_FIELD, LOWER_BOUND, UPPER_BOUND et NUM_PARTITIONS peuvent être indiquées si vous souhaitez utiliser la simultanéité dans Spark. Avec ces paramètres, la requête d’origine serait divisée en NUM_PARTITIONS nombres de sous-requêtes pouvant être exécutées simultanément par les tâches Spark.

  • PARTITION_FIELD : le nom du champ à utiliser pour partitionner la requête.

  • LOWER_BOUND : une valeur limite inférieure inclusive du champ de partition choisi.

    Pour le champ Date, nous acceptons le format de date Spark utilisé dans les requêtes SQL Spark. Exemples de valeurs valides : "2024-02-06".

  • UPPER_BOUND : une valeur limite supérieure exclusive du champ de partition choisi.

  • NUM_PARTITIONS : nombre de partitions.

Exemple

pipedrive_read = glueContext.create_dynamic_frame.from_options( connection_type="PIPEDRIVE", connection_options={ "connectionName": "connectionName", "ENTITY_NAME": "activites", "API_VERSION": "v1", "PARTITION_FIELD": "due_date" "LOWER_BOUND": "2023-09-07T02:03:00.000Z" "UPPER_BOUND": "2024-05-07T02:03:00.000Z" "NUM_PARTITIONS": "10" }