Pipedrive エンティティからの読み取り
前提条件
-
読み取り元の Pipedrive オブジェクト。使用可能なエンティティを確認するには、以下のサポートされているエンティティの表を参照してください。
サポートされているエンティティ
| エンティティ | フィルタリング可能 | 制限をサポートする | Order By をサポートする | Select * をサポートする | パーティショニングをサポートする |
|---|---|---|---|---|---|
| アクティビティ | はい | あり | なし | あり | あり |
| アクティビティタイプ | なし | なし | なし | あり | なし |
| 通話ログ | なし | なし | なし | あり | なし |
| 通貨 | はい | あり | なし | あり | なし |
| Deals | はい | あり | あり | あり | あり |
| リード | はい | あり | あり | あり | なし |
| リードソース | なし | あり | なし | あり | なし |
| リードラベル | なし | なし | なし | なし | なし |
| コメント | はい | あり | あり | あり | あり |
| 組織 | はい | あり | なし | あり | あり |
| 許可セット | あり | なし | なし | あり | なし |
| 人物 | はい | あり | あり | あり | あり |
| Pipelines | なし | あり | なし | あり | なし |
| 製品 | はい | あり | なし | あり | あり |
| ロール | なし | あり | なし | あり | なし |
| ステージ | はい | あり | なし | あり | なし |
| [ユーザー] | なし | なし | なし | あり | なし |
例
pipedrive_read= glueContext.create_dynamic_frame.from_options( connection_type="PIPEDRIVE", connection_options={ "connectionName": "connectionName", "ENTITY_NAME": "activites", "API_VERSION": "v1" }
Pipedrive エンティティとフィールドの詳細
エンティティリスト:
-
アクティビティ: https://developers.pipedrive.com/docs/api/v1/Activities
-
アクティビティタイプ: https://developers.pipedrive.com/docs/api/v1/ActivityTypes
-
リードソース: https://developers.pipedrive.com/docs/api/v1/LeadSources
-
リードラベル: https://developers.pipedrive.com/docs/api/v1/LeadLabels
-
組織: https://developers.pipedrive.com/docs/api/v1/Organizations
-
許可セット: https://developers.pipedrive.com/docs/api/v1/PermissionSets
-
パイプライン: https://developers.pipedrive.com/docs/api/v1/Pipelines
| エンティティ | データタイプ | サポートされている演算子 |
|---|---|---|
| アクティビティ、ディール、メモ、組織、個人、製品。 | 日付 | '=' |
| 整数 | '=' | |
| 文字列 | '=' | |
| ブール値 | '=' |
パーティショニングクエリ
Pipedrive では、アクティビティエンティティの 1 つのフィールド (due_date) のみでフィールドベースのパーティショニングがサポートされています。それは日付フィールドです。
Spark で同時実行を使用する場合は、追加の Spark オプション PARTITION_FIELD、LOWER_BOUND、UPPER_BOUND、および NUM_PARTITIONS を指定できます。これらのパラメータを使用すると、元のクエリは Spark タスクで同時に実行できるサブクエリの NUM_PARTITIONS の数に分割されます。
-
PARTITION_FIELD: クエリのパーティション化に使用するフィールドの名前。 -
LOWER_BOUND: 選択したパーティションフィールドの包括的な下限値。日付については、Spark SQL クエリで使用される Spark の日付形式を受け入れます。有効な値の例:
"2024-02-06"。 -
UPPER_BOUND: 選択したパーティションフィールドの排他的上限値。 -
NUM_PARTITIONS: パーティション数。
例
pipedrive_read = glueContext.create_dynamic_frame.from_options( connection_type="PIPEDRIVE", connection_options={ "connectionName": "connectionName", "ENTITY_NAME": "activites", "API_VERSION": "v1", "PARTITION_FIELD": "due_date" "LOWER_BOUND": "2023-09-07T02:03:00.000Z" "UPPER_BOUND": "2024-05-07T02:03:00.000Z" "NUM_PARTITIONS": "10" }