Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Lesen aus Asana-Entitäten
Voraussetzungen
Ein Asana-Objekt, aus dem gelesen werden soll. In der folgenden Tabelle mit unterstützten Entitäten können Sie die verfügbaren Entitäten überprüfen.
Unterstützte Entitäten für Quelle
| Entität | Kann gefiltert werden | Unterstützt Limit | Unterstützt „Sortieren nach“ | Unterstützt „* auswählen“ | Unterstützt Partitionierung |
|---|---|---|---|---|---|
|
Workspace |
Nein | Ja | Nein | Ja | Nein |
| Markierung | Nein | Ja | Nein | Ja | Nein |
| Benutzer | Nein | Ja | Nein | Ja | Nein |
|
Portfolio |
Nein | Ja | Nein | Ja | Nein |
| Team | Nein | Ja | Nein | Ja | Nein |
| Projekt | Ja | Ja | Nein | Ja | Nein |
| Abschnitt | Nein | Ja | Nein | Ja | Nein |
| Aufgabe | Ja | Nein | Nein | Ja | Ja |
| Ziel | Ja | Ja | Nein | Ja | Nein |
|
AuditLogEvent |
Ja | Ja | Nein | Ja | Nein |
|
Statusaktualisierung |
Ja | Ja | Nein | Ja | Nein |
|
Benutzerdefiniertes Feld |
Nein | Ja | Nein | Ja | Nein |
|
Kurzbeschreibung des Projekts |
Ja | Nein | Nein | Ja | Ja |
Beispiel
read_read = glueContext.create_dynamic_frame.from_options( connection_type="Asana", connection_options={ "connectionName": "connectionName", "ENTITY_NAME": "task/workspace:xxxx", "API_VERSION": "1.0", "PARTITION_FIELD": "created_at", "LOWER_BOUND": "2024-02-05T14:09:30.115Z", "UPPER_BOUND": "2024-06-07T13:30:00.134Z", "NUM_PARTITIONS": "3" }
Asana-Entitäts- und Felddetails
Partinionieren von Abfragen
Die zusätzlichen Spark-Optionen PARTITION_FIELD, LOWER_BOUND, UPPER_BOUND und NUM_PARTITIONS können angegeben werden, wenn Sie Parallelität in Spark nutzen möchten. Mit diesen Parametern würde die ursprüngliche Abfrage in NUM_PARTITIONS Unterabfragen aufgeteilt, die von Spark-Aufgaben gleichzeitig ausgeführt werden können.
-
PARTITION_FIELD: der Name des Feldes, das zur Partitionierung der Abfrage verwendet werden soll. -
LOWER_BOUND: ein inklusiver Untergrenzwert des ausgewählten Partitionsfelds.Als Datum akzeptieren wir das Spark-Datumsformat, das in Spark-SQL-Abfragen verwendet wird. Beispiel für gültige Werte:
2024-06-07T13:30:00.134Z. -
UPPER_BOUND: ein exklusiver Obergrenzwert des ausgewählten Partitionsfelds. -
NUM_PARTITIONS: Anzahl der Partitionen.
Details zur Unterstützung von Feldern für die entitätsbezogene Partitionierung sind in der folgenden Tabelle aufgeführt.
| Entity Name | Partitionierungsfeld | Datentyp |
|---|---|---|
| Aufgabe |
created_at |
DateTime |
| Aufgabe |
modified_at |
DateTime |
Beispiel
read_read = glueContext.create_dynamic_frame.from_options( connection_type="Asana", connection_options={ "connectionName": "connectionName", "ENTITY_NAME": "task/workspace:xxxx", "API_VERSION": "1.0", "PARTITION_FIELD": "created_at", "LOWER_BOUND": "2024-02-05T14:09:30.115Z", "UPPER_BOUND": "2024-06-07T13:30:00.134Z", "NUM_PARTITIONS": "3" }