Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Abfragen konfigurierter Tabellen mithilfe einer SQL-Analysevorlage
Dieses Verfahren zeigt, wie Sie eine Analysevorlage in der AWS Clean Rooms Konsole verwenden, um konfigurierte Tabellen mit der benutzerdefinierten Analyseregel abzufragen.
So verwenden Sie eine SQL-Analysevorlage, um konfigurierte Tabellen mit der benutzerdefinierten Analyseregel abzufragen
-
Melden Sie sich bei https://console.aws.amazon.com/cleanrooms
an AWS Management Console und öffnen Sie die AWS Clean Rooms Konsole. -
Wählen Sie im linken Navigationsbereich Collaborations aus.
-
Wählen Sie die Kollaboration aus, für die der Status Ihrer Mitgliederfähigkeiten den Status Abfragen ausführen lautet.
-
Sehen Sie sich auf der Registerkarte Analyse im Abschnitt Tabellen die Tabellen und den zugehörigen Analyseregeltyp an (benutzerdefinierte Analyseregel).
Anmerkung
Wenn Sie die erwarteten Tabellen nicht in der Liste sehen, kann das folgende Gründe haben:
-
Die Tabellen wurden nicht verknüpft.
-
Für die Tabellen ist keine Analyseregel konfiguriert.
-
-
Wählen Sie im Abschnitt Analyse für den Analysemodus die Option Analysevorlagen ausführen aus und wählen Sie dann die Analysevorlage aus der Dropdownliste aus.
-
Die Parameter aus der SQL-Analysevorlage werden automatisch in die Definition übernommen.
-
(Nur Spark Analytics Engine) Geben Sie den unterstützten Worker-Typ und die Anzahl der Worker an.
Verwenden Sie die folgende Tabelle, um den Typ und die Anzahl der Mitarbeiter zu ermitteln, die Sie für Ihren Anwendungsfall benötigen.
Worker type (Worker-Typ) vCPU Speicher (GB) Speicher (GB) Number of workers (Anzahl der Worker) Gesamtzahl der Verarbeitungseinheiten für Reinräume (CRPU) CR.1X (Standard) 4 30 100 4 8 128 256 CR.4X 16 120 400 4 32 32 256 Anmerkung
Verschiedene Arten von Arbeitnehmern und die Anzahl der Arbeitnehmer sind mit Kosten verbunden. Weitere Informationen zu den Preisen finden Sie unter AWS Clean Rooms Preisgestaltung
. -
(Nur Spark-Analytics-Engine) Geben Sie die unterstützten Spark-Eigenschaften an.
-
Wählen Sie Spark-Eigenschaften hinzufügen aus.
-
Wählen Sie im Dialogfeld „Spark-Eigenschaften“ einen Eigenschaftsnamen aus der Dropdownliste aus und geben Sie einen Wert ein.
Die folgende Tabelle enthält eine Definition für jede Eigenschaft.
Weitere Informationen zu Spark-Eigenschaften finden Sie unter Spark-Eigenschaften
in der Apache Spark-Dokumentation. Eigenschaftenname Description Standardwert spark.task.maxFailures
Steuert, wie oft eine Aufgabe hintereinander fehlschlagen kann, bevor der Job fehlschlägt. Erfordert einen Wert größer oder gleich 1. Die Anzahl der zulässigen Wiederholungen entspricht diesem Wert minus 1. Die Anzahl der Fehlschläge wird zurückgesetzt, wenn ein Versuch erfolgreich ist. Fehler bei verschiedenen Aufgaben summieren sich nicht bis zu diesem Limit.
4
spark.sql.files. maxPartitionBytes
Legt die maximale Anzahl von Byte fest, die beim Lesen aus dateibasierten Quellen wie Parquet, JSON und ORC in eine einzelne Partition gepackt werden sollen.
128 MB
spark.hadoop.fs.s3.max versucht es erneut
Legt die maximale Anzahl von Wiederholungsversuchen für Amazon S3 S3-Dateioperationen fest.
spark.network.timeout
Legt das Standard-Timeout für alle Netzwerkinteraktionen fest. Setzt die folgenden Timeout-Einstellungen außer Kraft, wenn sie nicht konfiguriert sind:
-
spark.storage. blockManagerHeartbeatTimeoutMs
-
spark.shuffle.io.ConnectionTimeout
-
spark.rpc.AskTimeout
-
spark.rpc.LookupTimeout
TBD
spark.rdd.com/press
Gibt an, ob serialisierte RDD-Partitionen mit spark.io.compression.codec komprimiert werden sollen. Gilt für StorageLevel .MEMORY_ONLY_SER in Java und Scala oder .MEMORY_ONLY in Python. StorageLevel Reduziert den Speicherplatz, erfordert jedoch zusätzliche CPU-Verarbeitungszeit.
FALSE
spark.shuffle.spill.com/press
Gibt an, ob Shuffle-Spill-Daten mit spark.io.compression.codec komprimiert werden sollen.
TRUE
spark.sql.adaptive. advisoryPartitionSizeInBytes
Legt die Zielgröße in Byte für Shuffle-Partitionen während der adaptiven Optimierung fest, wenn spark.sql.adaptive.enabled den Wert true hat. Steuert die Partitionsgröße beim Zusammenführen kleiner Partitionen oder beim Teilen schiefer Partitionen.
(Wert von spark.sql.adaptive.shuffle. targetPostShuffleInputSize)
spark.sql.adaptiv. autoBroadcastJoinSchwellenwert
Legt die maximale Tabellengröße in Byte für die Übertragung an Worker-Knoten bei Joins fest. Gilt nur im adaptiven Framework. Verwendet denselben Standardwert wie spark.sql. autoBroadcastJoinSchwellenwert. Auf -1 setzen, um die Übertragung zu deaktivieren.
(Keine)
spark.sql.adaptive.CoalescePartitions.Enabled
Gibt an, ob zusammenhängende Shuffle-Partitionen, die auf spark.sql.adaptive basieren, zusammengeführt werden sollen. advisoryPartitionSizeInBytes um die Aufgabengröße zu optimieren. Erfordert, dass spark.sql.adaptive.enabled den Wert true hat.
TRUE
spark.sql.adaptive.CoalescePartitions. initialPartitionNum
Definiert die anfängliche Anzahl von Shuffle-Partitionen vor dem Zusammenführen. Erfordert, dass sowohl spark.sql.adaptive.enabled als auch spark.sql.adaptive.CoalescePartitions.Enabled den Wert true haben. Der Standardwert ist der Wert von spark.sql.shuffle.partitions.
(Keine)
spark.sql.adaptive.CoalescePartitions. minPartitionSize
Legt die Mindestgröße für zusammengeführte Shuffle-Partitionen fest, um zu verhindern, dass Partitionen während der adaptiven Optimierung zu klein werden.
1 MB
spark.sql.adaptive.CoalescePartitions.ParallelismFirst
Gibt an, ob Partitionsgrößen auf der Grundlage der Cluster-Parallelität und nicht auf der Grundlage von spark.sql.adaptive berechnet werden sollen. advisoryPartitionSizeInBytes während der Zusammenführung von Partitionen. Generiert kleinere Partitionsgrößen als die konfigurierte Zielgröße, um die Parallelität zu maximieren. Wir empfehlen, diesen Wert bei stark frequentierten Clustern auf „False“ zu setzen, um die Ressourcennutzung zu verbessern und übermäßig kleine Aufgaben zu vermeiden.
TRUE
spark.sql.adaptive.enabled
Gibt an, ob die adaptive Abfrageausführung aktiviert werden soll, um Abfragepläne während der Abfrageausführung auf der Grundlage genauer Laufzeitstatistiken erneut zu optimieren.
TRUE
spark.sql.adaptive. forceOptimizeSkewedBeitreten
Gibt an, ob die Aktivierung erzwungen werden soll, OptimizeSkewedJoin auch wenn dadurch zusätzlicher Shuffle eingeführt wird.
FALSE
spark.sql.adaptive. localShuffleReader. aktiviert
Gibt an, ob lokale Shuffle-Reader verwendet werden sollen, wenn eine Shuffle-Partitionierung nicht erforderlich ist, z. B. nach der Konvertierung von Sort-Merge-Joins in Broadcast-Hash-Joins. Erfordert, dass spark.sql.adaptive.enabled den Wert true hat.
TRUE
spark.sql.adaptive. maxShuffledHashJoinLocalMapThreshold
Legt die maximale Partitionsgröße in Byte für die Erstellung lokaler Hash-Maps fest. Priorisiert gemischte Hash-Joins gegenüber Sort-Merge-Joins, wenn:
-
Dieser Wert entspricht oder übersteigt spark.sql.adaptive. advisoryPartitionSizeInBytes
-
Alle Partitionsgrößen liegen innerhalb dieser Grenze.
Überschreibt spark.sql.join. preferSortMergeJoin-Einstellung.
0 Byte
spark.sql.adaptiv. optimizeSkewsInRebalancePartitions. aktiviert
Gibt an, ob schiefe Shuffle-Partitionen optimiert werden sollen, indem sie auf der Grundlage von spark.sql.adaptive in kleinere Partitionen aufgeteilt werden. advisoryPartitionSizeInBytes. Erfordert, dass spark.sql.adaptive.enabled wahr ist.
TRUE
spark.sql.adaptive. rebalancePartitionsSmallPartitionFactor
Definiert den Größenschwellenwert für das Zusammenführen von Partitionen beim Teilen. Partitionen, die kleiner sind als dieser Faktor multipliziert mit spark.sql.adaptive. advisoryPartitionSizeInBytes werden zusammengeführt.
0.2
spark.sql.Adaptive.SkewJoin.Enabled
Gibt an, ob Datenverzerrungen in gemischten Verknüpfungen behandelt werden sollen, indem schiefe Partitionen aufgeteilt und optional repliziert werden. Gilt für Sort-Merge- und Shuffled-Hash-Joins. Erfordert, dass spark.sql.adaptive.enabled wahr ist.
TRUE
spark.sql.adaptive.SkewJoin. skewedPartitionFactor
Bestimmt den Größenfaktor, der die Partitionsneigung bestimmt. Eine Partition ist schief, wenn ihre Größe beide Werte überschreitet:
-
Dieser Faktor wird mit der mittleren Partitionsgröße multipliziert
-
Der Wert von spark.sql.adaptive.SkewJoin. skewedPartitionThresholdInBytes
5
spark.sql.Adaptive.SkewJoin. skewedPartitionThresholdInBytes
Legt den Größenschwellenwert in Byte zur Identifizierung schiefer Partitionen fest. Eine Partition ist schief, wenn ihre Größe beide Werte überschreitet:
-
Dieser Schwellenwert
-
Die mittlere Partitionsgröße multipliziert mit spark.sql.adaptive.SkewJoin. skewedPartitionFactor
Wir empfehlen, diesen Wert größer als spark.sql.adaptive festzulegen. advisoryPartitionSizeInBytes.
256 MB
spark.sql. autoBroadcastJoinSchwellenwert
Legt die maximale Tabellengröße in Byte für die Übertragung an Worker-Knoten bei Joins fest. Auf -1 setzen, um die Übertragung zu deaktivieren.
10 MB
spark.sql.BroadcastTimeout
Steuert den Timeout-Zeitraum in Sekunden für die Broadcast-Operationen bei Broadcast-Joins.
300 Sekunden
spark.sql.cbo.enabled
Gibt an, ob die kostenbasierte Optimierung (CBO) für die Schätzung von Planstatistiken aktiviert werden soll.
FALSE
spark.sql.CBO.JoinReorder.DP.Star.Filter
Gibt an, ob bei der kostenbasierten Join-Aufzählung Heuristiken des Star-Join-Filters angewendet werden sollen.
FALSE
spark.sql.CBO.JoinReorder.DP.Threshold
Legt die maximale Anzahl verbundener Knoten fest, die im dynamischen Programmieralgorithmus zulässig sind.
12
spark.sql.CBO.JoinReorder.Enabled
Gibt an, ob die Neuanordnung von Verknüpfungen bei der kostenbasierten Optimierung (CBO) aktiviert werden soll.
FALSE
spark.sql.CBO.PlanStats.Enabled
Gibt an, ob bei der Generierung logischer Pläne Zeilenanzahlen und Spaltenstatistiken aus dem Katalog abgerufen werden sollen.
FALSE
spark.sql.cbo. starSchemaDetection
Gibt an, ob die Neuanordnung von Verknüpfungen auf der Grundlage der Star-Schemaerkennung aktiviert werden soll.
FALSE
spark.sql.CrossJoin.Enabled
spark.sql.files. maxPartitionNum
Legt die maximale Zielanzahl von geteilten Dateipartitionen für dateibasierte Quellen (Parquet, JSON und ORC) fest. Skaliert Partitionen neu, wenn die anfängliche Anzahl diesen Wert überschreitet. Dies ist ein empfohlenes Ziel, kein garantiertes Limit.
(Keine)
spark.sql.files. maxRecordsPerDatei
Legt die maximale Anzahl von Datensätzen fest, die in eine einzelne Datei geschrieben werden sollen. Wenn der Wert auf Null oder einen negativen Wert gesetzt ist, gilt kein Limit.
0
spark.sql.files. minPartitionNum
Legt die Mindestanzahl von geteilten Dateipartitionen für dateibasierte Quellen (Parquet, JSON und ORC) fest. Die Standardeinstellung ist spark.sql. leafNodeDefaultParallelität. Dies ist ein empfohlenes Ziel, kein garantiertes Limit.
(Keine)
spark.sql. inMemoryColumnarSpeicher. Batchgröße
Steuert die Batchgröße für das spaltenförmige Caching. Eine Erhöhung der Größe verbessert die Speichernutzung und Komprimierung, erhöht jedoch das Fehlerrisiko out-of-memory.
10000
spark.sql. inMemoryColumnarSpeicher. Komprimiert
Gibt an, ob auf der Grundlage von Datenstatistiken automatisch Komprimierungscodecs für Spalten ausgewählt werden sollen.
TRUE
spark.sql. inMemoryColumnarAufbewahrung. enableVectorizedReader
Gibt an, ob vektorisiertes Lesen für das spaltenförmige Caching aktiviert werden soll.
TRUE
spark.sql.legacy. allowHashOnMapType
Gibt an, ob Hash-Operationen für Map-Datenstrukturen zulässig sind. Diese Legacy-Einstellung gewährleistet die Kompatibilität mit der Map-Typ-Behandlung älterer Spark-Versionen.
spark.sql.legacy. allowNegativeScaleOfDecimal
Gibt an, ob negative Skalenwerte in Dezimaltypdefinitionen zulässig sind. Diese ältere Einstellung gewährleistet die Kompatibilität mit älteren Spark-Versionen, die negative Dezimalskalen unterstützten.
spark.sql.legacy. castComplexTypesToString. aktiviert
Gibt an, ob veraltetes Verhalten für die Umwandlung komplexer Typen in Zeichenketten aktiviert werden soll. Behält die Kompatibilität mit den Typkonvertierungsregeln älterer Spark-Versionen bei.
spark.sql.legacy. charVarcharAsZeichenfolge
Gibt an, ob die Typen CHAR und VARCHAR als STRING-Typen behandelt werden sollen. Diese Legacy-Einstellung bietet Kompatibilität mit der Verarbeitung von String-Typen in älteren Spark-Versionen.
spark.sql.legacy. createEmptyCollectionUsingStringType
Gibt an, ob leere Sammlungen mithilfe von Zeichenkettenelementen erstellt werden sollen. Diese Legacy-Einstellung gewährleistet die Kompatibilität mit dem Verhalten älterer Spark-Versionen bei der Initialisierung von Sammlungen.
spark.sql.legacy. exponentLiteralAsDezimal. Aktiviert
Gibt an, ob exponentielle Literale als Dezimaltypen interpretiert werden sollen. Diese Legacy-Einstellung gewährleistet die Kompatibilität mit der numerischen Literalverarbeitung älterer Spark-Versionen.
spark.sql.legacy.json. allowEmptyString. aktiviert
Gibt an, ob leere Zeichenfolgen bei der JSON-Verarbeitung zulässig sind. Diese Legacy-Einstellung gewährleistet die Kompatibilität mit dem JSON-Parsing-Verhalten älterer Spark-Versionen.
spark.sql.legacy.parquet.int96 RebaseModelRead
Gibt an, ob beim Lesen von Parquet-Dateien der alte Timestamp-Rebase-Modus verwendet werden soll. INT96 Diese Legacy-Einstellung gewährleistet die Kompatibilität mit der Zeitstempelverarbeitung älterer Spark-Versionen.
spark.sql.legacy. timeParserPolicy
Steuert das Zeitanalyseverhalten aus Gründen der Abwärtskompatibilität. Diese ältere Einstellung bestimmt, wie Zeitstempel und Datumsangaben anhand von Zeichenketten analysiert werden.
spark.sql.Legacy.TypeCoercion. datetimeToString. aktiviert
Gibt an, ob bei der Konvertierung von Datetime-Werten in Zeichenfolgen das Zwangsverhalten älterer Typen aktiviert werden soll. Behält die Kompatibilität mit den Datetime-Konvertierungsregeln älterer Spark-Versionen bei.
spark.sql. maxSinglePartitionByte
Legt die maximale Partitionsgröße in Byte fest. Der Planer führt Shuffle-Operationen für größere Partitionen ein, um die Parallelität zu verbessern.
128 m
spark.sql.Metadatencache TTLSeconds
Steuert die (TTL) für time-to-live Metadaten-Caches. Gilt für Partitionsdatei-Metadaten und Sitzungskatalog-Caches. Erfordert:
-
Ein positiver Wert größer als Null
-
spark.sql.CatalogImplementation ist auf Hive gesetzt
-
spark.sql.hive. filesourcePartitionFileCacheSize größer als Null
-
spark.sql.hive. manageFilesourcePartitions auf true gesetzt
-1000 ms
spark.sql.optimizer. collapseProjectAlwaysInline
Gibt an, ob benachbarte Projektionen und Inline-Ausdrücke ausgeblendet werden sollen, auch wenn dies zu Duplikaten führt.
FALSE
spark.sql.optimizer. dynamicPartitionPruning. aktiviert
Gibt an, ob Prädikate für Partitionsspalten generiert werden sollen, die als Join-Schlüssel verwendet werden.
TRUE
spark.sql.optimizer. enableCsvExpressionOptimierung
Gibt an, ob CSV-Ausdrücke im SQL-Optimizer optimiert werden sollen, indem unnötige Spalten aus from_csv-Vorgängen entfernt werden.
TRUE
spark.sql.optimizer. enableJsonExpressionOptimierung
Gibt an, ob JSON-Ausdrücke im SQL-Optimizer wie folgt optimiert werden sollen:
-
Löschen unnötiger Spalten aus from_json-Vorgängen
-
Vereinfachung der Kombinationen from_json und to_json
-
Optimierung von named_struct-Operationen
TRUE
spark.sql.Optimizer.ExcludedRules
Definiert zu deaktivierende Optimizer-Regeln, identifiziert durch kommagetrennte Regelnamen. Einige Regeln können nicht deaktiviert werden, da sie aus Gründen der Richtigkeit erforderlich sind. Der Optimizer protokolliert, welche Regeln erfolgreich deaktiviert wurden.
(Keine)
spark.sql.optimizer.runtime.BloomFilter. applicationSideScanSizeThreshold
Legt die minimale aggregierte Scangröße in Byte fest, die erforderlich ist, um einen Bloom-Filter auf der Anwendungsseite einzufügen.
10 GB
spark.sql.Optimizer.Runtime.BloomFilter. creationSideThreshold
Definiert den maximalen Größenschwellenwert für die Injektion eines Bloom-Filters auf der Erstellungsseite.
10 MB
spark.sql.Optimizer.Runtime.BloomFilter.Enabled
Gibt an, ob ein Bloom-Filter eingefügt werden soll, um Shuffle-Daten zu reduzieren, wenn eine Seite einer Shuffle-Verknüpfung über ein selektives Prädikat verfügt.
TRUE
spark.sql.optimizer.runtime.BloomFilter. expectedNumItems
Definiert die Standardanzahl erwarteter Elemente im Runtime-Bloom-Filter.
1000000
spark.sql.optimizer.runtime.BloomFilter. maxNumBits
Legt die maximale Anzahl von Bits fest, die im Runtime-Bloom-Filter zulässig sind.
67108864
spark.sql.optimizer.runtime.BloomFilter. maxNumItems
Legt die maximale Anzahl erwarteter Elemente fest, die im Runtime-Bloom-Filter zulässig sind.
4000000
spark.sql.optimizer.runtime.BloomFilter.Number.Threshold
Schränkt die maximale Anzahl von Nicht-DPP-Laufzeitfiltern pro Abfrage ein, um Fehler im Treiber zu verhindern. out-of-memory
10
spark.sql.optimizer.runtime.BloomFilter.NumBits
Definiert die Standardanzahl von Bits, die im Runtime-Bloom-Filter verwendet werden.
8388608
spark.sql.optimizer.runtime. rowlevelOperationGroupFilter. Aktiviert
Gibt an, ob die Laufzeitgruppenfilterung für Operationen auf Zeilenebene aktiviert werden soll. Ermöglicht Datenquellen:
-
Löschen ganzer Datengruppen (wie Dateien oder Partitionen) mithilfe von Datenquellenfiltern
-
Führen Sie Laufzeitabfragen aus, um übereinstimmende Datensätze zu identifizieren
-
Verwerfen Sie unnötige Gruppen, um teure Neuschreibungen zu vermeiden
Einschränkungen:
-
Nicht alle Ausdrücke können in Datenquellenfilter konvertiert werden
-
Einige Ausdrücke erfordern eine Spark-Auswertung (z. B. Unterabfragen)
TRUE
spark.sql.Optimizer.RuntimeFilter. semiJoinReduction. aktiviert
Gibt an, ob ein Semi-Join eingefügt werden soll, um die Anzahl der Shuffle-Daten zu reduzieren, wenn eine Seite einer Shuffle-Verknüpfung ein selektives Prädikat hat.
FALSE
spark.sql.parquet.AggregatePushDown
Gibt an, ob Aggregate zur Optimierung nach Parquet übertragen werden sollen. Unterstützt:
-
MIN und MAX für die Typen Boolean, Integer, Float und Date
-
COUNT für alle Datentypen
Löst eine Ausnahme aus, wenn Statistiken in einer Fußzeile einer Parquet-Datei fehlen.
FALSE
spark.sql.parquet. columnarReaderBatchGröße
Steuert die Anzahl der Zeilen in jedem Stapel von vektorisierten Parquet-Readern. Wählen Sie einen Wert, der Leistungsaufwand und Speichernutzung ausbalanciert, um Fehler zu vermeiden out-of-memory.
4096
spark.sql.session.TimeZone
Definiert die Sitzungszeitzone für die Verarbeitung von Zeitstempeln in Zeichenfolgenliteralen und die Konvertierung von Java-Objekten. Akzeptiert:
-
Regionsbasiertes IDs area/city Format (z. B. America/Los_Angeles)
-
Zonenversätze im Format (+/-) HH, (+/-) HH:mm oder (+/-) HH:mm:SS (z. B. -08 oder + 01:00)
-
UTC oder Z als Aliase für + 00:00
(Wert der lokalen Zeitzone)
spark.sql.shuffle.partitions
Legt die Standardanzahl von Partitionen für das Mischen von Daten bei Verknüpfungen oder Aggregationen fest. Kann zwischen Neustarts strukturierter Streaming-Abfragen von derselben Checkpoint-Position aus nicht geändert werden.
200
spark.sql. shuffledHashJoinFaktor
Definiert den Multiplikationsfaktor, der verwendet wird, um die Eignung für einen Shuffle-Hash-Join zu bestimmen. Ein Shuffle-Hash-Join wird ausgewählt, wenn die kleine Datengröße multipliziert mit diesem Faktor kleiner ist als die große Datengröße.
3
spark.sql.sources. parallelPartitionDiscovery. Schwellenwert
Legt die maximale Anzahl von Pfaden für die treiberseitige Dateiauflistung mit dateibasierten Quellen (Parquet, JSON und ORC) fest. Wenn sie bei der Partitionserkennung überschritten werden, werden Dateien mithilfe eines separaten verteilten Spark-Jobs aufgelistet.
32
spark.sql.statistics.histogram.enabled
Gibt an, ob bei der Berechnung der Spaltenstatistiken Histogramme mit gleicher Höhe generiert werden sollen, um die Schätzgenauigkeit zu verbessern. Erfordert einen zusätzlichen Tabellenscan, der über den für einfache Spaltenstatistiken erforderlichen hinausgeht.
FALSE
-
-
Klicken Sie auf Ausführen.
Anmerkung
Sie können die Abfrage nicht ausführen, wenn das Mitglied, das Ergebnisse empfangen kann, die Einstellungen für die Abfrageergebnisse nicht konfiguriert hat.
-
Passen Sie die Parameter weiter an und führen Sie Ihre Abfrage erneut aus, oder klicken Sie auf die Schaltfläche +, um eine neue Abfrage auf einer neuen Registerkarte zu starten.