Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Behebung häufiger Fehler bei der Verwendung des Spark Cassandra Connectors mit Amazon Keyspaces
Wenn Sie Amazon Virtual Private Cloud verwenden und eine Verbindung zu Amazon Keyspaces herstellen, werden die häufigsten Fehler bei der Verwendung des Spark-Connectors durch die folgenden Konfigurationsprobleme verursacht.
Dem in der VPC verwendeten IAM-Benutzer oder der Rolle fehlen die erforderlichen Berechtigungen für den Zugriff auf die
system.peers
Tabelle in Amazon Keyspaces. Weitere Informationen finden Sie unter Auffüllen von system.peers Tabelleneinträgen mit VPC-Endpunktinformationen der Schnittstelle.Dem IAM-Benutzer oder der IAM-Rolle fehlen die erforderlichen Lese-/Schreibberechtigungen für die Benutzertabelle und der Lesezugriff auf die Systemtabellen in Amazon Keyspaces. Weitere Informationen finden Sie unter Schritt 1: Amazon Keyspaces für die Integration mit dem Apache Cassandra Spark Connector konfigurieren.
Die Java-Treiberkonfiguration deaktiviert die Überprüfung des Hostnamens beim Erstellen der SSL/TLS-Verbindung nicht. Beispiele finden Sie unter Schritt 2: Konfigurieren Sie den Treiber.
Detaillierte Schritte zur Fehlerbehebung bei Verbindungen finden Sie unter. Meine VPC-Endpunktverbindung funktioniert nicht richtig
Darüber hinaus können Sie CloudWatch Amazon-Metriken verwenden, um Probleme mit Ihrer Spark Cassandra Connector-Konfiguration in Amazon Keyspaces zu beheben. Weitere Informationen zur Verwendung von Amazon Keyspaces mit finden Sie CloudWatch unterÜberwachung von Amazon Keyspaces mit Amazon CloudWatch.
Im folgenden Abschnitt werden die nützlichsten Messwerte beschrieben, die Sie bei der Verwendung des Spark Cassandra Connectors beobachten sollten.
- PerConnectionRequestRateExceeded
-
Amazon Keyspaces hat ein Kontingent von 3.000 Anfragen pro Sekunde und Verbindung. Jeder Spark-Executor stellt eine Verbindung mit Amazon Keyspaces her. Wenn Sie mehrere Wiederholungen durchführen, kann Ihr Kontingent für die Anforderungsrate pro Verbindung ausgeschöpft sein. Wenn Sie dieses Kontingent überschreiten, gibt Amazon Keyspaces eine
PerConnectionRequestRateExceeded
Metrik in aus. CloudWatchWenn Sie feststellen, dass PerConnectionRequestRateExceeded Ereignisse zusammen mit anderen System- oder Benutzerfehlern auftreten, führt Spark wahrscheinlich mehrere Wiederholungen durch, die über die zugewiesene Anzahl von Anfragen pro Verbindung hinausgehen.
Wenn Sie
PerConnectionRequestRateExceeded
Ereignisse ohne andere Fehler sehen, müssen Sie möglicherweise die Anzahl der Verbindungen in Ihren Treibereinstellungen erhöhen, um einen höheren Durchsatz zu erzielen, oder Sie müssen möglicherweise die Anzahl der Executoren in Ihrem Spark-Job erhöhen. - StoragePartitionThroughputCapacityExceeded
-
Amazon Keyspaces hat ein Kontingent von 1.000 WCUs oder WRUs pro Sekunde/3.000 RCUs oder RRUs pro Sekunde pro Partition. Wenn Sie
StoragePartitionThroughputCapacityExceeded
CloudWatch Ereignisse sehen, könnte dies darauf hindeuten, dass Daten beim Laden nicht randomisiert werden. Beispiele für das Mischen von Daten finden Sie unter. Schritt 4: Bereiten Sie die Quelldaten und die Zieltabelle in Amazon Keyspaces vor
Häufige Fehler und Warnungen
Wenn Sie Amazon Virtual Private Cloud verwenden und eine Verbindung zu Amazon Keyspaces herstellen, gibt der Cassandra-Treiber möglicherweise eine Warnmeldung über den Kontrollknoten selbst in der system.peers
Tabelle aus. Weitere Informationen finden Sie unter Häufige Fehler und Warnungen. Sie können diese Warnung getrost ignorieren.