翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Amazon Keyspaces へのデータの一括アップロードまたは移行に適したツールを選択する方法
このセクションでは、Amazon Keyspaces にデータを一括アップロードまたは移行するために使用できるさまざまなツールを確認し、ニーズに応じて適切なツールを選定する方法を学びます。また、Amazon Keyspaces にデータをインポートする方法をステップバイステップで案内するチュートリアルについて、その概要と使用例を紹介します。
Apache Cassandra から Amazon Keyspaces にワークロードを移行するための戦略を確認するには、「Apache Cassandra から Amazon Keyspaces への移行の計画を立てる」を参照してください。
-
移行ツール
大規模な移行については、抽出、変換、ロード (ETL) ツールの使用を検討してください。 AWS Glue を使用すると、データ変換移行を迅速かつ効果的に実行できます。詳細については、「オフライン移行プロセス: Apache Cassandra から Amazon Keyspaces への移行」を参照してください。
CQLReplicator – CQLReplicator はオープンソースのユーティリティで、Github
から入手できます。このユーティリティを利用して、Apache Cassandra から Amazon Keyspaces にほぼリアルタイムでデータを移行できます。 詳細については、「CQLReplicator を使用してデータを移行する」を参照してください。
Amazon Managed Streaming for Apache Kafka を使用して、デュアル書き込みによるオンライン移行プロセスを実装する方法の詳細については、「Guidance for continuous data migration from Apache Cassandra to Amazon Keyspaces
」を参照してください。 Apache Cassandra Spark コネクタを使用して Amazon Keyspaces にデータを書き込む方法については、「チュートリアル: Apache Spark と統合してデータをインポートまたはエクスポートする」を参照してください。
cqlsh
COPY FROM
コマンドを使用してデータを Amazon Keyspaces にロードすることから始めます。cqlsh は、Apache Cassandra に含まれており、小さなデータセットまたはテストデータのロードに最適です。手順については、「チュートリアル: cqlsh を使用した Amazon Keyspaces へのデータのロード」を参照してください。また、Apache Cassandra 用の DataStax Bulk Loader を使用すれば、
dsbulk
コマンドを使用して Amazon Keyspaces にデータをロードできます。DSBulk は、インポート機能が cqlsh よりも強力で、GitHub リポジトリから入手できます。手順については、「チュートリアル: DSBulk を使用した Amazon Keyspaces へのデータのロード」を参照してください。
Amazon Keyspaces へのデータアップロードに関する一般的な考慮事項
-
データを小さな単位に分けてアップロードします。
生データサイズの観点から、次の移行単位とその潜在的なフットプリントを考慮してください。1 つまたは複数のフェーズで少量ずつデータをアップロードすれば、移行を簡単に進めることができます。
クラスター別 — すべての Cassandra データを一度に移行します。このアプローチはクラスターが小さければおそらく問題ありません。
-
キースペース別またはテーブル別 - 移行をキースペースまたはテーブルのグループに分割します。このアプローチは、各ワークロードの要件に基づいてフェーズでデータを移行する場合に役立ちます。
データ別 - データサイズを縮小するために、特定のユーザーまたは製品グループのデータを移行することを検討します。
-
最初に優先的にアップロードするデータを処理のしやすさに基づいて決めます。
特定の時間に変更されないデータ、夜間のバッチジョブのデータ、オフライン時間に使用されないデータ、内部アプリのデータなど、最初に簡単に移行できるデータがあるかどうかを検討します。