AWS Data Pipeline は新規顧客には利用できなくなりました。の既存のお客様は、通常どおりサービスを AWS Data Pipeline 引き続き使用できます。詳細はこちら
翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
コマンドラインを使用した Amazon Redshift へのデータのコピー
このチュートリアルでは、データを Amazon S3 から Amazon Redshift にコピーする方法を示します。Amazon Redshift で新しいテーブルを作成し、 AWS Data Pipeline を使用して、CSV 形式のサンプル入力データを含むパブリック Amazon S3 バケットからこのテーブルにデータを転送します。ログはお客様が所有する Amazon S3 バケットに保存されます。
Amazon S3 は、クラウドにデータを保存できるウェブサービスです。詳細については、Amazon Simple Storage Serviceユーザーガイドを参照してください。Amazon Redshift は、クラウド内のデータウェアハウスサービスです。詳細については、「Amazon Redshift 管理ガイド」を参照してください。
前提条件
開始する前に、次のステップを完了しておく必要があります。
-
コマンドラインインターフェイス (CLI) をインストールして設定します。詳細については、「アクセス AWS Data Pipeline」を参照してください。
-
DataPipelineDefaultRole と DataPipelineDefaultResourceRole という名前の IAM ロールが存在していることを確認します。 AWS Data Pipeline コンソールでは、これらのロールが自動的に作成されます。 AWS Data Pipeline コンソールを一度も使用していない場合は、これらのロールを手動で作成する必要があります。詳細については、「の IAM ロール AWS Data Pipeline」を参照してください。
-
Amazon Redshift で
COPY
コマンドをセットアップします。これは AWS Data Pipelineでコピーを実行するときに同じオプションが機能する必要があるためです。詳細については、「開始する前に: COPY オプションの設定とデータのロード」を参照してください。 -
Amazon Redshift データベースを設定します。詳細については、「パイプラインのセットアップ、セキュリティグループの作成、および Amazon Redshift クラスターの作成」を参照してください。