

 Amazon Redshift は、パッチ 198 以降、新しい Python UDF の作成をサポートしなくなります。既存の Python UDF は、2026 年 6 月 30 日まで引き続き機能します。詳細については、[ブログ記事](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/)を参照してください。

# データベースにデータをロードする
<a name="query-editor-v2-loading"></a>

クエリエディタ v2 を使用して Amazon Redshift クラスターまたはワークグループのデータベースにデータをロードできます。このセクションでは、サンプルデータ、S3 からのデータ、ローカルファイルのセットアップとワークフローからのデータをロードする方法について説明します。

## サンプルデータ
<a name="query-editor-v2-loading-sample-data"></a>

クエリエディタ v2 には、サンプルデータベースと対応するスキーマにロードできるサンプルデータとノートブックが付属しています。

サンプルデータをロードするには、ロードするサンプルデータに関連付けられている ![\[External\]](http://docs.aws.amazon.com/ja_jp/redshift/latest/mgmt/images/external.png) アイコンをクリックします。これにより、クエリエディタ v2 が `sample_data_dev` データベースのスキーマにデータをロードして、[Notebooks] フォルダに保存済みクエリのフォルダを作成します。

次のサンプルデータセットが利用可能です。

**tickit**  
Amazon Redshift ドキュメントのほとんどの例では、`tickit` というサンプルデータを使用します。このデータは、7 個のテーブルで構成されています。そのうち 2 個はファクトテーブル、5 個はディメンションです。このデータをロードすると、スキーマ `tickit` がサンプルデータで更新されます。`tickit` データの詳細については、「*Amazon Redshift データベースデベロッパーガイド*」の「[サンプルデータベース](https://docs.aws.amazon.com/redshift/latest/dg/c_sampledb.html)」を参照してください。

**tpch**  
このデータは、決定サポートのベンチマークに使用されます。このデータをロードすると、スキーマ `tpch` がサンプルデータで更新されます。`tpch` データの詳細については、「[TPC-H](http://www.tpc.org/tpch/)」を参照してください。

**tpcds**  
このデータは、決定サポートのベンチマークに使用されます。このデータをロードすると、スキーマ `tpcds` がサンプルデータで更新されます。`tpcds` データの詳細については、「[TPC-DS](http://www.tpc.org/tpcds/)」を参照してください。

# Amazon S3 からデータをロードする
<a name="query-editor-v2-loading-data"></a>

既存のテーブルまたは新しいテーブルに Amazon S3 データをロードできます。

**データを既存のテーブルにロードするには**

クエリエディタ v2 は、Amazon S3 からデータをロードするために COPY コマンドを使用します。クエリエディタ v2 の [データのロード] ウィザードで生成および使用される COPY コマンドは、Amazon S3 からのコピー時に COPY コマンド構文で使用できる、多くのパラメータをサポートしています。Amazon S3 からデータをロードするための COPY コマンドと使用するオプションの詳細については、*Amazon Redshift データベース開発者ガイド*の「[Amazon S3 からの COPY](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-source-s3.html)」を参照してください。

1. データをロードするデータベースに、テーブルがすでに作成されていることを確認します。

1. 次に進む前に、クエリエディタ v2 のツリービューパネルで、ターゲットデータベースに接続していることを確認します。コンテキストメニュー (右クリック) を使用して、データをロードするクラスターまたはワークグループへの接続を作成できます。

   ![\[Load\]](http://docs.aws.amazon.com/ja_jp/redshift/latest/mgmt/images/qev2-upload.png)**[Load data]** (データをロード) をクリックします。

1. **[データソース]** では、**[S3 バケットからロード]** を選択します。

1. **[S3 URI]** で **[Browse S3]** (S3 をブラウズ) をクリックして、ロードするデータが含まれている Amazon S3 バケットを検索します。

1. 指定した Amazon S3 バケットがターゲットテーブルと同じ AWS リージョン にない場合、**[S3 file location]** (S3 ファイルの場所) でデータが置かれた AWS リージョン を選択します。

1. Amazon S3 ファイルが実際に複数の Amazon S3 バケット URI を含むマニフェストである場合。**[This file is a manifest file]** (このファイルはマニフェストファイルです) を選択します。

1. アップロードするファイルの **[File format]** (ファイル形式) を選択します。サポートされているデータ形式は、CSV、JSON、DELIMITER、FIXEDWIDTH、SHAPEFILE、AVRO、PARQUET、ORC です。指定したファイル形式に応じて、それぞれの **[File options]** (ファイルオプション) を選択できます。また、データが暗号化されており、暗号化に使用する KMS キーの Amazon リソースネーム (ARN) を入力した場合には、**[Data is encrypted]** (データは暗号化されています) を選択できます。

   CSV または DELIMITER を選択すると、指定した行数が実際には列名であり、ロードするデータではない場合に、**[区切り文字]** で **[ヘッダー行を無視する]** を選択することもできます。

1. 圧縮方法を選択してファイルを圧縮します。デフォルトでは圧縮なしです。

1. (オプション) **[Advanced settings]** (詳細設定) では、さまざまな **[Data conversion parameters]** (データ変換パラメータ) や **[Load operations]** (ロードオペレーション) がサポートされています。ファイルの必要に応じて、この情報を入力します。

   データ変換パラメータとデータロードパラメータの詳細については、「*Amazon Redshift データベースデベロッパーガイド*」の「[データ変換パラメータ](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html)」と「[データのロード操作](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-load.html)」を参照してください。

1. [**次へ**] を選択します。

1. **[既存のテーブルをロード]** を選択します。

1. **[クラスターまたはワークグループ]**、**[データベース]**、**[スキーマ]**、**[テーブル]** の名前など、データをロードする先の **[ターゲットテーブル]** の場所を確認または選択します。

1. Amazon S3 からデータをロードするために必要な許可を持つ **[IAM role]** (IAM ロール) を選択します。

1. (オプション) 列名を選択して **[Column mapping]** (列のマッピング) に入力すると、入力データファイルの順序で列がマッピングされます。

1. **[Load data]** (データをロード) をクリックして、データのロードを開始します。

   ロードが完了すると、データのロードのために生成された COPY コマンドとともに、クエリエディタが表示されます。COPY の **[Result]** (結果) は次のように表示されます。成功すると、ロードされたテーブルから SQL を使用してデータを選択できるようになります。エラーが発生した場合は、システムビュー STL\$1LOAD\$1ERRORS にクエリを実行して、詳細を取得します。COPY コマンドとそのエラーについては、*Amazon Redshift データベース開発者ガイド*の「[STL\$1LOAD\$1ERRORS](https://docs.aws.amazon.com/redshift/latest/dg/r_STL_LOAD_ERRORS.html)」を参照してください。

新しいテーブルにデータをロードすると、クエリエディタ v2 は最初にデータベースにテーブルを作成してから、同じワークフローの別のアクションとしてデータをロードします。

**データを新しいテーブルにロードするには**

クエリエディタ v2 は、Amazon S3 からデータをロードするために COPY コマンドを使用します。クエリエディタ v2 の [データのロード] ウィザードで生成および使用される COPY コマンドは、Amazon S3 からのコピー時に COPY コマンド構文で使用できる、多くのパラメータをサポートしています。Amazon S3 からデータをロードするための COPY コマンドと使用するオプションの詳細については、*Amazon Redshift データベース開発者ガイド*の「[Amazon S3 からの COPY](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-source-s3.html)」を参照してください。

1. 次に進む前に、クエリエディタ v2 のツリービューパネルで、ターゲットデータベースに接続していることを確認します。コンテキストメニュー (右クリック) を使用して、データをロードするクラスターまたはワークグループへの接続を作成できます。

   ![\[Load\]](http://docs.aws.amazon.com/ja_jp/redshift/latest/mgmt/images/qev2-upload.png)**[Load data]** (データをロード) をクリックします。

1. **[データソース]** では、**[S3 バケットからロード]** を選択します。

1. **[S3 URI]** で **[Browse S3]** (S3 をブラウズ) をクリックして、ロードするデータが含まれている Amazon S3 バケットを検索します。

1. 指定した Amazon S3 バケットがターゲットテーブルと同じ AWS リージョン にない場合、**[S3 file location]** (S3 ファイルの場所) でデータが置かれた AWS リージョン を選択します。

1. Amazon S3 ファイルが実際に複数の Amazon S3 バケット URI を含むマニフェストである場合。**[This file is a manifest file]** (このファイルはマニフェストファイルです) を選択します。

1. アップロードするファイルの **[File format]** (ファイル形式) を選択します。サポートされているデータ形式は、CSV、JSON、DELIMITER、FIXEDWIDTH、SHAPEFILE、AVRO、PARQUET、ORC です。指定したファイル形式に応じて、それぞれの **[File options]** (ファイルオプション) を選択できます。また、データが暗号化されており、暗号化に使用する KMS キーの Amazon リソースネーム (ARN) を入力した場合には、**[Data is encrypted]** (データは暗号化されています) を選択できます。

   CSV または DELIMITER を選択すると、指定した行数が実際には列名であり、ロードするデータではない場合に、**[区切り文字]** で **[ヘッダー行を無視する]** を選択することもできます。

1. 圧縮方法を選択してファイルを圧縮します。デフォルトでは圧縮なしです。

1. (オプション) **[Advanced settings]** (詳細設定) では、さまざまな **[Data conversion parameters]** (データ変換パラメータ) や **[Load operations]** (ロードオペレーション) がサポートされています。ファイルの必要に応じて、この情報を入力します。

   データ変換パラメータとデータロードパラメータの詳細については、「*Amazon Redshift データベースデベロッパーガイド*」の「[データ変換パラメータ](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html)」と「[データのロード操作](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-load.html)」を参照してください。

1. [**次へ**] を選択します。

1. **[新しいテーブルをロード]** を選択します。

   テーブルの列は入力データから推測されます。列とテーブルの詳細を追加すると、テーブルスキーマの定義を変更できます。クエリエディタ v2 の推測されたテーブルスキーマに戻すには、**[デフォルトに戻す]** を選択します。

1. **[クラスターまたはワークグループ]**、**[データベース]**、**[スキーマ]** など、データをロードする先の **[ターゲットテーブル]** の場所を確認または選択します。作成する**テーブル**の名前を入力します。

1. Amazon S3 からデータをロードするために必要な許可を持つ **[IAM role]** (IAM ロール) を選択します。

1. **[テーブルを作成]** を選択し、表示されている定義を使用してテーブルを作成します。

   テーブル定義のレビューの要約が表示されます。テーブルがデータベースに作成されます。後でテーブルを削除するには、DROP TABLE SQL コマンドを実行します。詳細については、*Amazon Redshift データベースデベロッパーガイド*の「[DROP TABLE](https://docs.aws.amazon.com/redshift/latest/dg/r_DROP_TABLE)」を参照してください。

1. **[Load data]** (データをロード) をクリックして、データのロードを開始します。

   ロードが完了すると、データのロードのために生成された COPY コマンドとともに、クエリエディタが表示されます。COPY の **[Result]** (結果) は次のように表示されます。成功すると、ロードされたテーブルから SQL を使用してデータを選択できるようになります。エラーが発生した場合は、システムビュー STL\$1LOAD\$1ERRORS にクエリを実行して、詳細を取得します。COPY コマンドとそのエラーについては、*Amazon Redshift データベース開発者ガイド*の「[STL\$1LOAD\$1ERRORS](https://docs.aws.amazon.com/redshift/latest/dg/r_STL_LOAD_ERRORS.html)」を参照してください。

# ローカルファイル設定とワークフローからのデータのロード
<a name="query-editor-v2-loading-data-local"></a>

ローカルファイルから既存のテーブルまたは新しいテーブルにデータをロードできます。

## ローカルファイルからデータをロードするための管理者設定
<a name="query-editor-v2-loading-data-local-setup"></a>

クエリエディタ v2 の管理者は、**[Account settings]** (アカウント設定) ウィンドウで共通の Amazon S3 バケットを指定する必要があります。アカウントユーザーは適切な権限で設定されている必要があります。
+ 必要な IAM 権限 – ローカルファイルからロードするユーザーには、`s3:ListBucket`、`s3:GetBucketLocation`、`s3:putObject`、`s3:getObject`、および `s3:deleteObject` 権限が必要です。*optional-prefix* を指定すると、このバケットのクエリエディタ v2 関連の使用をこのプレフィックスの付いたオブジェクトに制限できます。このオプションは、同じ Amazon S3 バケットをクエリエディタ v2 以外の用途に使用する場合に使用できます。バケットとプレフィックスの詳細については、「*Amazon Simple Storage Service*」ユーザーガイドの「[Managing user access to specific folders](https://docs.aws.amazon.com/AmazonS3/latest/userguide/example-bucket-policies.html#example-bucket-policies-folders)」(特定のフォルダへのユーザーアクセスの管理) を参照してください。ユーザー間のデータアクセスが許可されないようにするには、クエリエディタ v2 管理者が Amazon S3 バケットポリシーを使用して、`aws:userid` に基づいてオブジェクトアクセスを制限することをお勧めします。次の例では、*<staging-bucket-name>* に、`aws:userid` というプレフィックスがある Amazon S3 オブジェクトのみへの読み取り/書き込み Amazon S3 アクセス権限を許可します。

------
#### [ JSON ]

****  

  ```
  {
      "Version":"2012-10-17",		 	 	 
      "Statement": [
          {
              "Effect": "Allow",
              "Action": [
                  "s3:ListBucket",
                  "s3:GetBucketLocation"
              ],
              "Resource": [
                  "arn:aws:s3:::<staging-bucket-name>"
              ]
          },
          {
              "Effect": "Allow",
              "Action": [
                  "s3:PutObject",
                  "s3:GetObject",
                  "s3:DeleteObject"
              ],
              "Resource": [
                  "arn:aws:s3:::<staging-bucket-name>[/<optional-prefix>]/${aws:userid}/*"
              ]
          }
      ]
  }
  ```

------
+ データの分離 – ユーザーがお互いのデータに (たとえ短時間でも) アクセスできないようにすることをお勧めします。ローカルファイルからのロードでは、クエリエディタ v2 管理者が設定したステージング Amazon S3 バケットを使用します。ステージングバケットのバケットポリシーを設定して、ユーザー間のデータを分離します。次の例は、*<staging-bucket-name>* のユーザー間でデータを分離するバケットポリシーを示しています。

------
#### [ JSON ]

****  

  ```
  {
   "Version":"2012-10-17",		 	 	 
      "Statement": [
          {"Sid": "userIdPolicy",
              "Effect": "Deny",
              "Principal": "*",
              "Action": ["s3:PutObject",
                         "s3:GetObject",
                         "s3:DeleteObject"],
              "NotResource": [
                  "arn:aws:s3:::<staging-bucket-name>[/<optional-prefix>]/${aws:userid}/*"
              ]
           }
      ]
  }
  ```

------

## ローカルファイルからのデータのロード
<a name="query-editor-v2-loading-data-local-procedure"></a>

**ローカルファイルデータを既存のテーブルにロードするには**

クエリエディタ v2 の管理者は、**アカウント設定**ウィンドウで共通の Amazon S3 バケットを指定する必要があります。クエリエディタ v2 は、アカウントが使用する共通の Amazon S3 バケットにローカルファイルを自動的にアップロードしてから、COPY コマンドを使用してデータをロードします。クエリエディタ v2 のローカルファイルの読み込みウィンドウで生成および実行される COPY コマンドは、Amazon S3 からのコピー時に COPY コマンド構文で使用できる、多くのパラメータをサポートしています。Amazon S3 からデータをロードするための COPY コマンドと使用するオプションの詳細については、「*Amazon Redshift データベース開発者ガイド*」の「[Amazon S3 からの COPY](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-source-s3.html)」を参照してください。

1. データをロードするデータベースに、テーブルがすでに作成されていることを確認します。

1. クエリエディタ v2 のツリービューパネルで、ターゲットデータベースに接続していることを確認します。コンテキストメニュー (右クリック) を使用して、データをロードするクラスターまたはワークグループへの接続を作成できます。

1. ![\[Load\]](http://docs.aws.amazon.com/ja_jp/redshift/latest/mgmt/images/qev2-upload.png)**[Load data]** (データをロード) をクリックします。

1. **[Data source]** (データソース) で、**[Load from local file]** (ローカルファイルからロード) を選択します。

1. **[ブラウズする]** を選択して、データが含まれるファイルを検索して**ファイルをロード**します。デフォルトでは、拡張子 `.csv`、`.avro`、`.parquet`、`.orc` のファイルが表示されますが、他のファイルタイプも選択できます。 ファイルの最大サイズは 100 MB です。

1. アップロードするファイルの **[File format]** (ファイル形式) を選択します。サポートされているデータ形式は、CSV、JSON、DELIMITER、FIXEDWIDTH、SHAPEFILE、AVRO、PARQUET、ORC です。指定したファイル形式に応じて、それぞれの **[File options]** (ファイルオプション) を選択できます。また、データが暗号化されており、暗号化に使用する KMS キーの Amazon リソースネーム (ARN) を入力した場合には、**[Data is encrypted]** (データは暗号化されています) を選択できます。

   CSV または DELIMITER を選択すると、指定した行数が実際には列名であり、ロードするデータではない場合に、**[区切り文字]** で **[ヘッダー行を無視する]** を選択することもできます。

1. (オプション) **[Advanced settings]** (詳細設定) では、さまざまな **[Data conversion parameters]** (データ変換パラメータ) や **[Load operations]** (ロードオペレーション) がサポートされています。ファイルの必要に応じて、この情報を入力します。

   データ変換パラメータとデータロードパラメータの詳細については、「*Amazon Redshift データベースデベロッパーガイド*」の「[データ変換パラメータ](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html)」と「[データのロード操作](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-load.html)」を参照してください。

1. [**次へ**] を選択します。

1. **[既存のテーブルをロード]** を選択します。

1. **[クラスターまたはワークグループ]**、**[データベース]**、**[スキーマ]**、**[テーブル]** の名前など、データをロードする先の **[ターゲットテーブル]** の場所を確認または選択します。

1. (オプション) 列名を選択して **[Column mapping]** (列のマッピング) に入力すると、入力データの順序で列をマッピングすることができます。

1. **[Load data]** (データをロード) をクリックして、データのロードを開始します。

   ロードが完了すると、ロードが成功したかどうかのメッセージが表示されます。成功すると、ロードされたテーブルから SQL を使用してデータを選択できるようになります。エラーが発生した場合は、システムビュー STL\$1LOAD\$1ERRORS にクエリを実行して、詳細を取得します。COPY コマンドとそのエラーについては、*Amazon Redshift データベース開発者ガイド*の「[STL\$1LOAD\$1ERRORS](https://docs.aws.amazon.com/redshift/latest/dg/r_STL_LOAD_ERRORS.html)」を参照してください。

   データをロードするために使用された COPY コマンドテンプレートが **[Query history]** (クエリ履歴) に表示されます。この COPY コマンドテンプレートには、使用されているパラメータの一部が表示されますが、エディタタブで直接実行することはできません。クエリ履歴の詳細については、「[クエリとタブの履歴を表示する](query-editor-v2-history.md)」を参照してください。

新しいテーブルにデータをロードすると、クエリエディタ v2 は最初にデータベースにテーブルを作成してから、同じワークフローの別のアクションとしてデータをロードします。

**ローカルファイルデータを新しいテーブルにロードするには**

クエリエディタ v2 の管理者は、**[Account settings]** (アカウント設定) ウィンドウで共通の Amazon S3 バケットを指定する必要があります。ローカルファイルは、アカウントが使用する共通の Amazon S3 バケットに自動的にアップロードされ、クエリエディタ v2 は COPY コマンドを使用してデータをロードします。クエリエディタ v2 のローカルファイルの読み込みウィンドウで生成および実行される COPY コマンドは、Amazon S3 からのコピー時に COPY コマンド構文で使用できる、多くのパラメータをサポートしています。Amazon S3 からデータをロードするための COPY コマンドと使用するオプションの詳細については、「*Amazon Redshift データベース開発者ガイド*」の「[Amazon S3 からの COPY](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-source-s3.html)」を参照してください。

1. クエリエディタ v2 のツリービューパネルで、ターゲットデータベースに接続していることを確認します。コンテキストメニュー (右クリック) を使用して、データをロードするクラスターまたはワークグループへの接続を作成できます。

1. ![\[Load\]](http://docs.aws.amazon.com/ja_jp/redshift/latest/mgmt/images/qev2-upload.png)**[Load data]** (データをロード) をクリックします。

1. **[Data source]** (データソース) で、**[Load from local file]** (ローカルファイルからロード) を選択します。

1. **[ブラウズする]** を選択して、データが含まれるファイルを検索して**ファイルをロード**します。デフォルトでは、拡張子 `.csv`、`.avro`、`.parquet`、`.orc` のファイルが表示されますが、他のファイルタイプも選択できます。 ファイルの最大サイズは 100 MB です。

1. アップロードするファイルの **[File format]** (ファイル形式) を選択します。サポートされているデータ形式は、CSV、JSON、DELIMITER、FIXEDWIDTH、SHAPEFILE、AVRO、PARQUET、ORC です。指定したファイル形式に応じて、それぞれの **[File options]** (ファイルオプション) を選択できます。また、データが暗号化されており、暗号化に使用する KMS キーの Amazon リソースネーム (ARN) を入力した場合には、**[Data is encrypted]** (データは暗号化されています) を選択できます。

   CSV または DELIMITER を選択すると、指定した行数が実際には列名であり、ロードするデータではない場合に、**[区切り文字]** で **[ヘッダー行を無視する]** を選択することもできます。

1. (オプション) **[Advanced settings]** (詳細設定) では、さまざまな **[Data conversion parameters]** (データ変換パラメータ) や **[Load operations]** (ロードオペレーション) がサポートされています。ファイルの必要に応じて、この情報を入力します。

   データ変換パラメータとデータロードパラメータの詳細については、「*Amazon Redshift データベースデベロッパーガイド*」の「[データ変換パラメータ](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html)」と「[データのロード操作](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-load.html)」を参照してください。

1. [**次へ**] を選択します。

1. **[新しいテーブルをロード]** を選択します。

1. **[クラスターまたはワークグループ]**、**[データベース]**、**[スキーマ]** など、データをロードする先の **[ターゲットテーブル]** の場所を確認または選択します。作成する**テーブル**の名前を入力します。

1. **[テーブルを作成]** を選択し、表示されている定義を使用してテーブルを作成します。

   テーブル定義のレビューの要約が表示されます。テーブルがデータベースに作成されます。後でテーブルを削除するには、DROP TABLE SQL コマンドを実行します。詳細については、*Amazon Redshift データベースデベロッパーガイド*の「[DROP TABLE](https://docs.aws.amazon.com/redshift/latest/dg/r_DROP_TABLE)」を参照してください。

1. **[Load data]** (データをロード) をクリックして、データのロードを開始します。

   ロードが完了すると、ロードが成功したかどうかを示すメッセージが表示されます。成功すると、ロードされたテーブルから SQL を使用してデータを選択できるようになります。エラーが発生した場合は、システムビュー STL\$1LOAD\$1ERRORS にクエリを実行して、詳細を取得します。COPY コマンドとそのエラーについては、*Amazon Redshift データベース開発者ガイド*の「[STL\$1LOAD\$1ERRORS](https://docs.aws.amazon.com/redshift/latest/dg/r_STL_LOAD_ERRORS.html)」を参照してください。

   データをロードするために使用された COPY コマンドテンプレートが **[Query history]** (クエリ履歴) に表示されます。この COPY コマンドテンプレートには、使用されているパラメータの一部が表示されますが、エディタタブで直接実行することはできません。クエリ履歴の詳細については、「[クエリとタブの履歴を表示する](query-editor-v2-history.md)」を参照してください。