

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 在 DynamoDB 與 Amazon S3 之間複製資料
<a name="EMRforDynamoDB.CopyingData.S3"></a>

如果 DynamoDB 資料表中有資料，則可以使用 Hive 將資料複製到 Amazon S3 儲存貯體。

如果您想要在 DynamoDB 資料表中建立資料的封存，則可執行此操作。例如，假設您的測試環境需要在 DynamoDB 中使用一組基準測試資料。您可以將基準資料複製到 Amazon S3 儲存貯體，然後執行測試。之後，您可以將 Amazon S3 儲存貯體中的基準資料還原到 DynamoDB，以此重設測試環境。

如果透過 [教學課程：使用 Amazon DynamoDB 和 Apache Hive](EMRforDynamoDB.Tutorial.md) 作業，則表示您已經擁有一個包含 Amazon EMR 日誌的 Amazon S3 儲存貯體。如果您知道儲存貯體的根路徑，則可以將此儲存貯體用於本節中的範例：

1. 在 https：//[https://console.aws.amazon.com/emr](https://console.aws.amazon.com/emr/) 開啟 Amazon EMR 主控台。

1. 對於 **Name** (名稱)，選擇您的叢集。

1. URI 會列在 **Configuration Details** (組態詳細資訊) 下方的 **Log URI** (記錄 URI)。

1. 記下儲存貯體的根路徑。命名慣例是：

   `s3://aws-logs-accountID-region`

   其中 *accountID* 是 AWS 您的帳戶 ID，而區域是儲存貯 AWS 體的區域。

**注意**  
對於這些範例，我們將使用儲存貯體內的子路徑，如下列範例所示：  
 `s3://aws-logs-123456789012-us-west-2/hive-test`

下列程序假設您會遵循教學課程中的步驟，並且在 DynamoDB 中有一個名為 *ddb\$1features* 的外部資料表。

**Topics**
+ [使用 Hive 預設格式複製資料](#EMRforDynamoDB.CopyingData.S3.DefaultFormat)
+ [以使用者指定格式複製資料](#EMRforDynamoDB.CopyingData.S3.UserSpecifiedFormat)
+ [在無資料欄映射的情況下複製資料](#EMRforDynamoDB.CopyingData.S3.NoColumnMapping)
+ [檢視 Amazon S3 中的資料](#EMRforDynamoDB.CopyingData.S3.ViewingData)

## 使用 Hive 預設格式複製資料
<a name="EMRforDynamoDB.CopyingData.S3.DefaultFormat"></a>

**Example 從 DynamoDB 到 Amazon S3**  
使用 `INSERT OVERWRITE` 陳述式直接寫入至 Amazon S3。  

```
INSERT OVERWRITE DIRECTORY 's3://aws-logs-123456789012-us-west-2/hive-test'
SELECT * FROM ddb_features;
```
Amazon S3 中的資料檔案如下所示：  

```
920709^ASoldiers Farewell Hill^ASummit^ANM^A32.3564729^A-108.33004616135
1178153^AJones Run^AStream^APA^A41.2120086^A-79.25920781260
253838^ASentinel Dome^ASummit^ACA^A37.7229821^A-119.584338133
264054^ANeversweet Gulch^AValley^ACA^A41.6565269^A-122.83614322900
115905^AChacaloochee Bay^ABay^AAL^A30.6979676^A-87.97388530
```
每個欄位都以 SOH 字元分隔 (標題的開頭，0x01)。在檔案中，SOH 會顯示為 **^A**。

**Example 從 Amazon S3 到 DynamoDB**  

1. 建立一個指向 Amazon S3 中未格式化資料的外部資料表。

   ```
   CREATE EXTERNAL TABLE s3_features_unformatted
       (feature_id       BIGINT,
       feature_name      STRING ,
       feature_class     STRING ,
       state_alpha       STRING,
       prim_lat_dec      DOUBLE ,
       prim_long_dec     DOUBLE ,
       elev_in_ft        BIGINT)
   LOCATION 's3://aws-logs-123456789012-us-west-2/hive-test';
   ```

1. 將資料複製到 DynamoDB。

   ```
   INSERT OVERWRITE TABLE ddb_features
   SELECT * FROM s3_features_unformatted;
   ```

## 以使用者指定格式複製資料
<a name="EMRforDynamoDB.CopyingData.S3.UserSpecifiedFormat"></a>

如果您想要指定自己的欄位分隔符號字元，則可建立映射至 Amazon S3 儲存貯體的外部資料表。您可以使用此技術建立具有逗號分隔值 (CSV) 的資料檔案。

**Example 從 DynamoDB 到 Amazon S3**  

1. 建立映射至 Amazon S3 的 Hive 外部資料表。執行此操作時，請確定資料類型與 DynamoDB 外部資料表的資料類型一致。

   ```
   CREATE EXTERNAL TABLE s3_features_csv
       (feature_id       BIGINT,
       feature_name      STRING,
       feature_class     STRING,
       state_alpha       STRING,
       prim_lat_dec      DOUBLE,
       prim_long_dec     DOUBLE,
       elev_in_ft        BIGINT)
   ROW FORMAT DELIMITED
   FIELDS TERMINATED BY ','
   LOCATION 's3://aws-logs-123456789012-us-west-2/hive-test';
   ```

1. 從 DynamoDB 複製資料。

   ```
   INSERT OVERWRITE TABLE s3_features_csv
   SELECT * FROM ddb_features;
   ```
Amazon S3 中的資料檔案如下所示：  

```
920709,Soldiers Farewell Hill,Summit,NM,32.3564729,-108.3300461,6135
1178153,Jones Run,Stream,PA,41.2120086,-79.2592078,1260
253838,Sentinel Dome,Summit,CA,37.7229821,-119.58433,8133
264054,Neversweet Gulch,Valley,CA,41.6565269,-122.8361432,2900
115905,Chacaloochee Bay,Bay,AL,30.6979676,-87.9738853,0
```

**Example 從 Amazon S3 到 DynamoDB**  
使用單一 HiveQL 陳述式，您可以使用來自 Amazon S3 的資料填入 DynamoDB 資料表：  

```
INSERT OVERWRITE TABLE ddb_features
SELECT * FROM s3_features_csv;
```

## 在無資料欄映射的情況下複製資料
<a name="EMRforDynamoDB.CopyingData.S3.NoColumnMapping"></a>

您可以使用原始格式從 DynamoDB 複製資料，並將其寫入至 Amazon S3，而無需指定任何資料類型或資料欄映射。您可以使用此方法建立 DynamoDB 資料的封存，並將其存放到 Amazon S3 中。



**Example 從 DynamoDB 到 Amazon S3**  

1. 建立與 DynamoDB 資料表相關聯的外部資料表。(此 HiveQL 陳述式中沒有 `dynamodb.column.mapping`。)

   ```
   CREATE EXTERNAL TABLE ddb_features_no_mapping
       (item MAP<STRING, STRING>)
   STORED BY 'org.apache.hadoop.hive.dynamodb.DynamoDBStorageHandler'
   TBLPROPERTIES ("dynamodb.table.name" = "Features");
   ```

   

1. 建立另一個與 Amazon S3 儲存貯體相關聯的外部資料表。

   ```
   CREATE EXTERNAL TABLE s3_features_no_mapping
       (item MAP<STRING, STRING>)
   ROW FORMAT DELIMITED
   FIELDS TERMINATED BY '\t'
   LINES TERMINATED BY '\n'
   LOCATION 's3://aws-logs-123456789012-us-west-2/hive-test';
   ```

1. 將資料從 DynamoDB 複製到 Amazon S3。

   ```
   INSERT OVERWRITE TABLE s3_features_no_mapping
   SELECT * FROM ddb_features_no_mapping;
   ```
Amazon S3 中的資料檔案如下所示：  

```
Name^C{"s":"Soldiers Farewell Hill"}^BState^C{"s":"NM"}^BClass^C{"s":"Summit"}^BElevation^C{"n":"6135"}^BLatitude^C{"n":"32.3564729"}^BId^C{"n":"920709"}^BLongitude^C{"n":"-108.3300461"}
Name^C{"s":"Jones Run"}^BState^C{"s":"PA"}^BClass^C{"s":"Stream"}^BElevation^C{"n":"1260"}^BLatitude^C{"n":"41.2120086"}^BId^C{"n":"1178153"}^BLongitude^C{"n":"-79.2592078"}
Name^C{"s":"Sentinel Dome"}^BState^C{"s":"CA"}^BClass^C{"s":"Summit"}^BElevation^C{"n":"8133"}^BLatitude^C{"n":"37.7229821"}^BId^C{"n":"253838"}^BLongitude^C{"n":"-119.58433"}
Name^C{"s":"Neversweet Gulch"}^BState^C{"s":"CA"}^BClass^C{"s":"Valley"}^BElevation^C{"n":"2900"}^BLatitude^C{"n":"41.6565269"}^BId^C{"n":"264054"}^BLongitude^C{"n":"-122.8361432"}
Name^C{"s":"Chacaloochee Bay"}^BState^C{"s":"AL"}^BClass^C{"s":"Bay"}^BElevation^C{"n":"0"}^BLatitude^C{"n":"30.6979676"}^BId^C{"n":"115905"}^BLongitude^C{"n":"-87.9738853"}
```
每個欄位都以 STX 字元 (文字的開頭，0x02) 開頭，並以 ETX 字元 (文字結尾，0x03) 結尾。在此檔案中，STX 會顯示為 **^B**，ETX 會顯示為 **^C**。

**Example 從 Amazon S3 到 DynamoDB**  
使用單一 HiveQL 陳述式，您可以使用來自 Amazon S3 的資料填入 DynamoDB 資料表：  

```
INSERT OVERWRITE TABLE ddb_features_no_mapping
SELECT * FROM s3_features_no_mapping;
```

## 檢視 Amazon S3 中的資料
<a name="EMRforDynamoDB.CopyingData.S3.ViewingData"></a>

如果您使用 SSH 連線到領導節點，則可以使用 AWS Command Line Interface (AWS CLI) 來存取 Hive 寫入至 Amazon S3 的資料。

以下步驟的撰寫是假設您已使用本節其中一個程序，將資料從 DynamoDB 複製到 Amazon S3。

1. 如果您目前處於 Hive 命令提示字元，請離開至 Linux 命令提示字元。

   ```
   hive> exit;
   ```

1. 列出 Amazon S3 儲存貯體中的 Hive 測試目錄內容。(這是 Hive 從 DynamoDB 複製資料的位置。)

   ```
   aws s3 ls s3://aws-logs-123456789012-us-west-2/hive-test/
   ```

   回應外觀會與下列類似：

   `2016-11-01 23:19:54 81983 000000_0` 

   檔案名稱 (*000000\$10*) 是由系統產生的。

1. (選用) 您可以將資料檔案從 Amazon S3 複製到領導節點上的本機檔案系統。執行此操作之後，您可以使用標準 Linux 命令列公用程式來使用檔案中的資料。

   ```
   aws s3 cp s3://aws-logs-123456789012-us-west-2/hive-test/000000_0 .
   ```

   回應外觀會與下列類似：

   `download: s3://aws-logs-123456789012-us-west-2/hive-test/000000_0 to ./000000_0`
**注意**  
領導節點上的本機檔案系統容量有限。請勿將此命令與大於本機檔案系統中可用空間的檔案搭配使用。