AWS Data Pipeline 不再提供給新客戶。的現有客戶 AWS Data Pipeline 可以繼續正常使用服務。進一步了解
本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
資料節點
此範例使用輸入資料節點、輸出資料節點和資料庫。
輸入資料節點
輸入S3DataNode管道元件會定義 Amazon S3 中輸入資料的位置,以及輸入資料的資料格式。如需詳細資訊,請參閱S3DataNode。
此輸入元件是由下列欄位定義:
{ "id": "S3DataNodeId1", "schedule": { "ref": "ScheduleId1" }, "filePath": "s3://datapipeline-us-east-1/samples/hive-ads-samples.csv", "name": "DefaultS3DataNode1", "dataFormat": { "ref": "CSVId1" }, "type": "S3DataNode" },
id-
使用者定義的 ID,這是僅供您參考的標籤。
schedule-
對排程元件的參考。
filePath-
與資料節點相關聯資料的路徑,在此範例中是 CSV 輸入檔。
name-
使用者定義的名稱,這是僅供您參考的標籤。
dataFormat-
對要處理之活動資料格式的參考。
輸出資料節點
輸出RedshiftDataNode管道元件會定義輸出資料的位置;在此情況下,Amazon Redshift 資料庫中的資料表。如需詳細資訊,請參閱RedshiftDataNode。此輸出元件是由下列欄位定義:
{ "id": "RedshiftDataNodeId1", "schedule": { "ref": "ScheduleId1" }, "tableName": "orders", "name": "DefaultRedshiftDataNode1", "createTableSql": "create table StructuredLogs (requestBeginTime CHAR(30) PRIMARY KEY DISTKEY SORTKEY, requestEndTime CHAR(30), hostname CHAR(100), requestDate varchar(20));", "type": "RedshiftDataNode", "database": { "ref": "RedshiftDatabaseId1" } },
id-
使用者定義的 ID,這是僅供您參考的標籤。
schedule-
對排程元件的參考。
tableName-
Amazon Redshift 資料表的名稱。
name-
使用者定義的名稱,這是僅供您參考的標籤。
createTableSql-
在資料庫建立資料表的 SQL 表達式。
database-
Amazon Redshift 資料庫的參考。
資料庫
RedshiftDatabase 元件是由下列欄位定義。如需詳細資訊,請參閱RedshiftDatabase。
{ "id": "RedshiftDatabaseId1", "databaseName": "dbname", "username": "user", "name": "DefaultRedshiftDatabase1", "*password": "password", "type": "RedshiftDatabase", "clusterId": "redshiftclusterId" },
id-
使用者定義的 ID,這是僅供您參考的標籤。
databaseName-
邏輯資料庫的名稱。
username-
連線至資料庫的使用者名稱。
name-
使用者定義的名稱,這是僅供您參考的標籤。
password-
連線至資料庫的密碼。
clusterId-
Redshift 叢集的 ID。