本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
更新結構描述,並使用 AWS Glue ETL 任務在 Data Catalog 中新增分割區
您的擷取、轉換和載入 (ETL) 任務可能會在目標資料存放區中建立新的資料表分割區。您的資料集結構描述可能會隨著時間演進,而與 AWS Glue 資料目錄結構描述有所不同。AWS GlueETL 任務目前提供數個功能,您可以在 ETL 指令碼中使用這些功能來更新資料目錄中的 ETL 結構描述和分割區。這些功能可讓您在資料目錄中查看 ETL 運作的結果,無需重新執行爬蟲程式。
新分割區
如果您想要在 中檢視新的分割區 AWS Glue Data Catalog,您可以執行下列其中一項操作:
-
任務完成後,重新執行爬蟲程式,並在爬蟲程式完成後在主控台上檢視新的分割區。
-
任務完成後,立即在主控台上檢視新的分割區,而不重新執行爬蟲程式。您可以在 ETL 指令碼中加入幾行程式碼,以啟用此功能,如下列範例所示。程式碼會使用
enableUpdateCatalog引數來指出在資料目錄建立新分割區時,要在任務執行期間更新。
- 方法 1
-
以選項引數傳遞
enableUpdateCatalog和partitionKeys。 - 方法 2
-
以
getSink()傳遞enableUpdateCatalog和partitionKeys,並呼叫DataSink物件上的setCatalogInfo()。
現在,您可以建立新的目錄資料表、使用修改的結構描述更新現有資料表,並使用 AWS Glue ETL 任務在資料目錄新增新的資料表分割區,而無需重新執行爬蟲程式。
更新資料表結構描述
如果您想覆寫資料目錄資料表的結構描述,可以執行以下任一作業:
任務完成後,重新執行爬蟲程式,並確定您的爬蟲程式已設定為更新資料表定義。當爬蟲程式完成時,檢視主控台上的新分割區以及任何結構描述更新。如需詳細資訊,請參閱使用 API 設定爬蟲程式。
任務完成後,立即在主控台上檢視修改的結構描述,無需重新執行爬蟲程式。您可以在 ETL 指令碼中加入幾行程式碼,以啟用此功能,如下列範例所示。程式碼使用設為 true 的
enableUpdateCatalog,並同時將updateBehavior設為UPDATE_IN_DATABASE,表示在任務執行期間,在資料目錄中覆寫結構描述並新增新的分割區。
如果您想防止資料表結構描述遭到覆寫,但仍想要新增新的分割區,您也可以將 updateBehavior 值設為 LOG。updateBehavior 的預設值為 UPDATE_IN_DATABASE,因此,如果您未明確定該值,則會覆寫資料表結構描述。
如果 enableUpdateCatalog 未設為 true,無論針對 updateBehavior 選取哪個選項,ETL 任務都不會在資料目錄中更新資料表。
建立新的資料表
您也可以使用相同選項,在資料目錄中建立新資料表。您可以使用 setCatalogInfo 指定資料庫和新的資料表名稱。
限制
請注意下列限制:
-
僅支援 Amazon Simple Storage Service (Amazon S3) 的目標。
-
控管的資料表不支援
enableUpdateCatalog功能。 -
僅支援下列格式:
json、csv、avro和parquet。 -
若要建立或更新具有
parquet分類的資料表,您必須使用適用於 DynamicFrames 的 AWS Glue 最佳化 Parquet 寫入器。這可以透過以下方法之一來達成:-
如果要使用
parquet分類來更新型錄中的現有資料表,則在更新之前,資料表的"useGlueParquetWriter"資料表屬性必須設定為true。您可以透過 AWS Glue APIs/SDK、主控台或 Athena DDL 陳述式來設定此屬性。
設定型錄資料表屬性後,您便可以使用以下程式碼片段,以新資料更新型錄資料表:
glueContext.write_dynamic_frame.from_catalog( frame=frameToWrite, database="dbName", table_name="tableName", additional_options={ "enableUpdateCatalog": True, "updateBehavior": "UPDATE_IN_DATABASE" } ) -
如果型錄中尚不存在資料表,您可以在指令碼中使用
getSink()方法和connection_type="s3"將資料表及其分割區新增至型錄中,並將資料寫入 Amazon S3。為您的工作流程提供適當的partitionKeys和compression。s3sink = glueContext.getSink( path="s3://bucket/folder/", connection_type="s3", updateBehavior="UPDATE_IN_DATABASE", partitionKeys=[], compression="snappy", enableUpdateCatalog=True ) s3sink.setCatalogInfo( catalogDatabase="dbName", catalogTableName="tableName" ) s3sink.setFormat("parquet", useGlueParquetWriter=True) s3sink.writeFrame(frameToWrite) -
glueparquet格式值是啟用 AWS Glue parquet 寫入器的舊版方法。
-
-
將
updateBehavior設為LOG後,只有在DynamicFrame結構描述等同於或包含資料目錄資料表結構描述中定義之欄的子集時,才會新增新的分割區。 -
未分割資料表不支援結構描述更新 (不使用 "partitionKeys" 選項)。
-
在 ETL 指令碼中傳遞的參數和資料目錄資料表結構描述中的 partitionKeys 之間,您的 partitionKeys 必須等效,而且順序相同。
-
此功能目前尚不支援更新/建立更新巢狀結構描述的資料表 (例如,結構內的陣列)。
如需詳細資訊,請參閱Spark 指令碼程式設計。