Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Memulai dengan integrasi
Sebelum Anda membuat integrasi nol-ETL, konfigurasikan DB cluster dan gudang data Anda dengan parameter dan izin yang diperlukan. Selama pengaturan, Anda akan menyelesaikan langkah-langkah berikut:
Setelah Anda menyelesaikan tugas-tugas ini, lanjutkan ke Membuat integrasi nol-ETL Aurora dengan Amazon Redshift atauMembuat integrasi Aurora Zero-ETL dengan rumah danau Amazon SageMaker.
Anda dapat menggunakan AWS SDKs untuk mengotomatiskan proses penyiapan untuk Anda. Untuk informasi selengkapnya, lihat Siapkan integrasi menggunakan AWS SDKs.
Tip
Anda dapat meminta RDS menyelesaikan langkah-langkah pengaturan ini untuk Anda saat Anda membuat integrasi, daripada melakukannya secara manual. Untuk segera mulai membuat integrasi, lihatMembuat integrasi nol-ETL Aurora dengan Amazon Redshift.
Untuk Langkah 3, Anda dapat memilih untuk membuat gudang data target (Langkah 3a) atau target lakehouse (Langkah 3b) tergantung pada kebutuhan Anda:
-
Pilih gudang data jika Anda memerlukan kemampuan pergudangan data tradisional dengan analitik berbasis SQL.
-
Pilih Amazon SageMaker rumah danau jika Anda membutuhkan kemampuan pembelajaran mesin dan ingin menggunakan fitur lakehouse untuk ilmu data dan alur kerja ML.
Langkah 1: Buat grup parameter klaster DB kustom
Integrasi Aurora Zero-ETL memerlukan nilai khusus untuk parameter cluster DB yang mengontrol replikasi. Secara khusus, Aurora MySQL memerlukan binlog yang ditingkatkan (aurora_enhanced_binlog
), dan Aurora PostgreSQL memerlukan replikasi logis yang ditingkatkan (aurora.enhanced_logical_replication
).
Untuk mengonfigurasi pencatatan log biner atau replikasi logis, Anda harus membuat grup parameter klaster DB kustom terlebih dahulu, lalu mengaitkannya dengan klaster DB sumber.
Aurora MySQL (rangkaian aurora-mysql8.0):
-
aurora_enhanced_binlog=1
-
binlog_backup=0
-
binlog_format=ROW
-
binlog_replication_globaldb=0
-
binlog_row_image=full
-
binlog_row_metadata=full
Selain itu, pastikan bahwa parameter binlog_transaction_compression
tidak ditetapkan ke ON
, dan bahwa parameter binlog_row_value_options
tidak diatur ke PARTIAL_JSON
.
Untuk informasi selengkapnya tentang binlog yang ditingkatkan Aurora MySQL, lihat Menyiapkan binlog yang disempurnakan untuk Aurora MySQL.
Aurora PostgreSQL (keluarga aurora-postgresql16):
-
rds.logical_replication=1
-
aurora.enhanced_logical_replication=1
-
aurora.logical_replication_backup=0
-
aurora.logical_replication_globaldb=0
Mengaktifkan replikasi logis yang disempurnakan (aurora.enhanced_logical_replication
) akan selalu menulis semua nilai kolom ke log tulis depan (WAL) meskipun REPLICA IDENTITY FULL
tidak diaktifkan. Ini mungkin meningkatkan IOPS untuk cluster DB sumber Anda.
penting
Jika Anda mengaktifkan atau menonaktifkan parameter cluster aurora.enhanced_logical_replication
DB, instans DB primer membatalkan semua slot replikasi logis. Ini menghentikan replikasi dari sumber ke target, dan Anda harus membuat ulang slot replikasi pada instance DB utama. Untuk mencegah interupsi, jaga agar status parameter tetap konsisten selama replikasi.
Langkah 2: Pilih atau buat cluster DB sumber
Setelah Anda membuat grup parameter cluster DB kustom, pilih atau buat Aurora DB cluster. Cluster ini akan menjadi sumber replikasi data ke gudang data target. Anda dapat menentukan cluster DB yang menggunakan instans DB atau instans DB yang disediakan sebagai Aurora Serverless v2 sumbernya. Untuk instruksi untuk membuat cluster , lihat Membuat klaster DB Amazon Auroraatau. Membuat cluster DB yang menggunakan Aurora Serverless v2
Database harus menjalankan versi mesin DB yang didukung. Untuk daftar versi yang didukung, lihat Daerah yang Didukung dan mesin Aurora DB untuk integrasi Nol-ETL.
Saat Anda membuat database, di bawah Konfigurasi tambahan, ubah grup parameter cluster DB default ke grup parameter kustom yang Anda buat di langkah sebelumnya.
catatan
Jika Anda mengaitkan grup parameter dengan cluster DB setelah cluster sudah dibuat, Anda harus me-reboot instance DB utama di cluster untuk menerapkan perubahan sebelum Anda dapat membuat integrasi nol-ETL. Untuk petunjuk, lihat Mem-boot ulang klaster DB Amazon Aurora atau instans DB Amazon Aurora.
Langkah 3a: Buat gudang data target
Setelah Anda membuat cluster DB sumber Anda, Anda harus membuat dan mengkonfigurasi gudang data target. Gudang data harus memenuhi persyaratan berikut:
-
Menggunakan tipe RA3 node dengan setidaknya dua node, atau Redshift Serverless.
-
Terenkripsi (jika menggunakan klaster yang disediakan). Untuk informasi selengkapnya, lihat Enkripsi basis data Amazon Redshift.
Untuk petunjuk cara membuat gudang data, lihat Membuat klaster untuk klaster terprovisi, atau Membuat grup kerja dengan ruang nama untuk Redshift Nirserver.
Aktifkan kepekaan huruf besar/kecil di gudang data
Agar integrasi berhasil, parameter kepekaan huruf besar/kecil (enable_case_sensitive_identifier
) harus diaktifkan untuk gudang data. Secara default, kepekaan huruf besar/kecil dinonaktifkan di semua klaster terprovisi dan grup kerja Redshift Nirserver.
Untuk mengaktifkan kepekaan huruf besar/kecil, lakukan langkah-langkah berikut bergantung pada jenis gudang data Anda:
-
Klaster terprovisi – Untuk mengaktifkan kepekaan huruf besar/kecil pada klaster terprovisi, buat grup parameter kustom dengan parameter
enable_case_sensitive_identifier
diaktifkan. Kemudian, hubungkan grup parameter dengan klaster. Untuk petunjuknya, lihat Mengelola grup parameter menggunakan konsol atau Mengonfigurasi nilai parameter menggunakan AWS CLI.catatan
Ingatlah untuk mem-boot ulang klaster setelah Anda mengaitkan grup parameter kustom dengannya.
-
Grup kerja Nirserver – Untuk mengaktifkan kepekaan huruf besar/kecil di grup kerja Redshift Nirserver, Anda harus menggunakan AWS CLI. Konsol Amazon Redshift saat ini tidak mendukung modifikasi nilai parameter Redshift Nirserver. Kirim permintaan update-workgroup berikut:
aws redshift-serverless update-workgroup \ --workgroup-name
target-workgroup
\ --config-parameters parameterKey=enable_case_sensitive_identifier,parameterValue=trueAnda tidak perlu mem-boot ulang grup kerja setelah Anda mengubah nilai parameternya.
Konfigurasikan otorisasi untuk gudang data
Setelah Anda membuat gudang data, Anda harus mengkonfigurasi sumber Aurora DB cluster sebagai sumber integrasi resmi. Untuk petunjuknya, lihat Mengonfigurasi otorisasi untuk gudang data Amazon Redshift Anda.
Siapkan integrasi menggunakan AWS SDKs
Daripada menyiapkan setiap sumber daya secara manual, Anda dapat menjalankan skrip Python berikut untuk menyiapkan sumber daya yang diperlukan secara otomatis. Contoh kode menggunakan AWS SDK untuk Python (Boto3)
Untuk menginstal dependensi yang diperlukan, jalankan perintah berikut:
pip install boto3 pip install time
Dalam skrip, secara opsional, Anda dapat memodifikasi nama grup sumber, target, dan parameter. Fungsi akhir akan membuat integrasi bernama my-integration
setelah sumber daya disiapkan.
Langkah 3b: Buat AWS Glue katalog untuk integrasi Amazon SageMaker nol-ETL
Saat membuat integrasi nol-ETL dengan Amazon SageMaker lakehouse, Anda harus membuat katalog terkelola di. AWS Glue AWS Lake Formation Katalog target harus berupa katalog terkelola Amazon Redshift. Untuk membuat katalog terkelola Amazon Redshift, pertama-tama buat peran terkait AWSServiceRoleForRedshift
layanan. Di konsol Lake Formation, tambahkan AWSServiceRoleForRedshift
sebagai administrator hanya-baca.
Untuk informasi selengkapnya tentang tugas sebelumnya, lihat topik berikut.
Untuk informasi tentang membuat katalog terkelola Amazon Redshift, lihat Membuat katalog terkelola Amazon Redshift di Panduan AWS Glue Data Catalog Pengembang.AWS Lake Formation
Untuk informasi tentang peran terkait layanan untuk Amazon Redshift, lihat Menggunakan peran terkait layanan untuk Amazon Redshift di Panduan Manajemen Pergeseran Merah Amazon.
Untuk informasi tentang izin administrator hanya-baca untuk Lake Formation, lihat personas Lake Formation dan referensi izin IAM di Panduan Pengembang.AWS Lake Formation
Konfigurasikan izin untuk katalog target AWS Glue
Sebelum membuat katalog target untuk integrasi nol-ETL, Anda harus membuat peran pembuatan target Lake Formation dan peran transfer data. AWS Glue Gunakan peran pembuatan target Lake Formation untuk membuat katalog target. Saat membuat katalog target, masukkan peran transfer data Glue di bidang peran IAM di bagian Access from engine.
Peran pembuatan target haruslah administrator Lake Formation dan memerlukan izin berikut.
{ "Version": "2012-10-17", "Statement": [ { "Sid": "VisualEditor0", "Effect": "Allow", "Action": "lakeformation:RegisterResource", "Resource": "*" }, { "Sid": "VisualEditor1", "Effect": "Allow", "Action": [ "s3:PutEncryptionConfiguration", "iam:PassRole", "glue:CreateCatalog", "glue:GetCatalog", "s3:PutBucketTagging", "s3:PutLifecycleConfiguration", "s3:PutBucketPolicy", "s3:CreateBucket", "redshift-serverless:CreateNamespace", "s3:DeleteBucket", "s3:PutBucketVersioning", "redshift-serverless:CreateWorkgroup" ], "Resource": [ "arn:aws:glue:*:
account-id
:catalog", "arn:aws:glue:*:account-id
:catalog/*", "arn:aws:s3:::*", "arn:aws:redshift-serverless:*:account-id
:workgroup/*", "arn:aws:redshift-serverless:*:account-id
:namespace/*", "arn:aws:iam::account-id
:role/GlueDataCatalogDataTransferRole" ] } ] }
Peran penciptaan target harus memiliki hubungan kepercayaan berikut.
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "glue.amazonaws.com" }, "Action": "sts:AssumeRole" }, { "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::
account-id
:user/Username" }, "Action": "sts:AssumeRole" } ] }
Peran transfer data Glue diperlukan untuk operasi katalog MySQL dan harus memiliki izin berikut.
{ "Version": "2012-10-17", "Statement": [ { "Sid": "DataTransferRolePolicy", "Effect": "Allow", "Action": [ "kms:GenerateDataKey", "kms:Decrypt", "glue:GetCatalog", "glue:GetDatabase" ], "Resource": [ "*" ] } ] }
Peran transfer data Glue harus memiliki hubungan kepercayaan berikut.
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": [ "glue.amazonaws.com", "redshift.amazonaws.com" ] }, "Action": "sts:AssumeRole" } ] }
Langkah selanjutnya
Dengan sumber cluster Aurora DB dan gudang data target Amazon Redshift Amazon SageMaker atau lakehouse, Anda dapat membuat integrasi nol-ETL dan mereplikasi data. Untuk petunjuk, lihat Membuat integrasi nol-ETL Aurora dengan Amazon Redshift.