Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Migrasi data Db2 melalui Amazon S3 ke Amazon untuk Db2 RDS
Dengan pendekatan migrasi ini, pertama-tama Anda menyimpan data dari satu tabel ke dalam file data yang Anda tempatkan di bucket Amazon S3. Kemudian, Anda menggunakan LOADperintah
Menyimpan data Anda ke Amazon S3
Untuk menyimpan data dari satu tabel ke Amazon S3, gunakan utilitas database untuk mengekstrak data dari sistem manajemen database (DBMS) ke dalam file. CSV Kemudian, unggah file data ke Amazon S3.
Untuk menyimpan file data di Amazon S3, Anda memerlukan komponen berikut: AWS
-
Bucket Amazon S3 untuk menyimpan file cadangan Anda: Jika Anda sudah memiliki bucket S3, Anda dapat menggunakan bucket itu. Jika Anda tidak memiliki bucket S3, lihat Membuat bucket dalam Panduan Pengguna Amazon S3.
-
IAMPeran untuk mengakses bucket S3: Jika Anda sudah memiliki IAM peran, Anda dapat menggunakan peran itu. Jika Anda tidak memiliki peran, lihat Langkah 2: Buat peran IAM dan lampirkan kebijakan IAM Anda.
-
IAMKebijakan dengan hubungan kepercayaan dan izin yang dilampirkan pada IAM peran Anda: Untuk informasi selengkapnya, lihatLangkah 1: Buat kebijakan IAM.
-
IAMPeran yang ditambahkan ke instans Db2 DB Anda RDS: Untuk informasi selengkapnya, lihat. Langkah 3: Tambahkan peran IAM ke instans basis data RDS for Db2
Memuat data Anda ke dalam RDS tabel Db2
Setelah menyimpan file data ke Amazon S3, Anda dapat memuat data dari file-file ini ke dalam tabel individual pada instans Db2 DB AndaRDS.
Untuk memuat data tabel Db2 Anda ke dalam tabel database Db2 DB Anda RDS
-
Connect ke
rdsadmindatabase menggunakan master username dan master password untuk instans Db2 DB AndaRDS. Dalam contoh berikut, gantimaster_usernameandmaster_passworddengan informasi Anda sendiri.db2 connect to rdsadmin usermaster_usernameusingmaster_password -
Katalog alias akses penyimpanan yang mengarah ke bucket Amazon S3 tempat file yang disimpan disimpan. Catat nama alias ini untuk digunakan pada langkah berikutnya. Anda hanya perlu melakukan langkah ini sekali jika Anda berencana memuat beberapa tabel dari file data yang disimpan di bucket Amazon S3 yang sama.
Contoh berikut katalog alias bernama
my_s3_aliasyang memberikan pengguna bernamajorge_souzaakses ke bucket bernamaamzn-s3-demo-bucket.db2 "call rdsadmin.catalog_storage_access(?, 'my_s3_alias', 'amzn-s3-demo-bucket', 'USER', 'jorge_souza')"Untuk informasi selengkapnya tentang prosedur tersimpan ini, Lihatrdsadmin.catalog_storage_access.
-
Jalankan
LOADperintah menggunakan alias akses penyimpanan yang mengarah ke bucket Amazon S3 Anda.catatan
Jika
LOADperintah mengembalikan kesalahan, Anda mungkin perlu membuat titik akhir VPC gateway untuk Amazon S3 dan menambahkan aturan keluar ke grup keamanan. Untuk informasi selengkapnya, lihat I/O Kesalahan berkas.Contoh berikut memuat data dari file data bernama
my_s3_datafile.csvke dalam sebuah tabel bernamamy_db2_table. Contoh mengasumsikan bahwa file data ada di bucket Amazon S3 yang diberi nama aliasmy_s3_aliasmenunjuk ke.db2 "load from db2remote://my_s3_alias//my_s3_datafile.csvof DEL insert intomy_db2_table";Contoh berikut memuat LOBs dari file data bernama
my_table1_export.ixfke dalam sebuah tabel bernamamy_db2_table. Contoh mengasumsikan bahwa file data ada di bucket Amazon S3 yang diberi nama aliasmy_s3_aliasmenunjuk ke.db2 "call sysproc.admin_cmd('load from "db2remote://my_s3_alias//my_table1_export.ixf" of ixf lobs from "db2remote://my_s3_alias//" xml from "db2remote://my_s3_alias//" modified by lobsinfile implicitlyhiddeninclude identityoverride generatedoverride periodoverride transactionidoverride messages on server replace into "my_schema"."my_db2_table" nonrecoverable indexing mode incremental allow no access')"Ulangi langkah ini untuk setiap file data di bucket Amazon S3 yang ingin Anda muat ke dalam tabel di instans Db2 DB AndaRDS.
Untuk informasi selengkapnya tentang
LOADperintah, lihat LOADperintah.