Migrasi data Db2 melalui Amazon S3 ke Amazon RDS untuk Db2 - Layanan Basis Data Relasional Amazon

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Migrasi data Db2 melalui Amazon S3 ke Amazon RDS untuk Db2

Dengan pendekatan migrasi ini, pertama-tama Anda menyimpan data dari satu tabel ke dalam file data yang Anda tempatkan di bucket Amazon S3. Kemudian, Anda menggunakan perintah LOAD untuk memuat data dari file data tersebut ke dalam tabel di Amazon RDS for Db2 database. Lihat informasi yang lebih lengkap tentang penggunaan Amazon S3 di Mengintegrasikan Amazon RDS untuk instans Db2 DB dengan Amazon S3.

Menyimpan data Anda ke Amazon S3

Untuk menyimpan data dari satu tabel ke Amazon S3, gunakan utilitas database untuk mengekstrak data dari sistem manajemen database (DBMS) Anda ke dalam file CSV. Kemudian, unggah file data ke Amazon S3.

Untuk menyimpan file data di Amazon S3, Anda memerlukan komponen berikut: AWS

Memuat data Anda ke RDS untuk tabel Db2

Setelah menyimpan file data ke Amazon S3, Anda dapat memuat data dari file-file ini ke dalam tabel individual di RDS untuk instans Db2 DB.

Untuk memuat data tabel Db2 Anda ke dalam tabel database RDS untuk Db2 DB
  1. Hubungi basis data rdsadmin dengan menggunakan nama pengguna master dan kata sandi master untuk instans basis data RDS for Db2 Anda. Dalam contoh berikut, ganti master_username dan master_password dengan informasi Anda sendiri.

    db2 connect to rdsadmin user master_username using master_password
  2. Katalog alias akses penyimpanan yang mengarah ke bucket Amazon S3 tempat file yang disimpan disimpan. Catat nama alias ini untuk digunakan pada langkah berikutnya. Anda hanya perlu melakukan langkah ini sekali jika Anda berencana memuat beberapa tabel dari file data yang disimpan di bucket Amazon S3 yang sama.

    Contoh berikut mengkatalogkan alias bernama my_s3_alias yang memberikan pengguna bernama jorge_souza akses ke bucket bernama. amzn-s3-demo-bucket

    db2 "call rdsadmin.catalog_storage_access(?, 'my_s3_alias', 'amzn-s3-demo-bucket', 'USER', 'jorge_souza')"

    Untuk informasi selengkapnya tentang prosedur tersimpan ini, Lihatrdsadmin.catalog_storage_access.

  3. Jalankan LOAD perintah menggunakan alias akses penyimpanan yang mengarah ke bucket Amazon S3 Anda.

    catatan

    Jika LOAD perintah mengembalikan kesalahan, Anda mungkin perlu membuat titik akhir gateway VPC untuk Amazon S3 dan menambahkan aturan keluar ke grup keamanan. Untuk informasi selengkapnya, lihat I/O Kesalahan berkas.

    Contoh berikut memuat data dari file data bernama my_s3_datafile.csv ke dalam tabel bernamamy_db2_table. Contoh mengasumsikan bahwa file data ada di bucket Amazon S3 yang ditunjuk oleh alias bernamamy_s3_alias.

    db2 "load from db2remote://my_s3_alias//my_s3_datafile.csv of DEL insert into my_db2_table";

    Contoh berikut memuat LOBs dari file data bernama my_table1_export.ixf ke dalam tabel bernamamy_db2_table. Contoh mengasumsikan bahwa file data ada di bucket Amazon S3 yang ditunjuk oleh alias bernamamy_s3_alias.

    db2 "call sysproc.admin_cmd('load from "db2remote://my_s3_alias//my_table1_export.ixf" of ixf lobs from "db2remote://my_s3_alias//" xml from "db2remote://my_s3_alias//" modified by lobsinfile implicitlyhiddeninclude identityoverride generatedoverride periodoverride transactionidoverride messages on server replace into "my_schema"."my_db2_table" nonrecoverable indexing mode incremental allow no access')"

    Ulangi langkah ini untuk setiap file data di bucket Amazon S3 yang ingin Anda muat ke dalam tabel di RDS untuk instans Db2 DB.

    Untuk informasi selengkapnya tentang LOAD perintah, lihat perintah LOAD.