

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Mengekspor data klaster DB ke Amazon S3
<a name="export-cluster-data"></a>

Anda dapat mengekspor data dari klaster DB Amazon Aurora langsung ke bucket Amazon S3. Proses ekspor berjalan di latar belakang dan tidak memengaruhi performa klaster DB aktif Anda.

Secara default, semua data dalam klaster DB diekspor. Namun, Anda dapat memilih untuk mengekspor set basis data, skema, atau tabel tertentu.

Amazon Aurora mengklona klaster DB, mengekstrak data dari klona, dan menyimpan data dalam bucket Amazon S3. Data disimpan dalam format Apache Parquet yang dikompresi dan konsisten. Setiap file Parquet biasanya berukuran 1–10 MB.

Kinerja lebih cepat yang bisa Anda dapatkan dengan mengekspor data snapshot untuk Aurora My SQL versi 2 dan versi 3 tidak berlaku untuk mengekspor data cluster DB. Untuk informasi selengkapnya, lihat [Mengekspor data snapshot klaster DB ke Amazon S3](aurora-export-snapshot.md).

Anda dikenakan biaya untuk mengekspor seluruh klaster DB, baik Anda mengekspor semua atau sebagian data. Untuk informasi selengkapnya, lihat [Halaman Harga Amazon Aurora](https://aws.amazon.com/rds/aurora/pricing/).

Setelah data diekspor, Anda dapat menganalisis data yang diekspor secara langsung melalui alat seperti Amazon Athena atau Amazon Redshift Spectrum. *Untuk informasi lebih lanjut tentang menggunakan Athena untuk membaca data Parket, lihat [Parket di Panduan Pengguna SerDe](https://docs.aws.amazon.com/athena/latest/ug/parquet-serde.html) Amazon Athena.* *Untuk informasi selengkapnya tentang penggunaan Redshift Spectrum untuk membaca data Parket, lihat [COPYdari format data kolumnar di Panduan Pengembang Database](https://docs.aws.amazon.com/redshift/latest/dg/copy-usage_notes-copy-from-columnar.html) Amazon Redshift.*

Ketersediaan dan dukungan fitur bervariasi di seluruh versi spesifik dari setiap mesin basis data dan di seluruh Wilayah AWS. Untuk informasi selengkapnya tentang versi dan ketersediaan Wilayah pengeksporan data klaster DB ke S3, lihat [Daerah yang Didukung dan mesin Aurora DB untuk mengekspor data cluster ke Amazon S3](Concepts.Aurora_Fea_Regions_DB-eng.Feature.ExportClusterToS3.md).

Anda menggunakan proses berikut untuk mengekspor data klaster DB ke bucket Amazon S3. Untuk detail selengkapnya, lihat bagian berikut.

**Ikhtisar pengeksporan data klaster DB**

1. Identifikasi klaster DB yang datanya ingin Anda ekspor.

1. Atur akses ke bucket Amazon S3.

   *Bucket* adalah kontainer untuk objek atau file Amazon S3. Untuk memberikan informasi untuk mengakses bucket, lakukan langkah-langkah berikut:

   1. Identifikasi bucket S3 tempat data klaster DB akan diekspor. Bucket S3 harus berada di Wilayah AWS yang sama dengan klaster DB. Untuk informasi selengkapnya, lihat [Mengidentifikasi bucket Amazon S3 untuk ekspor](export-cluster-data.Setup.md#export-cluster-data.SetupBucket).

   1. Buat peran AWS Identity and Access Management (IAM) yang memberikan akses tugas ekspor klaster DB ke bucket S3. Untuk informasi selengkapnya, lihat [Memberikan akses ke bucket Amazon S3 menggunakan peran IAM](export-cluster-data.Setup.md#export-cluster-data.SetupIAMRole).

1. Buat enkripsi simetris AWS KMS key untuk enkripsi sisi server. KMSKuncinya digunakan oleh tugas ekspor cluster untuk mengatur enkripsi AWS KMS sisi server saat menulis data ekspor ke S3.

   Kebijakan KMS utama harus menyertakan izin `kms:CreateGrant` dan `kms:DescribeKey` izin. Untuk informasi selengkapnya tentang penggunaan KMS kunci di Amazon Aurora, lihat. [AWS KMS key manajemen](Overview.Encryption.Keys.md)

   Jika Anda memiliki pernyataan penolakan dalam kebijakan KMS utama Anda, pastikan untuk secara eksplisit mengecualikan prinsip AWS layanan. `export.rds.amazonaws.com`

   Anda dapat menggunakan KMS kunci dalam AWS akun Anda, atau Anda dapat menggunakan KMS kunci lintas akun. Untuk informasi selengkapnya, lihat [Menggunakan cross-account AWS KMS key](aurora-export-snapshot.Setup.md#aurora-export-snapshot.CMK).

1. Ekspor cluster DB ke Amazon S3 menggunakan konsol atau perintah. `start-export-task` CLI Untuk informasi selengkapnya, lihat [Membuat tugas ekspor cluster DB](export-cluster-data.Exporting.md). 

1. Untuk mengakses data Anda yang diekspor di bucket Amazon S3 lihat [Mengunggah, mengunduh, dan mengelola objek](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/upload-download-objects.html) dalam *Panduan Pengguna Amazon Simple Storage Service*.

Pelajari cara mengatur, mengekspor, memantau, membatalkan, dan memecahkan masalah tugas ekspor klaster DB di bagian berikut.

**Topics**
+ [Pertimbangan untuk ekspor cluster DB](export-cluster-data.Considerations.md)
+ [Menyiapkan akses ke bucket Amazon S3](export-cluster-data.Setup.md)
+ [Membuat tugas ekspor cluster DB](export-cluster-data.Exporting.md)
+ [Memantau tugas ekspor klaster DB](export-cluster-data.Monitoring.md)
+ [Membatalkan tugas ekspor klaster DB](export-cluster-data.Canceling.md)
+ [Memecahkan masalah ekspor cluster DB](export-cluster-data.Troubleshooting.md)

# Pertimbangan untuk ekspor cluster DB
<a name="export-cluster-data.Considerations"></a>

Gunakan bagian berikut untuk mempelajari tentang batasan, konvensi penamaan file, serta konversi dan penyimpanan data saat mengekspor data cluster DB ke Amazon S3.

**Topics**
+ [Batasan](#export-cluster-data.Limits)
+ [Konvensi penamaan file](#export-cluster-data.FileNames)
+ [Konversi data dan format penyimpanan](#export-cluster-data.data-types)

## Batasan
<a name="export-cluster-data.Limits"></a>

Mengekspor data klaster DB ke Amazon S3 memiliki batasan sebagai berikut:
+ Anda tidak dapat menjalankan beberapa tugas ekspor untuk klaster DB yang sama secara bersamaan. Batasan ini berlaku untuk ekspor penuh dan sebagian.
+ Anda dapat memiliki hingga lima tugas ekspor snapshot DB bersamaan yang sedang berlangsung per Akun AWS.
+ Aurora Serverless v1 Cluster DB tidak mendukung ekspor ke S3.
+ Aurora My dan SQL Aurora Postgre SQL mendukung ekspor ke S3 hanya untuk mode mesin yang disediakan.
+ Ekspor ke S3 tidak mendukung awalan S3 yang berisi titik dua (:).
+ Karakter berikut di jalur file S3 akan diubah menjadi garis bawah (\$1) selama ekspor berlangsung:

  ```
  \ ` " (space)
  ```
+ Jika basis data, skema, atau tabel memiliki karakter dalam namanya selain yang berikut ini, maka ekspor parsial tidak didukung. Namun, Anda dapat mengekspor seluruh klaster DB.
  + Huruf latin (A–Z)
  + Digit (0–9)
  + Simbol dolar (\$1)
  + Garis bawah (\$1)
+ Spasi ( ) dan karakter-karakter tertentu tidak didukung dalam nama kolom tabel basis data. Tabel yang nama kolomnya berisi karakter berikut akan dilewati selama ekspor berlangsung:

  ```
  , ; { } ( ) \n \t = (space)
  ```
+ Tabel yang namanya berisi garis miring (/) akan dilewati selama ekspor berlangsung.
+ Aurora Postgre tabel SQL sementara dan tidak tercatat dilewati selama ekspor.
+ Jika data berisi objek besar, seperti BLOB atauCLOB, yang mendekati atau lebih besar dari 500 MB, maka ekspor gagal.
+ Jika suatu tabel berisi baris besar yang berukuran mendekati atau lebih dari 2 GB, maka tabel tersebut akan dilewati selama ekspor berlangsung.
+ Untuk ekspor sebagian, `ExportOnly` daftar memiliki ukuran maksimum 200 KB.
+ Sebaiknya Anda menggunakan nama unik untuk setiap tugas ekspor. Jika tidak menggunakan nama tugas yang unik, Anda mungkin menerima pesan kesalahan berikut:

  ExportTaskAlreadyExistsFault: Terjadi kesalahan (ExportTaskAlreadyExists) saat memanggil StartExportTask operasi: Tugas ekspor dengan ID *xxxxx* sudah ada. 
+ Karena beberapa tabel mungkin dilewati, sebaiknya Anda memverifikasi jumlah baris dan tabel dalam data setelah ekspor.

## Konvensi penamaan file
<a name="export-cluster-data.FileNames"></a>

Data yang diekspor untuk tabel tertentu disimpan dalam format `base_prefix/files`, dengan prefiks dasar sebagai berikut:

```
export_identifier/database_name/schema_name.table_name/
```

Contohnya:

```
export-1234567890123-459/rdststcluster/mycluster.DataInsert_7ADB5D19965123A2/
```

File keluaran menggunakan konvensi penamaan berikut, di mana *partition\$1index* adalah alfanumerik:

```
partition_index/part-00000-random_uuid.format-based_extension
```

Sebagai contoh:

```
1/part-00000-c5a881bb-58ff-4ee6-1111-b41ecff340a3-c000.gz.parquet
    a/part-00000-d7a881cc-88cc-5ab7-2222-c41ecab340a4-c000.gz.parquet
```

Konvensi penamaan file dapat berubah sewaktu-waktu. Oleh karena itu, ketika membaca tabel target, sebaiknya baca segala sesuatu di dalam prefiks dasar untuk tabel.

## Konversi data dan format penyimpanan
<a name="export-cluster-data.data-types"></a>

Saat Anda mengekspor cluster DB ke bucket Amazon S3, Amazon Aurora mengonversi, mengekspor, dan menyimpan data dalam format Parket. Untuk informasi selengkapnya, lihat [Konversi data saat mengekspor ke bucket Amazon S3](aurora-export-snapshot.Considerations.md#aurora-export-snapshot.data-types).

# Menyiapkan akses ke bucket Amazon S3
<a name="export-cluster-data.Setup"></a>

Anda mengidentifikasi bucket Amazon S3, lalu memberikan izin tugas ekspor klaster DB untuk mengaksesnya.

**Topics**
+ [Mengidentifikasi bucket Amazon S3 untuk ekspor](#export-cluster-data.SetupBucket)
+ [Memberikan akses ke bucket Amazon S3 menggunakan peran IAM](#export-cluster-data.SetupIAMRole)
+ [Menggunakan bucket Amazon S3 lintas akun](#export-cluster-data.Setup.XAcctBucket)

## Mengidentifikasi bucket Amazon S3 untuk ekspor
<a name="export-cluster-data.SetupBucket"></a>

Identifikasi bucket Amazon S3 untuk mengekspor data klaster DB tujuan. Gunakan bucket S3 yang ada atau buat bucket S3 baru.

**catatan**  
Bucket S3 harus berada di AWS Region yang sama dengan cluster DB.

Untuk informasi selengkapnya tentang cara bekerja dengan bucket Amazon S3, lihat informasi berikut dalam *Panduan Pengguna Amazon Simple Storage Service*:
+ [ Bagaimana cara melihat properti untuk bucket S3?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/view-bucket-properties.html)
+ [ Bagaimana cara mengaktifkan enkripsi default untuk bucket Amazon S3?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/default-bucket-encryption.html)
+ [ Bagaimana cara membuat bucket S3?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/create-bucket.html)

## Memberikan akses ke bucket Amazon S3 menggunakan peran IAM
<a name="export-cluster-data.SetupIAMRole"></a>

Sebelum Anda mengekspor data klaster DB ke Amazon S3, berikan izin akses tulis tugas ekspor ke bucket Amazon S3.

Untuk memberikan izin ini, buat kebijakan IAM yang memberikan akses ke bucket, lalu buat peran IAM dan lampirkan kebijakan ke peran tersebut. Setelah itu, Anda dapat menetapkan peran IAM ke tugas ekspor klaster DB.

**penting**  
Jika Anda berencana untuk menggunakan klaster Konsol Manajemen AWS untuk mengekspor DB Anda, Anda dapat memilih untuk membuat kebijakan IAM dan peran secara otomatis ketika Anda mengekspor cluster DB. Untuk petunjuknya, lihat [Membuat tugas ekspor cluster DB](export-cluster-data.Exporting.md).

**Untuk memberikan akses tugas ke Amazon S3**

1. Buat kebijakan IAM. Kebijakan ini memberikan bucket dan izin objek yang memungkinkan tugas ekspor klaster DB Anda mengakses Amazon S3.

   Dalam kebijakan tersebut, sertakan tindakan yang diperlukan berikut untuk mengizinkan transfer file dari Amazon Aurora ke bucket S3:
   + `s3:PutObject*`
   + `s3:GetObject*` 
   + `s3:ListBucket` 
   + `s3:DeleteObject*`
   +  `s3:GetBucketLocation`

   Dalam kebijakan tersebut, sertakan sumber daya berikut untuk mengidentifikasi bucket S3 dan objek dalam bucket. Daftar sumber daya berikut menunjukkan format Amazon Resource Name (ARN) untuk mengakses Amazon S3.
   + `arn:aws:s3:::amzn-s3-demo-bucket`
   + `arn:aws:s3:::amzn-s3-demo-bucket/*`

   Untuk mengetahui informasi selengkapnya tentang cara membuat kebijakan IAM untuk Amazon Aurora, lihat [Membuat dan menggunakan kebijakan IAM untuk akses basis data IAM](UsingWithRDS.IAMDBAuth.IAMPolicy.md). Lihat juga [Tutorial: Membuat dan melampirkan kebijakan yang dikelola pelanggan pertama Anda](https://docs.aws.amazon.com//IAM/latest/UserGuide/tutorial_managed-policies.html) di *Panduan Pengguna IAM*.

    AWS CLI Perintah berikut membuat kebijakan IAM bernama `ExportPolicy` dengan opsi ini. Perintah ini akan memberikan akses ke bucket bernama *amzn-s3-demo-bucket*.
**catatan**  
Setelah Anda membuat kebijakan, catat ARN kebijakan tersebut. Anda memerlukan ARN ini untuk langkah berikutnya saat Anda melampirkan kebijakan tersebut pada peran IAM.

   ```
   aws iam create-policy  --policy-name ExportPolicy --policy-document '{
       "Version": "2012-10-17",		 	 	 
       "Statement": [
           {
               "Sid": "ExportPolicy",
               "Effect": "Allow",
               "Action": [
                   "s3:PutObject*",
                   "s3:ListBucket",
                   "s3:GetObject*",
                   "s3:DeleteObject*",
                   "s3:GetBucketLocation"
               ],
               "Resource": [
                   "arn:aws:s3:::amzn-s3-demo-bucket",
                   "arn:aws:s3:::amzn-s3-demo-bucket/*"
               ]
           }
       ]
   }'
   ```

1. Buat peran IAM agar Aurora dapat mengambil peran IAM ini atas nama Anda untuk mengakses bucket Amazon S3 Anda. Untuk informasi selengkapnya, lihat [Membuat peran untuk mendelegasikan izin kepada pengguna IAM](https://docs.aws.amazon.com//IAM/latest/UserGuide/id_roles_create_for-user.html) dalam *Panduan Pengguna IAM*.

   Contoh berikut menunjukkan menggunakan AWS CLI perintah untuk membuat peran bernama`rds-s3-export-role`.

   ```
   aws iam create-role  --role-name rds-s3-export-role  --assume-role-policy-document '{
        "Version": "2012-10-17",		 	 	 
        "Statement": [
          {
            "Effect": "Allow",
            "Principal": {
               "Service": "export.rds.amazonaws.com"
             },
            "Action": "sts:AssumeRole"
          }
        ] 
      }'
   ```

1. Lampirkan kebijakan IAM yang Anda buat pada peran IAM yang Anda buat.

    AWS CLI Perintah berikut melampirkan kebijakan yang dibuat sebelumnya ke peran bernama`rds-s3-export-role`. Ganti `your-policy-arn` dengan ARN kebijakan yang Anda catat di langkah sebelumnya.

   ```
   aws iam attach-role-policy  --policy-arn your-policy-arn  --role-name rds-s3-export-role
   ```

## Menggunakan bucket Amazon S3 lintas akun
<a name="export-cluster-data.Setup.XAcctBucket"></a>

Anda dapat menggunakan bucket S3 di seluruh AWS akun. Lihat informasi yang lebih lengkap di [Menggunakan bucket Amazon S3 lintas akun](aurora-export-snapshot.Setup.md#aurora-export-snapshot.Setup.XAcctBucket).

# Membuat tugas ekspor cluster DB
<a name="export-cluster-data.Exporting"></a>

Buat tugas ekspor untuk mengekspor data dari cluster Aurora DB Anda ke bucket Amazon S3. Anda dapat memiliki hingga lima tugas ekspor klaster DB bersamaan yang sedang berlangsung per Akun AWS.

**catatan**  
Mengekspor data klaster DB dapat memakan waktu, tergantung jenis dan ukuran basis data Anda. Tugas ekspor mengklona dan menskalakan seluruh basis data terlebih dahulu sebelum mengekstrak data ke Amazon S3. Progres tugas selama fase ini ditampilkan sebagai **Memulai**. Saat tugas beralih menjadi mengekspor data ke S3, progres akan ditampilkan sebagai **Sedang berlangsung**.  
Waktu yang diperlukan untuk menyelesaikan ekspor tergantung pada data yang disimpan di basis data. Misalnya, tabel dengan kunci primer numerik atau kolom indeks terdistribusi dengan baik mengekspor paling cepat. Tabel yang tidak berisi kolom yang sesuai untuk partisi dan tabel dengan hanya satu indeks pada kolom berbasis string membutuhkan waktu lebih lama karena pengeksporan menggunakan proses single-threaded yang lebih lambat.

Anda dapat mengekspor data cluster DB ke Amazon S3 menggunakan Konsol Manajemen AWS, file AWS CLI, atau file. RDS API

Jika Anda menggunakan fungsi Lambda untuk mengekspor klaster DB, tambahkan tindakan `kms:DescribeKey` terhadap kebijakan fungsi Lambda. Untuk informasi selengkapnya, lihat [izin AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/lambda-permissions.html).

## Konsol
<a name="export-cluster-data.ExportConsole"></a>

Opsi konsol **Ekspor ke Amazon S3** hanya muncul untuk klaster DB yang dapat diekspor ke Amazon S3. Klaster DB mungkin tidak tersedia untuk diekspor karena alasan berikut:
+ Mesin DB tidak didukung untuk ekspor S3.
+ Versi klaster DB tidak didukung untuk ekspor S3.
+ Ekspor S3 tidak didukung di AWS Wilayah tempat cluster DB dibuat.

**Untuk mengekspor data klaster DB**

1. Masuk ke Konsol Manajemen AWS dan buka RDS konsol Amazon di [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/).

1. Di panel navigasi, pilih **Basis Data**.

1. Pilih klaster DB yang datanya ingin Anda ekspor.

1. Untuk **Tindakan**, pilih **Ekspor ke Amazon S3**.

   Jendela **Ekspor ke Amazon S3** akan muncul.

1. Untuk **Pengidentifikasi ekspor**, masukkan nama untuk mengidentifikasi tugas ekspor. Nilai ini juga akan digunakan untuk nama file yang dibuat di bucket S3.

1. Pilih data yang akan diekspor:
   + Pilih **Semua** untuk mengekspor semua data dalam klaster DB.
   + Pilih **Parsial** untuk mengekspor bagian tertentu dari klaster DB. Untuk mengidentifikasi bagian klaster mana yang akan diekspor, masukkan satu atau beberapa basis data, skema, atau tabel untuk **Pengidentifikasi**, dipisahkan dengan spasi.

     Gunakan format berikut:

     ```
     database[.schema][.table] database2[.schema2][.table2] ... databasen[.scheman][.tablen]
     ```

     Contohnya:

     ```
     mydatabase mydatabase2.myschema1 mydatabase2.myschema2.mytable1 mydatabase2.myschema2.mytable2
     ```

1. Untuk **Bucket S3**, pilih bucket yang akan dijadikan tujuan ekspor.

   Untuk menetapkan data yang diekspor ke jalur folder dalam bucket S3, masukkan jalur opsional untuk **Prefiks S3**.

1. Untuk **IAMperan**, pilih peran yang memberi Anda akses tulis ke bucket S3 pilihan Anda, atau buat peran baru.
   + Jika Anda membuat peran dengan mengikuti langkah-langkah di [Memberikan akses ke bucket Amazon S3 menggunakan peran IAM](export-cluster-data.Setup.md#export-cluster-data.SetupIAMRole), pilih peran tersebut.
   + Jika Anda tidak membuat peran yang memberi Anda akses tulis ke bucket S3 yang Anda pilih, pilih **Buat peran baru** untuk membuat peran secara otomatis. Selanjutnya, masukkan nama untuk peran dalam **nama IAM peran**.

1. Untuk **KMSkunci**, masukkan kunci ARN untuk digunakan untuk mengenkripsi data yang diekspor.

1. Pilih **Ekspor ke Amazon S3**.

## AWS CLI
<a name="export-cluster-data.ExportCLI"></a>

Untuk mengekspor data cluster DB ke Amazon S3 menggunakan AWS CLI, gunakan [start-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/start-export-task.html)perintah dengan opsi yang diperlukan berikut:
+ `--export-task-identifier`
+ `--source-arn`— Nama Sumber Daya Amazon (ARN) dari cluster DB
+ `--s3-bucket-name`
+ `--iam-role-arn`
+ `--kms-key-id`

Dalam contoh berikut, tugas ekspor diberi nama *my-cluster-export*, yang mengekspor data ke bucket S3 bernama *amzn-s3-demo-destination-bucket*.

**Example**  
Untuk Linux, macOS, atau Unix:  

```
1. aws rds start-export-task \
2.     --export-task-identifier my-cluster-export \
3.     --source-arn arn:aws:rds:us-west-2:123456789012:cluster:my-cluster \
4.     --s3-bucket-name amzn-s3-demo-destination-bucket \
5.     --iam-role-arn iam-role \
6.     --kms-key-id my-key
```
Untuk Windows:  

```
1. aws rds start-export-task ^
2.     --export-task-identifier my-DB-cluster-export ^
3.     --source-arn arn:aws:rds:us-west-2:123456789012:cluster:my-cluster ^
4.     --s3-bucket-name amzn-s3-demo-destination-bucket ^
5.     --iam-role-arn iam-role ^
6.     --kms-key-id my-key
```
Berikut adalah contoh output.  

```
{
    "ExportTaskIdentifier": "my-cluster-export",
    "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:my-cluster",
    "S3Bucket": "amzn-s3-demo-destination-bucket",
    "IamRoleArn": "arn:aws:iam:123456789012:role/ExportTest",
    "KmsKeyId": "my-key",
    "Status": "STARTING",
    "PercentProgress": 0,
    "TotalExtractedDataInGB": 0,
}
```
Untuk menyediakan jalur folder di bucket S3 untuk ekspor cluster DB, sertakan `--s3-prefix` opsi dalam [start-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/start-export-task.html)perintah.

## RDS API
<a name="export-cluster-data.ExportAPI"></a>

Untuk mengekspor data cluster DB ke Amazon S3 menggunakan Amazon RDSAPI, gunakan [StartExportTask](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_StartExportTask.html)operasi dengan parameter yang diperlukan berikut:
+ `ExportTaskIdentifier`
+ `SourceArn`— ARN dari cluster DB
+ `S3BucketName`
+ `IamRoleArn`
+ `KmsKeyId`

# Memantau tugas ekspor klaster DB
<a name="export-cluster-data.Monitoring"></a>

Anda dapat memantau ekspor cluster DB menggunakan Konsol Manajemen AWS, AWS CLI, atau file. RDS API

## Konsol
<a name="export-cluster-data.MonitorConsole"></a>

**Untuk memantau ekspor klaster DB**

1. Masuk ke Konsol Manajemen AWS dan buka RDS konsol Amazon di [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/).

1. Di panel navigasi, pilih **Ekspor di Amazon S3**.

   Ekspor klaster DB ditunjukkan di kolom **Tipe sumber**. Status ekspor ditampilkan di kolom **Status**.

1. Untuk melihat informasi detail tentang ekspor klaster khusus, pilih tugas ekspor.

## AWS CLI
<a name="export-cluster-data.MonitorCLI"></a>

Untuk memantau tugas ekspor cluster DB menggunakan AWS CLI, gunakan [ describe-export-tasks](https://docs.aws.amazon.com/cli/latest/reference/rds/describe-export-tasks.html)perintah.

Contoh berikut menunjukkan cara menampilkan informasi saat ini tentang semua ekspor klaster DB Anda.

**Example**  

```
 1. aws rds describe-export-tasks
 2. 
 3. {
 4.     "ExportTasks": [
 5.         {
 6.             "Status": "CANCELED",
 7.             "TaskEndTime": "2022-11-01T17:36:46.961Z",
 8.             "S3Prefix": "something",
 9.             "S3Bucket": "amzn-s3-demo-bucket",
10.             "PercentProgress": 0,
11.             "KmsKeyId": "arn:aws:kms:us-west-2:123456789012:key/K7MDENG/bPxRfiCYEXAMPLEKEY",
12.             "ExportTaskIdentifier": "anewtest",
13.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
14.             "TotalExtractedDataInGB": 0,
15.             "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:parameter-groups-test"
16.         },
17. {
18.             "Status": "COMPLETE",
19.             "TaskStartTime": "2022-10-31T20:58:06.998Z",
20.             "TaskEndTime": "2022-10-31T21:37:28.312Z",
21.             "WarningMessage": "{\"skippedTables\":[],\"skippedObjectives\":[],\"general\":[{\"reason\":\"FAILED_TO_EXTRACT_TABLES_LIST_FOR_DATABASE\"}]}",
22.             "S3Prefix": "",
23.             "S3Bucket": "amzn-s3-demo-bucket1",
24.             "PercentProgress": 100,
25.             "KmsKeyId": "arn:aws:kms:us-west-2:123456789012:key/2Zp9Utk/h3yCo8nvbEXAMPLEKEY",
26.             "ExportTaskIdentifier": "thursday-events-test", 
27.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
28.             "TotalExtractedDataInGB": 263,
29.             "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:example-1-2019-10-31-06-44"
30.         },
31.         {
32.             "Status": "FAILED",
33.             "TaskEndTime": "2022-10-31T02:12:36.409Z",
34.             "FailureCause": "The S3 bucket amzn-s3-demo-bucket2 isn't located in the current AWS Region. Please, review your S3 bucket name and retry the export.",
35.             "S3Prefix": "",
36.             "S3Bucket": "amzn-s3-demo-bucket2",
37.             "PercentProgress": 0,
38.             "KmsKeyId": "arn:aws:kms:us-west-2:123456789012:key/2Zp9Utk/h3yCo8nvbEXAMPLEKEY",
39.             "ExportTaskIdentifier": "wednesday-afternoon-test",
40.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
41.             "TotalExtractedDataInGB": 0,
42.             "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:example-1-2019-10-30-06-45"
43.         }
44.     ]
45. }
```
Untuk menampilkan informasi tentang ekspor khusus, sertakan opsi `--export-task-identifier` dengan perintah `describe-export-tasks`. Sertakan opsi `--Filters` untuk memfilter output. Untuk opsi lainnya, lihat [ describe-export-tasks](https://docs.aws.amazon.com/cli/latest/reference/rds/describe-export-tasks.html)perintah.

## RDS API
<a name="export-cluster-data.MonitorAPI"></a>

Untuk menampilkan informasi tentang ekspor cluster DB menggunakan Amazon RDSAPI, gunakan [DescribeExportTasks](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_DescribeExportTasks.html)operasi.

Untuk melacak penyelesaian alur kerja ekspor atau memulai alur kerja lainnya, Anda dapat berlangganan topik Amazon Simple Notification Service. Untuk informasi lebih lanjut tentang AmazonSNS, lihat[Bekerja dengan pemberitahuan RDS acara Amazon](USER_Events.md).

# Membatalkan tugas ekspor klaster DB
<a name="export-cluster-data.Canceling"></a>

Anda dapat membatalkan tugas ekspor klaster DB menggunakan Konsol Manajemen AWS, file AWS CLI, atau file RDSAPI.

**catatan**  
Membatalkan tugas ekspor tidak menghapus data apa pun yang diekspor ke Amazon S3. Untuk mengetahui informasi tentang cara menghapus data menggunakan konsol, lihat [Bagaimana cara menghapus objek dari bucket S3?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/delete-objects.html) Untuk menghapus data menggunakanCLI, gunakan perintah [delete-object](https://docs.aws.amazon.com/cli/latest/reference/s3api/delete-object.html).

## Konsol
<a name="export-cluster-data.CancelConsole"></a>

**Untuk membatalkan tugas ekspor klaster DB**

1. Masuk ke Konsol Manajemen AWS dan buka RDS konsol Amazon di [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/).

1. Di panel navigasi, pilih **Ekspor di Amazon S3**.

   Ekspor klaster DB ditunjukkan di kolom **Tipe sumber**. Status ekspor ditampilkan di kolom **Status**.

1. Pilih tugas ekspor yang ingin Anda batalkan.

1. Pilih **Batalkan**.

1. Pilih **Batalkan tugas ekspor** di halaman konfirmasi.

 

## AWS CLI
<a name="export-cluster-data.CancelCLI"></a>

Untuk membatalkan tugas ekspor menggunakan AWS CLI, gunakan [cancel-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/cancel-export-task.html)perintah. Perintah tersebut memerlukan opsi `--export-task-identifier`.

**Example**  

```
 1. aws rds cancel-export-task --export-task-identifier my-export
 2. {
 3.     "Status": "CANCELING",
 4.     "S3Prefix": "",
 5.     "S3Bucket": "amzn-s3-demo-bucket",
 6.     "PercentProgress": 0,
 7.     "KmsKeyId": "arn:aws:kms:us-west-2:123456789012:key/K7MDENG/bPxRfiCYEXAMPLEKEY",
 8.     "ExportTaskIdentifier": "my-export",
 9.     "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
10.     "TotalExtractedDataInGB": 0,
11.     "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:export-example-1"
12. }
```

## RDS API
<a name="export-cluster-data.CancelAPI"></a>

Untuk membatalkan tugas ekspor menggunakan Amazon RDSAPI, gunakan [CancelExportTask](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_CancelExportTask.html)operasi dengan `ExportTaskIdentifier` parameter.

# Memecahkan masalah ekspor cluster DB
<a name="export-cluster-data.Troubleshooting"></a>

Gunakan bagian berikut untuk membantu memecahkan masalah pesan kegagalan dan kesalahan SQL izin Postgre untuk tugas ekspor klaster DB ke Amazon S3.

## Pesan kegagalan untuk tugas ekspor Amazon S3
<a name="export-cluster-data.failure-msg"></a>

Tabel berikut menjelaskan pesan yang akan ditampilkan jika tugas ekspor Amazon S3 gagal.


| Pesan kegagalan | Deskripsi | 
| --- | --- | 
| Gagal menemukan atau mengakses klaster DB sumber: [nama klaster] | Klaster DB sumber tidak dapat diklona. | 
| Terjadi kesalahan internal yang tidak diketahui. |  Tugas telah gagal karena kesalahan yang tidak diketahui, pengecualian, atau kegagalan.  | 
| Terjadi kesalahan internal yang tidak diketahui saat menulis metadata tugas ekspor ke bucket S3 [nama bucket]. |  Tugas telah gagal karena kesalahan yang tidak diketahui, pengecualian, atau kegagalan.  | 
| RDSEkspor gagal menulis metadata tugas ekspor karena tidak dapat mengambil IAM peran [peranARN]. |  Tugas ekspor mengasumsikan IAM peran Anda untuk memvalidasi apakah diperbolehkan menulis metadata ke bucket S3 Anda. Jika tugas tidak dapat mengambil IAM peran Anda, itu gagal.  | 
| RDSEkspor gagal menulis metadata tugas ekspor ke bucket S3 [nama bucket] menggunakan IAM role [roleARN] dengan KMS kunci [key ID]. Kode kesalahan: [kode kesalahan] |  Satu atau beberapa izin tidak ada, sehingga tugas ekspor tidak dapat mengakses bucket S3. Pesan kegagalan ini muncul saat menerima salah satu kode kesalahan berikut: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/AmazonRDS/latest/AuroraUserGuide/export-cluster-data.Troubleshooting.html) Kode kesalahan ini menunjukkan bahwa pengaturan salah dikonfigurasi untuk IAM peran, bucket S3, atau KMS kunci.  | 
| IAMRole [roleARN] tidak diizinkan untuk memanggil [S3 action] pada bucket S3 [nama bucket]. Tinjau izin Anda dan coba lagi ekspor. |  IAMKebijakan ini salah dikonfigurasi. Izin untuk tindakan S3 tertentu pada bucket S3 tidak ada, sehingga menyebabkan tugas ekspor gagal.  | 
| KMSpemeriksaan kunci gagal. Periksa kredensil pada KMS kunci Anda dan coba lagi. | Pemeriksaan KMS kredensi kunci gagal. | 
| Pemeriksaan kredensial S3 gagal. Periksa izin pada bucket dan IAM kebijakan S3 Anda. | Pemeriksaan kredensial S3 gagal. | 
| Bucket S3 [nama bucket] tidak valid. Bucket tersebut tidak berada di Wilayah AWS saat ini atau tidak ada. Tinjau nama bucket S3 Anda, lalu coba lagi ekspor. | Bucket S3 tidak valid. | 
| Bucket S3 [nama bucket] tidak berada di Wilayah AWS saat ini. Tinjau nama bucket S3 Anda, lalu coba lagi ekspor. | Ember S3 salah Wilayah AWS. | 

## Memecahkan masalah kesalahan izin Postgre SQL
<a name="export-cluster-data.postgres-permissions"></a>

Saat mengekspor SQL database Postgre ke Amazon S3, Anda mungkin melihat `PERMISSIONS_DO_NOT_EXIST` kesalahan yang menyatakan bahwa tabel tertentu dilewati. Kesalahan ini biasanya terjadi saat superuser, yang Anda tetapkan saat membuat klaster DB, tidak memiliki izin untuk mengakses tabel tersebut.

Untuk memperbaiki kesalahan ini, jalankan perintah berikut:

```
GRANT ALL PRIVILEGES ON ALL TABLES IN SCHEMA schema_name TO superuser_name
```

Untuk informasi selengkapnya tentang hak pengguna super, lihat [Hak akses akun pengguna master](UsingWithRDS.MasterAccounts.md).