

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Impor data
<a name="canvas-importing-data"></a>

Amazon SageMaker Canvas mendukung mengimpor data tabel, gambar, dan dokumen. Anda dapat mengimpor kumpulan data dari mesin lokal Anda, layanan Amazon seperti Amazon S3 dan Amazon Redshift, dan sumber data eksternal. Saat mengimpor kumpulan data dari Amazon S3, Anda dapat membawa kumpulan data dalam berbagai ukuran. Gunakan kumpulan data yang Anda impor untuk membuat model dan membuat prediksi untuk kumpulan data lainnya.

Setiap kasus penggunaan yang dapat Anda buat model kustom menerima berbagai jenis input. Misalnya, jika Anda ingin membangun model klasifikasi gambar label tunggal, maka Anda harus mengimpor data gambar. Untuk informasi selengkapnya tentang berbagai jenis model dan data yang mereka terima, lihat[Cara kerja model khusus](canvas-build-model.md). Anda dapat mengimpor data dan membuat model kustom di SageMaker Canvas untuk tipe data berikut:
+ **Tabular** (CSV, Parket, atau tabel)
  + Kategoris — Gunakan data kategoris untuk membuat model prediksi kategoris khusus untuk prediksi kategori 2 dan 3\$1.
  + Numerik — Gunakan data numerik untuk membuat model prediksi numerik kustom.
  + Teks — Gunakan data teks untuk membuat model prediksi teks multi-kategori kustom.
  + Timeseries — Gunakan data timeseries untuk membuat model peramalan deret waktu kustom.
+ **Gambar** (JPG atau PNG) - Gunakan data gambar untuk membuat model prediksi gambar label tunggal khusus.
+ **Dokumen** (PDF, JPG, PNG, TIFF) - Data dokumen hanya didukung untuk model SageMaker Canvas Ready-to-use. Untuk mempelajari lebih lanjut tentang Ready-to-use model yang dapat membuat prediksi untuk data dokumen, lihat[Ready-to-use model](canvas-ready-to-use-models.md).

Anda dapat mengimpor data ke Canvas dari sumber data berikut:
+ File lokal di komputer Anda
+ Bucket Amazon S3
+ Cluster yang disediakan Amazon Redshift (bukan Amazon Redshift Tanpa Server)
+ AWS Glue Data Catalog melalui Amazon Athena
+ Amazon Aurora
+ Amazon Relational Database Service (Amazon RDS)
+ Awan Data Salesforce
+ Kepingan salju
+ Databricks, SQLServer MariaDB, dan database populer lainnya melalui konektor JDBC
+ Lebih dari 40 platform SaaS eksternal, seperti SAP OData

Untuk daftar lengkap sumber data dari mana Anda dapat mengimpor, lihat tabel berikut:


| Sumber | Tipe | Jenis data yang didukung | 
| --- | --- | --- | 
| Unggahan file lokal | Lokal: | Tabular, Gambar, Dokumen | 
| Amazon Aurora | Amazon internal | Tabular | 
| Buket Amazon S3 | Amazon internal | Tabular, Gambar, Dokumen | 
| Amazon RDS | Amazon internal | Tabular | 
| Cluster yang disediakan Amazon Redshift (bukan Redshift Tanpa Server) | Amazon internal | Tabular | 
| AWS Glue Data Catalog (melalui Amazon Athena) | Amazon internal | Tabular | 
| [Databricks](https://www.databricks.com/) | Eksternal | Tabular | 
| Kepingan salju | Eksternal | Tabular | 
| [Awan Data Salesforce](https://www.salesforce.com/products/genie/overview/) | Eksternal | Tabular | 
| SQLServer | Eksternal | Tabular | 
| MySQL | Eksternal | Tabular | 
| PostgreSQL | Eksternal | Tabular | 
| MariaDB | Eksternal | Tabular | 
| [Amplitudo](https://docs.aws.amazon.com/appflow/latest/userguide/amplitude.html) | Platform SaaS eksternal | Tabular | 
| [CircleCI](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-circleci.html) | Platform SaaS eksternal | Tabular | 
| [DocuSign Monitor](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-docusign-monitor.html) | Platform SaaS eksternal | Tabular | 
| [Domo](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-domo.html) | Platform SaaS eksternal | Tabular | 
| [Datadog](https://docs.aws.amazon.com/appflow/latest/userguide/datadog.html) | Platform SaaS eksternal | Tabular | 
| [Dynatrace](https://docs.aws.amazon.com/appflow/latest/userguide/dynatrace.html) | Platform SaaS eksternal | Tabular | 
| [Iklan Facebook](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-facebook-ads.html) | Platform SaaS eksternal | Tabular | 
| [Wawasan Halaman Facebook](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-facebook-page-insights.html) | Platform SaaS eksternal | Tabular | 
| [Iklan Google](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-google-ads.html) | Platform SaaS eksternal | Tabular | 
| [Google Analytics 4](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-google-analytics-4.html) | Platform SaaS eksternal | Tabular | 
| [Konsol Penelusuran Google](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-google-search-console.html) | Platform SaaS eksternal | Tabular | 
| [GitHub](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-github.html) | Platform SaaS eksternal | Tabular | 
| [GitLab](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-gitlab.html) | Platform SaaS eksternal | Tabular | 
| [Infor Nexus](https://docs.aws.amazon.com/appflow/latest/userguide/infor-nexus.html) | Platform SaaS eksternal | Tabular | 
| [Iklan Instagram](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-instagram-ads.html) | Platform SaaS eksternal | Tabular | 
| [Jira Cloud](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-jira-cloud.html) | Platform SaaS eksternal | Tabular | 
| [LinkedIn Iklan](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-linkedin-ads.html) | Platform SaaS eksternal | Tabular | 
| [LinkedIn Iklan](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-linkedin-ads.html) | Platform SaaS eksternal | Tabular | 
| [Mailchimp](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-mailchimp.html) | Platform SaaS eksternal | Tabular | 
| [Marketo](https://docs.aws.amazon.com/appflow/latest/userguide/marketo.html) | Platform SaaS eksternal | Tabular | 
| [Microsoft Teams](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-microsoft-teams.html) | Platform SaaS eksternal | Tabular | 
| [Mixpanel](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-mixpanel.html) | Platform SaaS eksternal | Tabular | 
| [Okta](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-okta.html) | Platform SaaS eksternal | Tabular | 
| [Salesforce](https://docs.aws.amazon.com/appflow/latest/userguide/salesforce.html) | Platform SaaS eksternal | Tabular | 
| [Cloud Pemasaran Salesforce](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-salesforce-marketing-cloud.html) | Platform SaaS eksternal | Tabular | 
| [Salesforce Pardot](https://docs.aws.amazon.com/appflow/latest/userguide/pardot.html) | Platform SaaS eksternal | Tabular | 
| [GETAH OData](https://docs.aws.amazon.com/appflow/latest/userguide/sapodata.html) | Platform SaaS eksternal | Tabular | 
| [SendGrid](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-sendgrid.html) | Platform SaaS eksternal | Tabular | 
| [ServiceNow](https://docs.aws.amazon.com/appflow/latest/userguide/servicenow.html) | Platform SaaS eksternal | Tabular | 
| [Tunggal](https://docs.aws.amazon.com/appflow/latest/userguide/singular.html) | Platform SaaS eksternal | Tabular | 
| [Slack](https://docs.aws.amazon.com/appflow/latest/userguide/slack.html) | Platform SaaS eksternal | Tabular | 
| [Garis](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-stripe.html) | Platform SaaS eksternal | Tabular | 
| [Tren Mikro](https://docs.aws.amazon.com/appflow/latest/userguide/trend-micro.html) | Platform SaaS eksternal | Tabular | 
| [Jenis huruf](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-typeform.html) | Platform SaaS eksternal | Tabular | 
| [Veeva](https://docs.aws.amazon.com/appflow/latest/userguide/veeva.html) | Platform SaaS eksternal | Tabular | 
| [Zendesk](https://docs.aws.amazon.com/appflow/latest/userguide/zendesk.html) | Platform SaaS eksternal | Tabular | 
| [Obrolan Zendesk](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-zendesk-chat.html) | Platform SaaS eksternal | Tabular | 
| [Jual Zendesk](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-zendesk-sell.html) | Platform SaaS eksternal | Tabular | 
| [Sinar Matahari Zendesk](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-zendesk-sunshine.html) | Platform SaaS eksternal | Tabular | 
| [Pertemuan Zoom](https://docs.aws.amazon.com/appflow/latest/userguide/connectors-zoom.html) | Platform SaaS eksternal | Tabular | 

Untuk petunjuk tentang cara mengimpor data dan informasi mengenai persyaratan data input, seperti ukuran file maksimum untuk gambar, lihat[Buat kumpulan data](canvas-import-dataset.md).

Canvas juga menyediakan beberapa kumpulan data sampel dalam aplikasi Anda untuk membantu Anda memulai. Untuk mempelajari lebih lanjut tentang kumpulan data sampel SageMaker yang disediakan AI yang dapat Anda coba, lihat [Menggunakan](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas-sample-datasets.html) kumpulan data sampel.

Setelah Anda mengimpor dataset ke Canvas, Anda dapat memperbarui dataset kapan saja. Anda dapat melakukan pembaruan manual atau Anda dapat mengatur jadwal untuk pembaruan dataset otomatis. Untuk informasi selengkapnya, lihat [Memperbarui kumpulan data](canvas-update-dataset.md).

Untuk informasi selengkapnya yang spesifik untuk setiap jenis kumpulan data, lihat bagian berikut:

**Tabular**

Untuk mengimpor data dari sumber data eksternal (seperti database Snowflake atau platform SaaS), Anda harus mengautentikasi dan terhubung ke sumber data dalam aplikasi Canvas. Untuk informasi selengkapnya, lihat [Connect ke sumber data](canvas-connecting-external.md).

Jika Anda ingin mengimpor kumpulan data yang lebih besar dari 5 GB dari Amazon S3 ke Canvas, Anda dapat mencapai pengambilan sampel yang lebih cepat dengan menggunakan Amazon Athena untuk menanyakan dan mengambil sampel data dari Amazon S3.

Setelah membuat kumpulan data di Canvas, Anda dapat menyiapkan dan mengubah data Anda menggunakan fungsionalitas persiapan data Data Wrangler. Anda dapat menggunakan Data Wrangler untuk menangani nilai yang hilang, mengubah fitur Anda, menggabungkan beberapa kumpulan data menjadi satu kumpulan data, dan banyak lagi. Untuk informasi selengkapnya, lihat [Persiapan data](canvas-data-prep.md).

**Tip**  
Selama data Anda disusun ke dalam tabel, Anda dapat menggabungkan kumpulan data dari berbagai sumber, seperti Amazon Redshift, Amazon Athena, atau Snowflake.

**Gambar**

Untuk informasi tentang cara mengedit kumpulan data gambar dan melakukan tugas seperti menetapkan atau menetapkan ulang label, menambahkan gambar, atau menghapus gambar, lihat. [Mengedit kumpulan data gambar](canvas-edit-image.md)

# Buat kumpulan data
<a name="canvas-import-dataset"></a>

**catatan**  
Jika Anda mengimpor kumpulan data yang lebih besar dari 5 GB ke Amazon SageMaker Canvas, sebaiknya gunakan [fitur Data Wrangler](canvas-data-prep.md) di Canvas untuk membuat aliran data. Data Wrangler mendukung fitur persiapan data lanjutan seperti [menggabungkan dan [menggabungkan](canvas-transform.md#canvas-transform-concatenate)](canvas-transform.md#canvas-transform-join) data. Setelah Anda membuat aliran data, Anda dapat mengekspor aliran data Anda sebagai dataset Canvas dan mulai membangun model. Untuk informasi selengkapnya, lihat [Ekspor untuk membuat model](canvas-processing-export-model.md).

Bagian berikut menjelaskan cara membuat kumpulan data di Amazon SageMaker Canvas. Untuk model khusus, Anda dapat membuat kumpulan data untuk data tabel dan gambar. Untuk Ready-to-use model, Anda dapat menggunakan kumpulan data tabel dan gambar serta kumpulan data dokumen. Pilih alur kerja Anda berdasarkan informasi berikut:
+ Untuk data kategoris, numerik, teks, dan timeseries, lihat. [Impor data tabular](#canvas-import-dataset-tabular)
+ Untuk data gambar, lihat[Impor data gambar](#canvas-import-dataset-image).
+ Untuk data dokumen, lihat[Impor data dokumen](#canvas-ready-to-use-import-document).

Dataset dapat terdiri dari beberapa file. Misalnya, Anda mungkin memiliki beberapa file data inventaris dalam format CSV. Anda dapat mengunggah file-file ini bersama-sama sebagai kumpulan data selama skema (atau nama kolom dan tipe data) file cocok.

Canvas juga mendukung pengelolaan beberapa versi dataset Anda. Saat Anda membuat kumpulan data, versi pertama diberi label sebagai. `V1` Anda dapat membuat versi baru dari dataset Anda dengan memperbarui dataset Anda. Anda dapat melakukan pembaruan manual, atau Anda dapat mengatur jadwal otomatis untuk memperbarui kumpulan data Anda dengan data baru. Untuk informasi selengkapnya, lihat [Memperbarui kumpulan data](canvas-update-dataset.md).

Saat Anda mengimpor data ke Canvas, pastikan data tersebut memenuhi persyaratan dalam tabel berikut. Keterbatasan khusus untuk jenis model yang Anda bangun.


| Kuota | 2 kategori, 3\$1 kategori, numerik, dan model deret waktu | Model prediksi teks | Model prediksi gambar | \$1 Data dokumen untuk model Ready-to-use | 
| --- | --- | --- | --- | --- | 
| Tipe file yang didukung |  CSV dan Parket (unggahan lokal, Amazon S3, atau database) JSON (database)  |  CSV dan Parket (unggahan lokal, Amazon S3, atau database) JSON (database)  | JPG, PNG | PDF, JPG, PNG, TIFF | 
| Ukuran maksimum file |  Unggahan lokal: 5 GB Sumber data: PBs  |  Unggahan lokal: 5 GB Sumber data: PBs  | 30 MB per gambar | 5 MB per dokumen | 
| Jumlah maksimum file yang dapat Anda unggah sekaligus | 30 | 30 | N/A | N/A | 
| Jumlah kolom maksimum | 1.000 | 1.000 | N/A | N/A | 
| Jumlah maksimum entri (baris, gambar, atau dokumen) untuk build **Cepat** | N/A | 7500 baris | 5000 gambar | N/A | 
| Jumlah maksimum entri (baris, gambar, atau dokumen) untuk build **Standar** | N/A | 150.000 baris | 180.000 gambar | N/A | 
| Jumlah minimum entri (baris) untuk build **Cepat** |  2 kategori: 500 baris 3\$1 kategori, numerik, deret waktu: N/A  | N/A | N/A | N/A | 
| Jumlah minimum entri (baris, gambar, atau dokumen) untuk build **Standar** | 250 baris | 50 baris | 50 gambar | N/A | 
|  Jumlah minimum entri (baris atau gambar) per label | N/A | 25 baris | 25 baris | N/A | 
| Jumlah minimum label |  2 kategori: 2 3\$1 kategori: 3 Numerik, deret waktu: N/A  | 2 | 2 | N/A | 
|  Ukuran sampel minimum untuk pengambilan sampel acak | 500 | N/A | N/A | N/A | 
|  Ukuran sampel maksimum untuk pengambilan sampel acak | 200.000 | N/A | N/A | N/A | 
| Jumlah label maksimum |  2 kategori: 2 3\$1 kategori, numerik, deret waktu: N/A  | 1000 | 1000 | N/A | 

\$1Data dokumen saat ini hanya didukung untuk [Ready-to-use model](canvas-ready-to-use-models.md) yang menerima data dokumen. Anda tidak dapat membuat model kustom dengan data dokumen.

Perhatikan juga batasan berikut:
+ Saat mengimpor data dari bucket Amazon S3, pastikan nama bucket Amazon S3 Anda tidak berisi file. `.` Jika nama bucket berisi a`.`, Anda mungkin mengalami error saat mencoba mengimpor data ke Canvas.
+ Untuk data tabular, Canvas melarang memilih file apa pun dengan ekstensi selain .csv, .parquet, .parq, dan.pqt untuk unggahan lokal dan impor Amazon S3. File CSV dapat menggunakan pembatas umum atau kustom apa pun, dan file tersebut tidak boleh memiliki karakter baris baru kecuali saat menunjukkan baris baru.
+ Untuk data tabular menggunakan file Parket, perhatikan hal berikut:
  + File parket tidak dapat menyertakan tipe kompleks seperti peta dan daftar.
  + Nama kolom file Parket tidak dapat berisi spasi.
  + Jika menggunakan kompresi, file Parket harus menggunakan jenis kompresi gzip atau snappy. [Untuk informasi selengkapnya tentang jenis kompresi sebelumnya, lihat dokumentasi [gzip dan dokumentasi](https://www.gzip.org/) tajam.](https://github.com/google/snappy)
+ Untuk data gambar, jika Anda memiliki gambar yang tidak berlabel, Anda harus memberi label sebelum membuat model Anda. Untuk informasi tentang cara menetapkan label ke gambar dalam aplikasi Canvas, lihat[Mengedit kumpulan data gambar](canvas-edit-image.md).
+ Jika Anda mengatur pembaruan kumpulan data otomatis atau konfigurasi prediksi batch otomatis, Anda hanya dapat membuat total 20 konfigurasi di aplikasi Canvas Anda. Untuk informasi selengkapnya, lihat [Cara mengelola otomatisasi](canvas-manage-automations.md).

Setelah mengimpor kumpulan data, Anda dapat melihat kumpulan data Anda di halaman **Datasets** kapan saja.

## Impor data tabular
<a name="canvas-import-dataset-tabular"></a>

Dengan kumpulan data tabular, Anda dapat membuat model prediksi kategoris, numerik, deret waktu, dan prediksi teks. Tinjau tabel batasan di bagian **Impor kumpulan data** sebelumnya untuk memastikan bahwa data Anda memenuhi persyaratan untuk data tabular.

Gunakan prosedur berikut untuk mengimpor dataset tabular ke Canvas:

1. Buka aplikasi SageMaker Canvas Anda.

1. Di panel navigasi kiri, pilih **Datasets**.

1. Pilih **Impor data**.

1. **Dari menu dropdown, pilih Tabular.**

1. **Di kotak dialog popup, di bidang **Nama dataset, masukkan nama** untuk kumpulan data dan pilih Buat.**

1. Pada halaman **Create tabular dataset**, buka menu tarik-turun **Sumber Data**.

1. Pilih sumber data Anda:
   + Untuk mengunggah file dari komputer Anda, pilih **Unggah lokal**.
   + Untuk mengimpor data dari sumber lain, seperti bucket Amazon S3 atau database Snowflake, cari sumber data Anda di bilah sumber data **Penelusuran**. Kemudian, pilih ubin untuk sumber data yang Anda inginkan.
**catatan**  
Anda hanya dapat mengimpor data dari ubin yang memiliki koneksi aktif. Jika Anda ingin terhubung ke sumber data yang tidak tersedia untuk Anda, hubungi administrator Anda. Jika Anda seorang administrator, lihat[Connect ke sumber data](canvas-connecting-external.md).

   Tangkapan layar berikut menunjukkan **Sumber Data** menu tarik-turun.  
![\[Tangkapan layar yang menampilkan menu tarik-turun Sumber Data dan pencarian sumber data di bilah pencarian.\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/images/studio/canvas/import-data-choose-source.png)

1. (Opsional) Jika Anda menyambung ke database Amazon Redshift atau Snowflake untuk pertama kalinya, kotak dialog akan muncul untuk membuat sambungan. Isi kotak dialog dengan kredensialmu dan pilih **Buat** koneksi. Jika Anda sudah memiliki koneksi, pilih koneksi Anda.

1. Dari sumber data Anda, pilih file yang akan diimpor. Untuk mengunggah dan mengimpor lokal dari Amazon S3, Anda dapat memilih file. Hanya untuk Amazon S3, Anda juga memiliki opsi untuk langsung memasukkan URI S3, alias, atau ARN dari bucket atau titik akses S3 Anda di bidang **titik akhir Input S3**, lalu pilih file yang akan diimpor. Untuk sumber database, Anda dapat tabel drag-and-drop data dari panel navigasi kiri.

1. (Opsional) Untuk sumber data tabular yang mendukung kueri SQL (seperti Amazon Redshift, Amazon Athena, atau Snowflake), Anda dapat **memilih Edit di** SQL untuk membuat kueri SQL sebelum mengimpornya.

   Tangkapan layar berikut menunjukkan tampilan **Edit SQL** untuk sumber data Amazon Athena.  
![\[Tangkapan layar yang menampilkan kueri SQL dalam tampilan Edit SQL untuk data Amazon Athena.\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/images/studio/canvas/import-data-edit-sql.png)

1. Pilih **Pratinjau kumpulan data** untuk melihat pratinjau data Anda sebelum mengimpornya.

1. Dalam **pengaturan Impor**, masukkan nama **Dataset atau gunakan nama** dataset default.

1. (Opsional) Untuk data yang Anda impor dari Amazon S3, Anda akan ditampilkan Pengaturan **lanjutan** dan dapat mengisi kolom berikut:

   1. Aktifkan opsi **Gunakan baris pertama sebagai header** jika Anda ingin menggunakan baris pertama kumpulan data Anda sebagai nama kolom. Jika Anda memilih beberapa file, ini berlaku untuk setiap file.

   1. Jika Anda mengimpor file CSV, untuk dropdown **File encoding (CSV)**, pilih pengkodean file kumpulan data Anda. `UTF-8`adalah default.

   1. Untuk dropdown **Delimiter**, pilih pembatas yang memisahkan setiap sel dalam data Anda. Pembatas default adalah. `,` Anda juga dapat menentukan pembatas kustom.

   1. Pilih **Deteksi multi-baris** jika Anda ingin Canvas mengurai seluruh kumpulan data Anda secara manual untuk sel multi-baris. Secara default, opsi ini tidak dipilih dan Canvas menentukan apakah akan menggunakan dukungan multi-baris atau tidak dengan mengambil sampel data Anda. Namun, Canvas mungkin tidak mendeteksi sel multi-baris dalam sampel. Jika Anda memiliki sel multi-baris, kami sarankan Anda memilih opsi **Deteksi multi-baris** untuk memaksa Canvas memeriksa seluruh kumpulan data Anda untuk sel multi-baris.

1. Saat Anda siap mengimpor data, pilih **Buat kumpulan data**.

**Saat dataset Anda mengimpor ke Canvas, Anda dapat melihat kumpulan data Anda terdaftar di halaman Datasets.** Dari halaman ini, Anda bisa[Lihat detail dataset Anda](#canvas-view-dataset-details).

Ketika **Status** kumpulan data Anda ditampilkan sebagai`Ready`, Canvas berhasil mengimpor data Anda dan Anda dapat melanjutkan dengan [membangun model](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas-build-model.html).

Jika Anda memiliki koneksi ke sumber data, seperti database Amazon Redshift atau konektor SaaS, Anda dapat kembali ke koneksi itu. Untuk Amazon Redshift dan Snowflake, Anda dapat menambahkan koneksi lain dengan membuat kumpulan data lain, kembali ke halaman **Impor data**, dan memilih ubin **Sumber Data** untuk koneksi tersebut. Dari menu tarik-turun, Anda dapat membuka koneksi sebelumnya atau memilih **Tambahkan** koneksi.

**catatan**  
Untuk platform SaaS, Anda hanya dapat memiliki satu koneksi per sumber data.

## Impor data gambar
<a name="canvas-import-dataset-image"></a>

Dengan kumpulan data gambar, Anda dapat membuat model kustom prediksi gambar label tunggal, yang memprediksi label untuk gambar. Tinjau batasan di bagian **Impor kumpulan data sebelumnya untuk memastikan bahwa kumpulan data** gambar Anda memenuhi persyaratan untuk data gambar.

**catatan**  
Anda hanya dapat mengimpor kumpulan data gambar dari unggahan file lokal atau bucket Amazon S3. Selain itu, untuk kumpulan data gambar, Anda harus memiliki setidaknya 25 gambar per label.

Gunakan prosedur berikut untuk mengimpor dataset gambar ke Canvas:

1. Buka aplikasi SageMaker Canvas Anda.

1. Di panel navigasi kiri, pilih **Datasets**.

1. Pilih **Impor data**.

1. **Dari menu dropdown, pilih Gambar.**

1. **Di kotak dialog popup, di bidang **Nama dataset, masukkan nama** untuk kumpulan data dan pilih Buat.**

1. Pada halaman **Impor**, buka menu tarik-turun **Sumber Data**.

1. Pilih sumber data Anda. Untuk mengunggah file dari komputer Anda, pilih **Unggah lokal**. Untuk mengimpor file dari Amazon S3, pilih Amazon **S3**.

1. Dari komputer atau bucket Amazon S3 Anda, pilih gambar atau folder gambar yang ingin Anda unggah.

1. Saat Anda siap mengimpor data, pilih **Impor data**.

**Saat dataset Anda mengimpor ke Canvas, Anda dapat melihat kumpulan data Anda terdaftar di halaman Datasets.** Dari halaman ini, Anda bisa[Lihat detail dataset Anda](#canvas-view-dataset-details).

Ketika **Status** kumpulan data Anda ditampilkan sebagai`Ready`, Canvas berhasil mengimpor data Anda dan Anda dapat melanjutkan dengan [membangun model](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas-build-model.html).

Saat membuat model, Anda dapat mengedit kumpulan data gambar, dan Anda dapat menetapkan atau menetapkan ulang label, menambahkan gambar, atau menghapus gambar dari kumpulan data Anda. Untuk informasi selengkapnya tentang cara mengedit kumpulan data gambar Anda, lihat[Mengedit kumpulan data gambar](canvas-edit-image.md).

## Impor data dokumen
<a name="canvas-ready-to-use-import-document"></a>

 Ready-to-useModel untuk analisis pengeluaran, analisis dokumen identitas, analisis dokumen, dan kueri dokumen mendukung data dokumen. Anda tidak dapat membuat model kustom dengan data dokumen.

Dengan kumpulan data dokumen, Anda dapat menghasilkan prediksi untuk analisis pengeluaran, analisis dokumen identitas, analisis dokumen, dan model kueri dokumen. Ready-to-use Tinjau tabel batasan di [Buat kumpulan data](#canvas-import-dataset) bagian untuk memastikan bahwa kumpulan data dokumen Anda memenuhi persyaratan untuk data dokumen.

**catatan**  
Anda hanya dapat mengimpor kumpulan data dokumen dari unggahan file lokal atau bucket Amazon S3.

Gunakan prosedur berikut untuk mengimpor dataset dokumen ke Canvas:

1. Buka aplikasi SageMaker Canvas Anda.

1. Di panel navigasi kiri, pilih **Datasets**.

1. Pilih **Impor data**.

1. **Dari menu dropdown, pilih Document.**

1. **Di kotak dialog popup, di bidang **Nama dataset, masukkan nama** untuk kumpulan data dan pilih Buat.**

1. Pada halaman **Impor**, buka menu tarik-turun **Sumber Data**.

1. Pilih sumber data Anda. Untuk mengunggah file dari komputer Anda, pilih **Unggah lokal**. Untuk mengimpor file dari Amazon S3, pilih Amazon **S3**.

1. Dari komputer atau bucket Amazon S3 Anda, pilih file dokumen yang ingin Anda unggah.

1. Saat Anda siap mengimpor data, pilih **Impor data**.

**Saat dataset Anda mengimpor ke Canvas, Anda dapat melihat kumpulan data Anda terdaftar di halaman Datasets.** Dari halaman ini, Anda bisa[Lihat detail dataset Anda](#canvas-view-dataset-details).

Ketika **Status** kumpulan data Anda ditampilkan sebagai`Ready`, Canvas telah berhasil mengimpor data Anda.

Pada halaman **Datasets**, Anda dapat memilih dataset Anda untuk melihat pratinjau, yang menunjukkan hingga 100 dokumen pertama dari dataset Anda.

## Lihat detail dataset Anda
<a name="canvas-view-dataset-details"></a>



Untuk setiap kumpulan data, Anda dapat melihat semua file dalam kumpulan data, riwayat versi kumpulan data, dan konfigurasi pembaruan otomatis apa pun untuk kumpulan data. Dari halaman **Datasets**, Anda juga dapat memulai tindakan seperti atau. [Memperbarui kumpulan data](canvas-update-dataset.md) [Cara kerja model khusus](canvas-build-model.md)

Untuk melihat detail kumpulan data, lakukan hal berikut:

1. Buka aplikasi SageMaker Canvas.

1. Di panel navigasi kiri, pilih **Datasets**.

1. Dari daftar kumpulan data, pilih kumpulan data Anda.

Pada tab **Data**, Anda dapat melihat pratinjau data Anda. Jika Anda memilih **detail Dataset**, Anda dapat melihat semua file yang merupakan bagian dari kumpulan data Anda. Pilih file untuk melihat hanya data dari file itu di pratinjau. Untuk kumpulan data gambar, pratinjau hanya menampilkan 100 gambar pertama dari kumpulan data Anda.

Pada tab **Riwayat versi**, Anda dapat melihat daftar semua versi kumpulan data Anda. Versi baru dibuat setiap kali Anda memperbarui dataset. Untuk mempelajari lebih lanjut tentang memperbarui kumpulan data, lihat[Memperbarui kumpulan data](canvas-update-dataset.md). Tangkapan layar berikut menunjukkan tab **Riwayat versi** di aplikasi Canvas.

![\[Tangkapan layar tab Riwayat versi untuk kumpulan data, dengan daftar versi kumpulan data.\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/images/studio/canvas/canvas-version-history.png)


Pada tab **Pembaruan otomatis**, Anda dapat mengaktifkan pembaruan otomatis untuk kumpulan data dan mengatur konfigurasi untuk memperbarui kumpulan data Anda pada jadwal reguler. Untuk mempelajari selengkapnya tentang menyiapkan pembaruan otomatis untuk kumpulan data, lihat[Konfigurasikan pembaruan otomatis untuk kumpulan data](canvas-update-dataset-auto.md). Tangkapan layar berikut menunjukkan tab **Pembaruan otomatis** dengan pembaruan otomatis diaktifkan dan daftar pekerjaan pembaruan otomatis yang telah dilakukan pada kumpulan data.

![\[Tab Pembaruan otomatis untuk kumpulan data yang menunjukkan pembaruan otomatis diaktifkan dan daftar pekerjaan pembaruan otomatis.\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/images/studio/canvas/canvas-auto-updates.png)


# Memperbarui kumpulan data
<a name="canvas-update-dataset"></a>

Setelah mengimpor dataset awal ke Amazon SageMaker Canvas, Anda mungkin memiliki data tambahan yang ingin ditambahkan ke kumpulan data Anda. Misalnya, Anda mungkin mendapatkan data inventaris di akhir setiap minggu yang ingin Anda tambahkan ke kumpulan data Anda. Alih-alih mengimpor data Anda beberapa kali, Anda dapat memperbarui kumpulan data yang ada dan menambah atau menghapus file darinya.

**catatan**  
Anda hanya dapat memperbarui kumpulan data yang telah Anda impor melalui unggahan lokal atau Amazon S3.

Anda dapat memperbarui dataset Anda baik secara manual atau otomatis. Untuk informasi selengkapnya tentang pembaruan kumpulan data otomatis, lihat[Konfigurasikan pembaruan otomatis untuk kumpulan data](canvas-update-dataset-auto.md).

Setiap kali Anda memperbarui dataset Anda, Canvas membuat versi baru dari dataset Anda. Anda hanya dapat menggunakan versi terbaru dari dataset Anda untuk membuat model atau menghasilkan prediksi. Untuk informasi selengkapnya tentang melihat riwayat versi kumpulan data Anda, lihat[Lihat detail dataset Anda](canvas-import-dataset.md#canvas-view-dataset-details).

Anda juga dapat menggunakan pembaruan kumpulan data dengan prediksi batch otomatis, yang memulai pekerjaan prediksi batch setiap kali Anda memperbarui kumpulan data Anda. Untuk informasi selengkapnya, lihat [Prediksi Batch di Canvas SageMaker](canvas-make-predictions-batch.md).

Bagian berikut menjelaskan cara melakukan pembaruan manual pada kumpulan data Anda.

## Perbarui kumpulan data secara manual
<a name="canvas-update-dataset-manual"></a>

Untuk melakukan pembaruan manual, lakukan hal berikut:

1. Buka aplikasi SageMaker Canvas.

1. Di panel navigasi kiri, pilih **Datasets**.

1. Dari daftar kumpulan data, pilih kumpulan data yang ingin Anda perbarui.

1. **Pilih menu tarik-turun **Perbarui kumpulan data** dan pilih Pembaruan manual.** Anda dibawa ke alur kerja data impor.

1. Dari menu tarik-turun **sumber data**, pilih **Unggahan lokal atau Amazon** **S3**.

1. Halaman ini menunjukkan pratinjau data Anda. Dari sini, Anda dapat menambah atau menghapus file dari kumpulan data. Jika Anda mengimpor data tabular, skema file baru (nama kolom dan tipe data) harus cocok dengan skema file yang ada. Selain itu, file baru Anda tidak boleh melebihi ukuran set data maksimum atau ukuran file. Untuk informasi selengkapnya tentang batasan ini, lihat [Mengimpor kumpulan data](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas-import-dataset.html).
**catatan**  
Jika Anda menambahkan file dengan nama yang sama dengan file yang ada di kumpulan data Anda, file baru akan menimpa versi lama file tersebut.

1. Saat Anda siap menyimpan perubahan, pilih **Perbarui kumpulan data**.

Anda sekarang harus memiliki versi baru dari dataset Anda.

Pada halaman **Datasets**, Anda dapat memilih tab **Riwayat versi** untuk melihat semua versi kumpulan data Anda dan riwayat pembaruan manual dan otomatis yang telah Anda buat.

# Konfigurasikan pembaruan otomatis untuk kumpulan data
<a name="canvas-update-dataset-auto"></a>

Setelah mengimpor dataset awal ke Amazon SageMaker Canvas, Anda mungkin memiliki data tambahan yang ingin ditambahkan ke kumpulan data Anda. Misalnya, Anda mungkin mendapatkan data inventaris di akhir setiap minggu yang ingin Anda tambahkan ke kumpulan data Anda. Alih-alih mengimpor data Anda beberapa kali, Anda dapat memperbarui kumpulan data yang ada dan menambah atau menghapus file darinya.

**catatan**  
Anda hanya dapat memperbarui kumpulan data yang telah Anda impor melalui unggahan lokal atau Amazon S3.

Dengan pembaruan dataset otomatis, Anda menentukan lokasi di mana Canvas memeriksa file pada frekuensi yang Anda tentukan. Jika Anda mengimpor file baru selama pembaruan, skema file harus sama persis dengan kumpulan data yang ada.

Setiap kali Anda memperbarui dataset Anda, Canvas membuat versi baru dari dataset Anda. Anda hanya dapat menggunakan versi terbaru dari dataset Anda untuk membuat model atau menghasilkan prediksi. Untuk informasi selengkapnya tentang melihat riwayat versi kumpulan data Anda, lihat[Lihat detail dataset Anda](canvas-import-dataset.md#canvas-view-dataset-details).

Anda juga dapat menggunakan pembaruan kumpulan data dengan prediksi batch otomatis, yang memulai pekerjaan prediksi batch setiap kali Anda memperbarui kumpulan data Anda. Untuk informasi selengkapnya, lihat [Prediksi Batch di Canvas SageMaker](canvas-make-predictions-batch.md).

Bagian berikut menjelaskan cara melakukan pembaruan otomatis pada kumpulan data Anda.

Pembaruan otomatis adalah ketika Anda mengatur konfigurasi untuk Canvas untuk memperbarui dataset Anda pada frekuensi tertentu. Kami menyarankan Anda menggunakan opsi ini jika Anda secara teratur menerima file data baru yang ingin Anda tambahkan ke kumpulan data Anda.

Saat mengatur konfigurasi pembaruan otomatis, Anda menentukan lokasi Amazon S3 tempat Anda mengunggah file dan frekuensi di mana Canvas memeriksa lokasi dan mengimpor file. Setiap instance Canvas memperbarui dataset Anda disebut sebagai *pekerjaan*. Untuk setiap pekerjaan, Canvas mengimpor semua file di lokasi Amazon S3. Jika Anda memiliki file baru dengan nama yang sama dengan file yang ada di dataset Anda, Canvas menimpa file lama dengan file baru.

Untuk pembaruan dataset otomatis, Canvas tidak melakukan validasi skema. Jika skema file yang diimpor selama pembaruan otomatis tidak cocok dengan skema file yang ada atau melebihi batasan ukuran (lihat [Mengimpor kumpulan data](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas-import-dataset.html) untuk tabel batasan ukuran file), maka Anda mendapatkan kesalahan saat pekerjaan Anda berjalan.

**catatan**  
Anda hanya dapat mengatur maksimum 20 konfigurasi otomatis di aplikasi Canvas Anda. Selain itu, Canvas hanya melakukan pembaruan otomatis saat Anda masuk ke aplikasi Canvas Anda. Jika Anda keluar dari aplikasi Canvas Anda, pembaruan otomatis berhenti sampai Anda masuk kembali.

Untuk mengonfigurasi pembaruan otomatis untuk kumpulan data Anda, lakukan hal berikut:

1. Buka aplikasi SageMaker Canvas.

1. Di panel navigasi kiri, pilih **Datasets**.

1. Dari daftar kumpulan data, pilih kumpulan data yang ingin Anda perbarui.

1. **Pilih menu tarik-turun **Perbarui kumpulan data** dan pilih Pembaruan otomatis.** Anda akan dibawa ke tab **Pembaruan otomatis** untuk kumpulan data.

1. Aktifkan sakelar **Aktifkan pembaruan otomatis**.

1. Untuk **Tentukan sumber data**, masukkan jalur Amazon S3 ke folder tempat Anda berencana untuk mengunggah file secara teratur.

1. Untuk **Pilih frekuensi**, pilih **Per Jam**, **Mingguan**, atau **Harian**.

1. Untuk **Tentukan waktu mulai**, gunakan kalender dan pemilih waktu untuk memilih kapan Anda ingin pekerjaan pembaruan otomatis pertama dimulai.

1. Saat Anda siap membuat konfigurasi pembaruan otomatis, pilih **Simpan**.

Canvas memulai pekerjaan pertama irama pembaruan otomatis Anda pada waktu mulai yang ditentukan.

# Melihat pekerjaan pembaruan kumpulan data otomatis Anda
<a name="canvas-update-dataset-auto-view"></a>

Untuk melihat riwayat pekerjaan pembaruan kumpulan data otomatis Anda di Amazon SageMaker Canvas, pada halaman detail kumpulan data Anda, pilih tab **Pembaruan otomatis**.

Setiap pembaruan otomatis ke kumpulan data ditampilkan sebagai pekerjaan di tab **Pembaruan otomatis** di bawah bagian **Riwayat pekerjaan**. Untuk setiap pekerjaan, Anda dapat melihat yang berikut:
+ **Job created** — Stempel waktu ketika Canvas mulai memperbarui dataset.
+ **File** — Jumlah file dalam dataset.
+ **Sel (Kolom x Baris)** - Jumlah kolom dan baris dalam kumpulan data.
+ **Status** - Status kumpulan data setelah pembaruan. Jika pekerjaan itu berhasil, statusnya **Siap**. Jika pekerjaan gagal karena alasan apa pun, statusnya **Gagal**, dan Anda dapat mengarahkan kursor ke status untuk detail selengkapnya.

# Edit konfigurasi pembaruan kumpulan data otomatis Anda
<a name="canvas-update-dataset-auto-edit"></a>

Anda mungkin ingin membuat perubahan pada konfigurasi pembaruan otomatis untuk kumpulan data, seperti mengubah frekuensi pembaruan. Anda mungkin juga ingin menonaktifkan konfigurasi pembaruan otomatis untuk menjeda pembaruan pada kumpulan data Anda.

Untuk membuat perubahan pada konfigurasi pembaruan otomatis untuk kumpulan data, buka tab **Pembaruan otomatis** pada kumpulan data Anda dan pilih **Edit** untuk membuat perubahan pada konfigurasi.

Untuk menjeda pembaruan kumpulan data Anda, matikan konfigurasi otomatis Anda. Anda dapat menonaktifkan pembaruan otomatis dengan membuka tab **Pembaruan otomatis** pada kumpulan data Anda dan mematikan tombol **Aktifkan pembaruan otomatis**. Anda dapat mengaktifkan kembali sakelar ini kapan saja untuk melanjutkan jadwal pembaruan.

Untuk mempelajari cara menghapus konfigurasi Anda, lihat[Hapus konfigurasi otomatis](canvas-manage-automations-delete.md).

# Connect ke sumber data
<a name="canvas-connecting-external"></a>

Di Amazon SageMaker Canvas, Anda dapat mengimpor data dari lokasi di luar sistem file lokal Anda melalui AWS layanan, platform SaaS, atau database lain menggunakan konektor JDBC. Misalnya, Anda mungkin ingin mengimpor tabel dari gudang data di Amazon Redshift, atau Anda mungkin ingin mengimpor data Google Analytics.

Ketika Anda pergi melalui alur kerja **Impor** untuk mengimpor data dalam aplikasi Canvas, Anda dapat memilih sumber data Anda dan kemudian memilih data yang ingin Anda impor. Untuk sumber data tertentu, seperti Snowflake dan Amazon Redshift, Anda harus menentukan kredensialnya dan menambahkan koneksi ke sumber data.

Tangkapan layar berikut menunjukkan toolbar sumber data di alur kerja **Impor**, dengan semua sumber data yang tersedia disorot. Anda hanya dapat mengimpor data dari sumber data yang tersedia untuk Anda. Hubungi administrator Anda jika sumber data yang Anda inginkan tidak tersedia.

![\[Menu tarik-turun Sumber Data pada halaman Impor data di Canvas.\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/images/studio/canvas/data-sources.png)


Bagian berikut memberikan informasi tentang membangun koneksi ke sumber data eksternal dan dan mengimpor data dari mereka. Tinjau bagian berikut terlebih dahulu untuk menentukan izin apa yang Anda perlukan untuk mengimpor data dari sumber data Anda.

## Izin
<a name="canvas-connecting-external-permissions"></a>

Tinjau informasi berikut untuk memastikan bahwa Anda memiliki izin yang diperlukan untuk mengimpor data dari sumber data Anda:
+ **Amazon S3:** Anda dapat mengimpor data dari bucket Amazon S3 apa pun selama pengguna Anda memiliki izin untuk mengakses bucket. *Untuk informasi selengkapnya tentang menggunakan AWS IAM untuk mengontrol akses ke bucket Amazon S3, [lihat Manajemen identitas dan akses di Amazon S3 di Panduan Pengguna Amazon](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-access-control.html) S3.*
+ **Amazon Athena:** Jika Anda memiliki [AmazonSageMakerFullAccess](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonSageMakerFullAccess.html)kebijakan dan kebijakan yang [AmazonSageMakerCanvasFullAccess](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonSageMakerCanvasFullAccess.html)dilampirkan pada peran eksekusi pengguna, Anda dapat melakukan kueri AWS Glue Data Catalog dengan Amazon Athena. Jika Anda bagian dari workgroup Athena, pastikan bahwa pengguna Canvas memiliki izin untuk menjalankan kueri Athena pada data. Untuk informasi selengkapnya, lihat [Menggunakan grup kerja untuk menjalankan kueri](https://docs.aws.amazon.com/athena/latest/ug/workgroups.html) di Panduan Pengguna *Amazon Athena*.
+ **Amazon DocumentDB**: Anda dapat mengimpor data dari database Amazon DocumentDB selama Anda memiliki kredensyal (nama pengguna dan kata sandi) untuk terhubung ke database dan memiliki izin Kanvas dasar minimum yang dilampirkan ke peran eksekusi pengguna Anda. Untuk informasi selengkapnya tentang izin Canvas, lihat. [Prasyarat untuk menyiapkan Amazon Canvas SageMaker](canvas-getting-started.md#canvas-prerequisites)
+ **Amazon Redshift:** Untuk memberi Anda izin yang diperlukan untuk mengimpor data dari Amazon Redshift, lihat [Memberi Izin Pengguna untuk Mengimpor](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas-redshift-permissions.html) Data Amazon Redshift.
+ **Amazon RDS:** Jika Anda memiliki [AmazonSageMakerCanvasFullAccess](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonSageMakerCanvasFullAccess.html)kebijakan yang dilampirkan ke peran eksekusi pengguna Anda, maka Anda akan dapat mengakses database Amazon RDS Anda dari Canvas.
+ **Platform SaaS:** Jika Anda memiliki [AmazonSageMakerFullAccess](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonSageMakerFullAccess.html)kebijakan dan kebijakan yang [AmazonSageMakerCanvasFullAccess](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonSageMakerCanvasFullAccess.html)melekat pada peran eksekusi pengguna Anda, maka Anda memiliki izin yang diperlukan untuk mengimpor data dari platform SaaS. Lihat [Gunakan konektor SaaS dengan Canvas](#canvas-connecting-external-appflow) untuk informasi lebih lanjut tentang menghubungkan ke konektor SaaS tertentu.
+ **Konektor JDBC:** Untuk sumber database seperti Databricks, MySQL atau MariaDB, Anda harus mengaktifkan otentikasi nama pengguna dan kata sandi pada database sumber sebelum mencoba terhubung dari Canvas. Jika Anda terhubung ke database Databricks, Anda harus memiliki URL JDBC yang berisi kredensyal yang diperlukan.

## Connect ke database yang disimpan di AWS
<a name="canvas-connecting-internal-database"></a>

Anda mungkin ingin mengimpor data yang telah Anda simpan AWS. Anda dapat mengimpor data dari Amazon S3, menggunakan Amazon Athena untuk menanyakan database di AWS Glue Data Catalog, mengimpor data dari [Amazon RDS, atau membuat sambungan ke database Amazon](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Welcome.html) Redshift yang disediakan (bukan Redshift Tanpa Server).

Anda dapat membuat beberapa koneksi ke Amazon Redshift. Untuk Amazon Athena, Anda dapat mengakses database apa pun yang Anda miliki di situs Anda. [AWS Glue Data Catalog](https://docs.aws.amazon.com/prescriptive-guidance/latest/serverless-etl-aws-glue/aws-glue-data-catalog.html) Untuk Amazon S3, Anda dapat mengimpor data dari bucket selama Anda memiliki izin yang diperlukan.

Tinjau bagian berikut untuk informasi lebih rinci.

### Connect ke data di Amazon S3, Amazon Athena, atau Amazon RDS
<a name="canvas-connecting-internal-database-s3-athena"></a>

Untuk Amazon S3, Anda dapat mengimpor data dari bucket Amazon S3 selama Anda memiliki izin untuk mengakses bucket.

[Untuk Amazon Athena, Anda dapat mengakses database AWS Glue Data Catalog selama Anda memiliki izin melalui workgroup Amazon Athena Anda.](https://docs.aws.amazon.com/athena/latest/ug/manage-queries-control-costs-with-workgroups.html)

Untuk Amazon RDS, jika Anda memiliki [AmazonSageMakerCanvasFullAccess](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonSageMakerCanvasFullAccess.html)kebijakan yang dilampirkan ke peran pengguna, maka Anda akan dapat mengimpor data dari database Amazon RDS Anda ke Canvas.

Untuk mengimpor data dari bucket Amazon S3, atau menjalankan kueri dan mengimpor tabel data dengan Amazon Athena, lihat. [Buat kumpulan data](canvas-import-dataset.md) Anda hanya dapat mengimpor data tabular dari Amazon Athena, dan Anda dapat mengimpor data tabel dan gambar dari Amazon S3.

### Connect ke database Amazon DocumentDB
<a name="canvas-connecting-docdb"></a>

Amazon DocumentDB adalah layanan database dokumen yang dikelola sepenuhnya, tanpa server. Anda dapat mengimpor data dokumen tidak terstruktur yang disimpan dalam SageMaker database Amazon DocumentDB ke Canvas sebagai kumpulan data tabular, dan kemudian Anda dapat membuat model pembelajaran mesin dengan data tersebut.

**penting**  
Domain SageMaker AI Anda harus dikonfigurasi dalam mode **VPC saja** untuk menambahkan koneksi ke Amazon DocumentDB. Anda hanya dapat mengakses cluster Amazon DocumentDB di Amazon VPC yang sama dengan aplikasi Canvas Anda. Selain itu, Canvas hanya dapat terhubung ke cluster Amazon DocumentDB yang mendukung TLS. Untuk informasi selengkapnya tentang cara mengatur Canvas dalam mode **VPC saja**, lihat. [Konfigurasikan Amazon SageMaker Canvas di VPC tanpa akses internet](canvas-vpc.md)

Untuk mengimpor data dari database Amazon DocumentDB, Anda harus memiliki kredensyal untuk mengakses database Amazon DocumentDB dan menentukan nama pengguna dan kata sandi saat membuat koneksi database. Anda dapat mengonfigurasi izin yang lebih terperinci dan membatasi akses dengan memodifikasi izin pengguna Amazon DocumentDB. *Untuk mempelajari lebih lanjut tentang kontrol akses di Amazon DocumentDB, [lihat Akses Database Menggunakan Kontrol Akses Berbasis Peran di Panduan Pengembang](https://docs.aws.amazon.com/documentdb/latest/developerguide/role_based_access_control.html) Amazon DocumentDB.*

Saat Anda mengimpor dari Amazon DocumentDB, Canvas mengonversi data tidak terstruktur menjadi kumpulan data tabular dengan memetakan bidang ke kolom dalam tabel. Tabel tambahan dibuat untuk setiap bidang kompleks (atau struktur bersarang) dalam data, di mana kolom sesuai dengan sub-bidang bidang kompleks. Untuk informasi lebih rinci tentang proses ini dan contoh konversi skema, lihat halaman [Amazon DocumentDB JDBC](https://github.com/aws/amazon-documentdb-jdbc-driver/blob/develop/src/markdown/schema/schema-discovery.md) Driver Schema Discovery. GitHub 

Canvas hanya dapat membuat koneksi ke satu database di Amazon DocumentDB. Untuk mengimpor data dari database yang berbeda, Anda harus membuat koneksi baru.

Anda dapat mengimpor data dari Amazon DocumentDB ke Canvas dengan menggunakan metode berikut:
+ [Buat kumpulan data](canvas-import-dataset.md). Anda dapat mengimpor data Amazon DocumentDB dan membuat kumpulan data tabular di Canvas. Jika Anda memilih metode ini, pastikan Anda mengikuti prosedur [Impor data tabular](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas-import-dataset.html#canvas-import-dataset-tabular).
+ [Buat aliran data](canvas-data-flow.md). Anda dapat membuat pipeline persiapan data di Canvas dan menambahkan database Amazon DocumentDB sebagai sumber data.

Untuk melanjutkan dengan mengimpor data Anda, ikuti prosedur untuk salah satu metode yang ditautkan dalam daftar sebelumnya.

Saat Anda mencapai langkah dalam alur kerja untuk memilih sumber data (Langkah 6 untuk membuat kumpulan data, atau Langkah 8 untuk membuat alur data), lakukan hal berikut:

1. **Untuk **Sumber Data**, buka menu dropdown dan pilih DocumentDB.**

1. Pilih **Tambahkan koneksi**.

1. Di kotak dialog, tentukan kredenal Amazon DocumentDB Anda:

   1. Masukkan **nama Koneksi**. Ini adalah nama yang digunakan oleh Canvas untuk mengidentifikasi koneksi ini.

   1. Untuk **Cluster**, pilih cluster di Amazon DocumentDB yang menyimpan data Anda. Canvas secara otomatis mengisi menu dropdown dengan cluster Amazon DocumentDB di VPC yang sama dengan aplikasi Canvas Anda.

   1. Masukkan **Nama Pengguna untuk klaster** Amazon DocumentDB Anda.

   1. Masukkan **Kata Sandi** untuk cluster Amazon DocumentDB Anda.

   1. Masukkan nama **Database** yang ingin Anda sambungkan.

   1. Opsi **Preferensi Baca** menentukan jenis instance di klaster Anda Canvas yang membaca datanya. Pilih salah satu dari berikut ini:
      + **Pilihan sekunder** — Canvas default membaca dari instance sekunder cluster, tetapi jika instance sekunder tidak tersedia, maka Canvas membaca dari instance utama.
      + **Sekunder** — Canvas hanya membaca dari instance sekunder cluster, yang mencegah operasi baca mengganggu operasi baca dan tulis reguler cluster.

   1. Pilih **Tambahkan koneksi**. Gambar berikut menunjukkan kotak dialog dengan bidang sebelumnya untuk koneksi Amazon DocumentDB.  
![\[Tangkapan layar dari kotak dialog Tambahkan koneksi DocumentDB baru di Canvas.\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/images/studio/canvas/add-docdb-connection.png)

Anda sekarang harus memiliki koneksi Amazon DocumentDB, dan Anda dapat menggunakan data Amazon DocumentDB di Canvas untuk membuat kumpulan data atau aliran data.

### Connect ke database Amazon Redshift
<a name="canvas-connecting-redshift"></a>

Anda dapat mengimpor data dari Amazon Redshift, gudang data tempat organisasi menyimpan datanya. Sebelum Anda dapat mengimpor data dari Amazon Redshift, peran AWS IAM yang Anda gunakan harus memiliki kebijakan `AmazonRedshiftFullAccess` terkelola yang dilampirkan. Untuk petunjuk tentang cara melampirkan kebijakan ini, lihat[Berikan Izin Pengguna untuk Mengimpor Data Amazon Redshift](canvas-redshift-permissions.md). 

Untuk mengimpor data dari Amazon Redshift, Anda melakukan hal berikut:

1. Buat koneksi ke database Amazon Redshift.

1. Pilih data yang Anda impor.

1. Impor data.

Anda dapat menggunakan editor Amazon Redshift untuk menyeret kumpulan data ke panel impor dan mengimpornya ke Canvas. SageMaker Untuk kontrol lebih lanjut atas nilai yang dikembalikan dalam kumpulan data, Anda dapat menggunakan yang berikut ini:
+ Kueri SQL
+ Gabungan

Dengan kueri SQL, Anda dapat menyesuaikan cara mengimpor nilai dalam kumpulan data. Misalnya, Anda dapat menentukan kolom yang dikembalikan dalam kumpulan data atau rentang nilai untuk kolom.

Anda dapat menggunakan gabungan untuk menggabungkan beberapa kumpulan data dari Amazon Redshift menjadi satu kumpulan data. Anda dapat menyeret kumpulan data dari Amazon Redshift ke panel yang memberi Anda kemampuan untuk bergabung dengan kumpulan data.

Anda dapat menggunakan editor SQL untuk mengedit kumpulan data yang telah Anda gabungkan dan mengonversi kumpulan data yang digabungkan menjadi satu node. Anda dapat menggabungkan kumpulan data lain ke node. Anda dapat mengimpor data yang telah Anda pilih ke SageMaker Canvas.

Gunakan prosedur berikut untuk mengimpor data dari Amazon Redshift.

1. Dalam aplikasi SageMaker Canvas, buka halaman **Datasets**.

1. **Pilih **Impor data**, dan dari menu tarik-turun, pilih Tabular.**

1. Masukkan nama untuk kumpulan data dan pilih **Buat**.

1. **Untuk **Sumber Data**, buka menu tarik-turun dan pilih Redshift.**

1. Pilih **Tambahkan koneksi**.

1. Di kotak dialog, tentukan kredenal Amazon Redshift Anda:

   1. Untuk **metode Otentikasi**, pilih **IAM**.

   1. Masukkan **pengidentifikasi Cluster** untuk menentukan cluster mana yang ingin Anda sambungkan. Masukkan hanya pengidentifikasi klaster dan bukan titik akhir penuh cluster Amazon Redshift.

   1. Masukkan **nama Database** database yang ingin Anda sambungkan.

   1. Masukkan **pengguna Database** untuk mengidentifikasi pengguna yang ingin Anda gunakan untuk terhubung ke database.

   1. Untuk **ARN**, masukkan peran IAM ARN dari peran yang harus diasumsikan oleh cluster Amazon Redshift untuk memindahkan dan menulis data ke Amazon S3. Untuk informasi selengkapnya tentang peran ini, lihat [Mengotorisasi Amazon Redshift untuk mengakses layanan AWS lain atas nama Anda di](https://docs.aws.amazon.com/redshift/latest/mgmt/authorizing-redshift-service.html) Panduan Manajemen *Amazon Redshift*.

   1. Masukkan **nama Koneksi**. Ini adalah nama yang digunakan oleh Canvas untuk mengidentifikasi koneksi ini.

1. Dari tab yang memiliki nama koneksi Anda, seret file.csv yang Anda impor ke panel **Drag and drop to import table**.

1. Opsional: Seret tabel tambahan ke panel impor. Anda dapat menggunakan GUI untuk bergabung dengan tabel. Untuk kekhususan lebih lanjut dalam bergabung Anda, pilih **Edit di SQL**.

1. Opsional: Jika Anda menggunakan SQL untuk menanyakan data, Anda dapat memilih **Konteks** untuk menambahkan konteks ke koneksi dengan menentukan nilai untuk hal berikut:
   + **Gudang**
   + **Basis Data**
   + **Skema**

1. Pilih **Impor data**.

Gambar berikut menunjukkan contoh bidang yang ditentukan untuk koneksi Amazon Redshift.

![\[Tangkapan layar dari kotak dialog Tambahkan koneksi Redshift baru di Canvas.\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/images/studio/canvas/canvas-redshift-add-connection.png)


Gambar berikut menunjukkan halaman yang digunakan untuk bergabung dengan kumpulan data di Amazon Redshift.

![\[Screenshot dari halaman Impor di Canvas, menunjukkan dua kumpulan data yang digabungkan.\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/images/studio/canvas/canvas-redshift-join.png)


Gambar berikut menunjukkan kueri SQL yang digunakan untuk mengedit gabungan di Amazon Redshift.

![\[Screenshot dari query SQL di editor Edit SQL pada halaman Impor di Canvas.\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/images/studio/canvas/canvas-redshift-edit-sql.png)


## Connect ke data Anda dengan konektor JDBC
<a name="canvas-connecting-jdbc"></a>

Dengan JDBC, Anda dapat terhubung ke database Anda dari sumber seperti Databricks, SQLServer MySQL, PostgreSQL, MariaDB, Amazon RDS, dan Amazon Aurora.

Anda harus memastikan bahwa Anda memiliki kredensi dan izin yang diperlukan untuk membuat koneksi dari Canvas.
+ Untuk Databricks, Anda harus memberikan URL JDBC. Pemformatan URL dapat bervariasi antara instance Databricks. Untuk informasi tentang menemukan URL dan menentukan parameter di dalamnya, lihat [konfigurasi JDBC dan parameter koneksi](https://docs.databricks.com/integrations/bi/jdbc-odbc-bi.html#jdbc-configuration-and-connection-parameters) dalam dokumentasi Databricks. Berikut ini adalah contoh bagaimana URL dapat diformat: `jdbc:spark://aws-sagemaker-datawrangler.cloud.databricks.com:443/default;transportMode=http;ssl=1;httpPath=sql/protocolv1/o/3122619508517275/0909-200301-cut318;AuthMech=3;UID=token;PWD=personal-access-token`
+ Untuk sumber database lainnya, Anda harus mengatur otentikasi nama pengguna dan kata sandi, lalu tentukan kredensialnya saat menghubungkan ke database dari Canvas. 

Selain itu, sumber data Anda harus dapat diakses melalui internet publik, atau jika aplikasi Canvas Anda berjalan dalam mode **VPC saja**, maka sumber data harus berjalan dalam VPC yang sama. *Untuk informasi selengkapnya tentang mengonfigurasi database Amazon RDS di VPC, lihat Amazon [VPC VPCs dan Amazon RDS di Panduan Pengguna Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_VPC.html).*

Setelah mengonfigurasi kredensi sumber data, Anda dapat masuk ke aplikasi Canvas dan membuat koneksi ke sumber data. Tentukan kredensil Anda (atau, untuk Databricks, URL) saat membuat koneksi.

## Connect ke sumber data dengan OAuth
<a name="canvas-connecting-oauth"></a>

Canvas mendukung penggunaan OAuth sebagai metode otentikasi untuk menghubungkan ke data Anda di Snowflake dan Salesforce Data Cloud. [OAuth](https://oauth.net/2/)adalah platform otentikasi umum untuk memberikan akses ke sumber daya tanpa berbagi kata sandi.

**catatan**  
Anda hanya dapat membuat satu OAuth koneksi untuk setiap sumber data.

Untuk mengotorisasi koneksi, Anda harus mengikuti pengaturan awal yang dijelaskan dalam[Mengatur koneksi ke sumber data dengan OAuth](canvas-setting-up-oauth.md).

Setelah menyiapkan OAuth kredensil, Anda dapat melakukan hal berikut untuk menambahkan koneksi Snowflake atau Salesforce Data Cloud dengan: OAuth

1. Masuk ke aplikasi Canvas.

1. Buat dataset tabular. Saat diminta untuk mengunggah data, pilih Snowflake atau Salesforce Data Cloud sebagai sumber data Anda.

1. Buat koneksi baru ke sumber data Snowflake atau Salesforce Data Cloud Anda. Tentukan OAuth sebagai metode otentikasi dan masukkan detail koneksi Anda.

Anda sekarang harus dapat mengimpor data dari database Anda di Snowflake atau Salesforce Data Cloud.

## Connect ke platform SaaS
<a name="canvas-connecting-saas"></a>

Anda dapat mengimpor data dari Snowflake dan lebih dari 40 platform SaaS eksternal lainnya. Untuk daftar lengkap konektor, lihat tabel di[Impor data](canvas-importing-data.md).

**catatan**  
Anda hanya dapat mengimpor data tabular, seperti tabel data, dari platform SaaS.

### Gunakan Snowflake dengan Canvas
<a name="canvas-using-snowflake"></a>

Snowflake adalah layanan penyimpanan data dan analitik, dan Anda dapat mengimpor data Anda dari Snowflake ke Canvas. SageMaker Untuk informasi lebih lanjut tentang Snowflake, lihat dokumentasi [Snowflake](https://www.snowflake.com/en/).

Anda dapat mengimpor data dari akun Snowflake Anda dengan melakukan hal berikut:

1. Buat koneksi ke database Snowflake.

1. Pilih data yang Anda impor dengan menyeret dan menjatuhkan tabel dari menu navigasi kiri ke editor.

1. Impor data.

Anda dapat menggunakan editor Snowflake untuk menyeret kumpulan data ke panel impor dan mengimpornya ke Canvas. SageMaker Untuk kontrol lebih lanjut atas nilai yang dikembalikan dalam kumpulan data, Anda dapat menggunakan yang berikut ini:
+ Kueri SQL
+ Gabungan

Dengan kueri SQL, Anda dapat menyesuaikan cara mengimpor nilai dalam kumpulan data. Misalnya, Anda dapat menentukan kolom yang dikembalikan dalam kumpulan data atau rentang nilai untuk kolom.

Anda dapat menggabungkan beberapa kumpulan data Snowflake ke dalam satu kumpulan data sebelum Anda mengimpor ke Canvas menggunakan SQL atau antarmuka Canvas. Anda dapat menyeret kumpulan data Anda dari Snowflake ke panel yang memberi Anda kemampuan untuk bergabung dengan kumpulan data, atau Anda dapat mengedit gabungan di SQL dan mengonversi SQL menjadi satu node. Anda dapat menggabungkan node lain ke node yang telah Anda konversi. Anda kemudian dapat menggabungkan kumpulan data yang telah Anda gabungkan menjadi satu node dan menggabungkan node ke dataset Snowflake yang berbeda. Terakhir, Anda dapat mengimpor data yang telah Anda pilih ke Canvas.

Gunakan prosedur berikut untuk mengimpor data dari Snowflake ke Amazon SageMaker Canvas.

1. Dalam aplikasi SageMaker Canvas, buka halaman **Datasets**.

1. **Pilih **Impor data**, dan dari menu tarik-turun, pilih Tabular.**

1. Masukkan nama untuk kumpulan data dan pilih **Buat**.

1. **Untuk **Sumber Data**, buka menu tarik-turun dan pilih Snowflake.**

1. Pilih **Tambahkan koneksi**.

1. Dalam kotak dialog **Add a new Snowflake connection**, tentukan kredenal Snowflake Anda. Untuk **metode Otentikasi**, pilih salah satu dari berikut ini:
   + **Dasar - kata sandi nama pengguna** - Berikan ID akun, nama pengguna, dan kata sandi Snowflake Anda.
   + **ARN** — Untuk meningkatkan perlindungan kredensil Snowflake Anda, berikan ARN rahasia yang berisi kredensil Anda. AWS Secrets Manager Untuk informasi selengkapnya, lihat [Membuat AWS Secrets Manager rahasia](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) di *Panduan AWS Secrets Manager Pengguna*.

     Rahasia Anda harus menyimpan kredenal Snowflake Anda dalam format JSON berikut:

     ```
     {"accountid": "ID",
     "username": "username",
     "password": "password"}
     ```
   + **OAuth**— OAuth memungkinkan Anda mengautentikasi tanpa memberikan kata sandi tetapi membutuhkan pengaturan tambahan. Untuk informasi selengkapnya tentang menyiapkan OAuth kredensil untuk Snowflake, lihat. [Mengatur koneksi ke sumber data dengan OAuth](canvas-setting-up-oauth.md)

1. Pilih **Tambahkan koneksi**.

1. Dari tab yang memiliki nama koneksi Anda, seret file.csv yang Anda impor ke panel **Drag and drop to import table**.

1. Opsional: Seret tabel tambahan ke panel impor. Anda dapat menggunakan antarmuka pengguna untuk bergabung dengan tabel. Untuk kekhususan lebih lanjut dalam bergabung Anda, pilih **Edit di SQL**.

1. Opsional: Jika Anda menggunakan SQL untuk menanyakan data, Anda dapat memilih **Konteks** untuk menambahkan konteks ke koneksi dengan menentukan nilai untuk hal berikut:
   + **Gudang**
   + **Basis Data**
   + **Skema**

   Menambahkan konteks ke koneksi membuatnya lebih mudah untuk menentukan kueri future.

1. Pilih **Impor data**.

Gambar berikut menunjukkan contoh bidang yang ditentukan untuk koneksi Snowflake.

![\[Tangkapan layar dari kotak dialog Tambahkan koneksi Snowflake baru di Canvas.\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/images/studio/canvas/canvas-snowflake-connection.png)


Gambar berikut menunjukkan halaman yang digunakan untuk menambahkan konteks ke koneksi.

![\[Screenshot dari halaman Impor di Canvas, menampilkan kotak dialog Konteks.\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/images/studio/canvas/canvas-connection-context.png)


Gambar berikut menunjukkan halaman yang digunakan untuk bergabung dengan dataset di Snowflake.

![\[Screenshot dari halaman Impor di Canvas, menunjukkan kumpulan data yang digabungkan.\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/images/studio/canvas/canvas-snowflake-join.png)


Gambar berikut menunjukkan query SQL yang digunakan untuk mengedit join di Snowflake.

![\[Screenshot dari query SQL di editor Edit SQL pada halaman Impor di Canvas.\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/images/studio/canvas/canvas-snowflake-edit-sql.png)


### Gunakan konektor SaaS dengan Canvas
<a name="canvas-connecting-external-appflow"></a>

**catatan**  
Untuk platform SaaS selain Snowflake, Anda hanya dapat memiliki satu koneksi per sumber data.

Sebelum Anda dapat mengimpor data dari platform SaaS, administrator Anda harus mengautentikasi dan membuat koneksi ke sumber data. Untuk informasi selengkapnya tentang cara administrator membuat koneksi dengan platform SaaS, lihat [Mengelola koneksi AppFlow Amazon](https://docs.aws.amazon.com/appflow/latest/userguide/connections.html) di Panduan Pengguna * AppFlow Amazon*.

Jika Anda seorang administrator yang memulai Amazon AppFlow untuk pertama kalinya, lihat [Memulai](https://docs.aws.amazon.com/appflow/latest/userguide/getting-started.html) di *Panduan AppFlow Pengguna Amazon*.

Untuk mengimpor data dari platform SaaS, Anda dapat mengikuti [Impor data tabular](canvas-import-dataset.md#canvas-import-dataset-tabular) prosedur standar, yang menunjukkan cara mengimpor kumpulan data tabular ke Canvas.

# Contoh kumpulan data di Canvas
<a name="canvas-sample-datasets"></a>

SageMaker Canvas menyediakan kumpulan data sampel yang menangani kasus penggunaan unik sehingga Anda dapat mulai membangun, melatih, dan memvalidasi model dengan cepat tanpa menulis kode apa pun. Kasus penggunaan yang terkait dengan kumpulan data ini menyoroti kemampuan SageMaker Canvas, dan Anda dapat memanfaatkan kumpulan data ini untuk memulai pembuatan model. Anda dapat menemukan kumpulan data sampel di halaman **Datasets** aplikasi Canvas Anda. SageMaker 

Kumpulan data berikut adalah sampel yang disediakan SageMaker Canvas secara default. Kumpulan data ini mencakup kasus penggunaan seperti memprediksi harga rumah, default pinjaman, dan penerimaan kembali untuk pasien diabetes; memperkirakan penjualan; memprediksi kegagalan mesin untuk merampingkan pemeliharaan prediktif di unit manufaktur; dan menghasilkan prediksi rantai pasokan untuk transportasi dan logistik. Kumpulan data disimpan di `sample_dataset` folder di bucket Amazon S3 default SageMaker yang dibuat AI untuk akun Anda di Wilayah.
+ **canvas-sample-diabetic-readmission.csv:** Dataset ini berisi data historis termasuk lebih dari lima belas fitur dengan hasil pasien dan rumah sakit. Anda dapat menggunakan dataset ini untuk memprediksi apakah pasien diabetes berisiko tinggi kemungkinan akan diterima kembali ke rumah sakit dalam waktu 30 hari setelah keluar, setelah 30 hari, atau tidak sama sekali. Gunakan kolom yang **diterima merah** sebagai kolom target, dan gunakan tipe model prediksi kategori 3\$1 dengan kumpulan data ini. Untuk mempelajari lebih lanjut tentang cara membuat model dengan kumpulan data ini, lihat [halaman lokakarya SageMaker Canvas](https://catalog.us-east-1.prod.workshops.aws/workshops/80ba0ea5-7cf9-4b8c-9d3f-1cd988b6c071/en-US/zzz-legacy/1-use-cases/5-hcls). Dataset ini diperoleh dari [UCI Machine Learning](https://archive.ics.uci.edu/ml/datasets/diabetes+130-us+hospitals+for+years+1999-2008) Repository. 
+ **canvas-sample-housing.csv:** Dataset ini berisi data tentang karakteristik yang terkait dengan harga perumahan tertentu. Anda dapat menggunakan dataset ini untuk memprediksi harga rumah. Gunakan kolom **median\$1house\$1value** sebagai kolom target, dan gunakan tipe model prediksi numerik dengan kumpulan data ini. Untuk mempelajari lebih lanjut tentang membuat model dengan kumpulan data ini, lihat [halaman lokakarya SageMaker Canvas](https://catalog.us-east-1.prod.workshops.aws/workshops/80ba0ea5-7cf9-4b8c-9d3f-1cd988b6c071/en-US/zzz-legacy/1-use-cases/2-real-estate). Ini adalah dataset perumahan California yang diperoleh dari [StatLib repositori](https://www.dcc.fc.up.pt/~ltorgo/Regression/cal_housing.html).
+ **canvas-sample-loans.csv:** Dataset ini berisi data pinjaman lengkap untuk semua pinjaman yang dikeluarkan dari 2007-2011, termasuk status pinjaman saat ini dan informasi pembayaran terbaru. Anda dapat menggunakan dataset ini untuk memprediksi apakah pelanggan akan membayar kembali pinjaman. Gunakan kolom **loan\$1status** sebagai kolom target, dan gunakan tipe model prediksi kategori 3\$1 dengan kumpulan data ini. Untuk mempelajari lebih lanjut tentang cara membuat model dengan kumpulan data ini, lihat [halaman lokakarya SageMaker Canvas](https://catalog.us-east-1.prod.workshops.aws/workshops/80ba0ea5-7cf9-4b8c-9d3f-1cd988b6c071/en-US/zzz-legacy/1-use-cases/4-finserv). Data ini menggunakan LendingClub data yang diperoleh dari [Kaggle](https://www.kaggle.com/datasets/wordsforthewise/lending-club).
+ **canvas-sample-maintenance.csv:** Dataset ini berisi data tentang karakteristik yang terkait dengan tipe kegagalan pemeliharaan tertentu. Anda dapat menggunakan kumpulan data ini untuk memprediksi kegagalan mana yang akan terjadi di masa depan. Gunakan kolom **Jenis Kegagalan** sebagai kolom target, dan gunakan tipe model prediksi kategori 3\$1 dengan kumpulan data ini. Untuk mempelajari lebih lanjut tentang cara membuat model dengan kumpulan data ini, lihat [halaman lokakarya SageMaker Canvas](https://catalog.us-east-1.prod.workshops.aws/workshops/80ba0ea5-7cf9-4b8c-9d3f-1cd988b6c071/en-US/zzz-legacy/1-use-cases/6-manufacturing). Dataset ini diperoleh dari [UCI Machine Learning](https://archive.ics.uci.edu/ml/datasets/AI4I+2020+Predictive+Maintenance+Dataset) Repository.
+ **canvas-sample-shipping-logs.csv:** Dataset ini berisi data pengiriman lengkap untuk semua produk yang dikirim, termasuk perkiraan waktu pengiriman prioritas, operator, dan asal. Anda dapat menggunakan kumpulan data ini untuk memprediksi perkiraan waktu kedatangan pengiriman dalam jumlah hari. Gunakan **ActualShippingDays**kolom sebagai kolom target, dan gunakan tipe model prediksi numerik dengan kumpulan data ini. Untuk mempelajari lebih lanjut tentang cara membuat model dengan data ini, lihat [halaman lokakarya SageMaker Canvas](https://catalog.us-east-1.prod.workshops.aws/workshops/80ba0ea5-7cf9-4b8c-9d3f-1cd988b6c071/en-US/zzz-legacy/1-use-cases/7-supply-chain). Ini adalah kumpulan data sintetis yang dibuat oleh Amazon.
+ **canvas-sample-sales-forecasting.csv:** Dataset ini berisi data penjualan deret waktu historis untuk toko ritel. Anda dapat menggunakan dataset ini untuk memperkirakan penjualan untuk toko ritel tertentu. Gunakan kolom **penjualan** sebagai kolom target, dan gunakan jenis model peramalan deret waktu dengan kumpulan data ini. Untuk mempelajari lebih lanjut tentang cara membuat model dengan kumpulan data ini, lihat [halaman lokakarya SageMaker Canvas](https://catalog.us-east-1.prod.workshops.aws/workshops/80ba0ea5-7cf9-4b8c-9d3f-1cd988b6c071/en-US/zzz-legacy/1-use-cases/3-retail). Ini adalah kumpulan data sintetis yang dibuat oleh Amazon.

# Impor ulang kumpulan data sampel yang dihapus
<a name="canvas-sample-datasets-reimport"></a>

Amazon SageMaker Canvas memberi Anda kumpulan data sampel untuk berbagai kasus penggunaan yang menyoroti kemampuan Canvas. Untuk mempelajari lebih lanjut tentang kumpulan data sampel yang tersedia, lihat. [Contoh kumpulan data di Canvas](canvas-sample-datasets.md) Jika Anda tidak lagi ingin menggunakan kumpulan data sampel, Anda dapat menghapusnya dari halaman **Datasets** aplikasi Canvas Anda. SageMaker Namun, kumpulan data ini masih disimpan di bucket Amazon S3 yang Anda tentukan sebagai lokasi [penyimpanan Canvas](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas-storage-configuration.html), sehingga Anda selalu dapat mengaksesnya nanti. 

Jika Anda menggunakan bucket Amazon S3 default, nama bucket mengikuti polanya. `sagemaker-{region}-{account ID}` Anda dapat menemukan kumpulan data sampel di jalur direktori. `Canvas/sample_dataset`

Jika Anda menghapus kumpulan data sampel dari aplikasi SageMaker Canvas Anda dan ingin mengakses kumpulan data sampel lagi, gunakan prosedur berikut.

1. Arahkan ke halaman **Datasets** di aplikasi SageMaker Canvas Anda.

1. Pilih **Impor data**.

1. Dari daftar bucket Amazon S3, pilih bucket yang merupakan lokasi penyimpanan Canvas Anda. Jika menggunakan bucket Amazon S3 SageMaker buatan AI default, bucket tersebut mengikuti pola penamaan. `sagemaker-{region}-{account ID}`

1. Pilih folder **Canvas**.

1. Pilih folder **sample\$1dataset**, yang berisi semua kumpulan data sampel untuk Canvas. SageMaker 

1. Pilih kumpulan data yang ingin Anda impor, lalu pilih **Impor data**.