

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Algoritma Pembelajar Linear
<a name="linear-learner"></a>

*Model linier* adalah algoritma pembelajaran yang diawasi yang digunakan untuk memecahkan masalah klasifikasi atau regresi. Untuk masukan, Anda memberikan contoh berlabel model (*x*, *y*). *x* adalah vektor berdimensi tinggi dan *y* adalah label numerik. Untuk masalah klasifikasi biner, label harus 0 atau 1. Untuk masalah klasifikasi multiclass, label harus dari 0 hingga `num_classes` - 1. Untuk masalah regresi, *y* adalah bilangan real. *Algoritma mempelajari fungsi linier, atau, untuk masalah klasifikasi, fungsi ambang linier, dan memetakan vektor *x* ke perkiraan label y.* 

Algoritma pembelajar linier Amazon SageMaker AI memberikan solusi untuk masalah klasifikasi dan regresi. Dengan algoritma SageMaker AI, Anda dapat secara bersamaan menjelajahi berbagai tujuan pelatihan dan memilih solusi terbaik dari set validasi. Anda juga dapat menjelajahi sejumlah besar model dan memilih yang terbaik. Model terbaik mengoptimalkan salah satu dari berikut ini:
+ Tujuan berkelanjutan, seperti kesalahan kuadrat rata-rata, kehilangan entropi silang, kesalahan absolut.
+ Tujuan diskrit cocok untuk klasifikasi, seperti ukuran F1, presisi, penarikan, atau akurasi. 

Dibandingkan dengan metode yang memberikan solusi hanya untuk tujuan berkelanjutan, algoritme pembelajar linier SageMaker AI memberikan peningkatan kecepatan yang signifikan dibandingkan teknik optimasi hiperparameter yang naif. Hal ini juga lebih nyaman. 

Algoritma pembelajar linier membutuhkan matriks data, dengan baris yang mewakili pengamatan, dan kolom yang mewakili dimensi fitur. Ini juga membutuhkan kolom tambahan yang berisi label yang cocok dengan titik data. Minimal, Amazon SageMaker AI linear learner mengharuskan Anda menentukan lokasi data input dan output, serta tipe objektif (klasifikasi atau regresi) sebagai argumen. Dimensi fitur juga diperlukan. Untuk informasi selengkapnya, lihat [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateTrainingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateTrainingJob.html). Anda dapat menentukan parameter tambahan di peta `HyperParameters` string dari badan permintaan. Parameter ini mengontrol proses pengoptimalan, atau spesifikasi fungsi tujuan yang Anda latih. Misalnya, jumlah zaman, regularisasi, dan jenis kerugian. 

Jika Anda menggunakan [Pelatihan Spot Terkelola](https://docs.aws.amazon.com/sagemaker/latest/dg/model-managed-spot-training.html), algoritme pelajar linier mendukung penggunaan [pos pemeriksaan untuk mengambil snapshot status model](https://docs.aws.amazon.com/sagemaker/latest/dg/model-checkpoints.html).

**Topics**
+ [Antarmuka Input/Output untuk algoritma pembelajar linier](#ll-input_output)
+ [Rekomendasi instans EC2 untuk algoritma pembelajar linier](#ll-instances)
+ [Buku catatan sampel pelajar linier](#ll-sample-notebooks)
+ [Cara kerja linear learner](ll_how-it-works.md)
+ [Hiperparameter pelajar linier](ll_hyperparameters.md)
+ [Menyetel model pembelajar linier](linear-learner-tuning.md)
+ [Format respons pelajar linier](LL-in-formats.md)

## Antarmuka Input/Output untuk algoritma pembelajar linier
<a name="ll-input_output"></a>

Algoritma pembelajar linear Amazon SageMaker AI mendukung tiga saluran data: melatih, validasi (opsional), dan pengujian (opsional). Jika Anda memberikan data validasi, `S3DataDistributionType` seharusnya`FullyReplicated`. Algoritma mencatat kehilangan validasi di setiap zaman, dan menggunakan sampel data validasi untuk mengkalibrasi dan memilih model terbaik. Jika Anda tidak memberikan data validasi, algoritme menggunakan sampel data pelatihan untuk mengkalibrasi dan memilih model. Jika Anda memberikan data pengujian, log algoritme menyertakan skor tes untuk model akhir.

**Untuk pelatihan**, algoritma pembelajar linier mendukung keduanya `recordIO-wrapped protobuf` dan `CSV` format. Untuk tipe `application/x-recordio-protobuf` input, hanya tensor Float32 yang didukung. Untuk tipe `text/csv` input, kolom pertama diasumsikan sebagai label, yang merupakan variabel target untuk prediksi. Anda dapat menggunakan mode File atau mode Pipe untuk melatih model pelajar linier pada data yang diformat sebagai `recordIO-wrapped-protobuf` atau sebagai. `CSV`

**Untuk inferensi**, algoritma pembelajar linier mendukung`application/json`,`application/x-recordio-protobuf`, dan `text/csv` format. Ketika Anda membuat prediksi pada data baru, format respons tergantung pada jenis model. **Untuk regresi** (`predictor_type='regressor'`), `score` adalah prediksi yang dihasilkan oleh model. **Untuk klasifikasi** (`predictor_type='binary_classifier'`atau`predictor_type='multiclass_classifier'`), model mengembalikan a `score` dan juga a`predicted_label`. `predicted_label`Ini adalah kelas yang diprediksi oleh model dan `score` mengukur kekuatan prediksi itu. 
+ **Untuk klasifikasi biner**`1`, `predicted_label` adalah `0` atau, dan `score` merupakan nomor floating point tunggal yang menunjukkan seberapa kuat algoritma percaya bahwa label harus 1.
+ **Untuk klasifikasi multiclass**, `predicted_class` akan menjadi bilangan bulat dari `0` ke`num_classes-1`, dan `score` akan menjadi daftar satu nomor floating point per kelas. 

Untuk menafsirkan masalah klasifikasi, Anda harus mempertimbangkan fungsi kerugian yang digunakan. `score` Jika nilai `loss` hyperparameter adalah `logistic` untuk klasifikasi biner atau `softmax_loss` untuk klasifikasi multiclass, maka `score` dapat diartikan sebagai probabilitas kelas yang sesuai. Ini adalah nilai kerugian yang digunakan oleh pelajar linier ketika `loss` nilainya adalah nilai `auto` default. Tetapi jika kerugian diatur ke`hinge_loss`, maka skor tidak dapat diartikan sebagai probabilitas. Ini karena kehilangan engsel sesuai dengan Support Vector Classifier, yang tidak menghasilkan perkiraan probabilitas.

Untuk informasi selengkapnya tentang format file input dan output, lihat[Format respons pelajar linier](LL-in-formats.md). Untuk informasi lebih lanjut tentang format inferensi, dan. [Buku catatan sampel pelajar linier](#ll-sample-notebooks)

## Rekomendasi instans EC2 untuk algoritma pembelajar linier
<a name="ll-instances"></a>

Algoritma pembelajar linier mendukung instance CPU dan GPU untuk pelatihan dan inferensi. Untuk GPU, algoritma pembelajar linier mendukung keluarga GPU P2, P3, G4dn, dan G5.

Selama pengujian, kami belum menemukan bukti substansional bahwa instans multi-GPU lebih cepat daripada instans GPU tunggal. Hasil dapat bervariasi, tergantung pada kasus penggunaan spesifik Anda.

## Buku catatan sampel pelajar linier
<a name="ll-sample-notebooks"></a>

 Tabel berikut menguraikan berbagai contoh buku catatan yang membahas berbagai kasus penggunaan algoritme pelajar linier Amazon SageMaker AI.


| **Judul Notebook** | **Deskripsi** | 
| --- | --- | 
|  [Pengantar dengan dataset MNIST](https://sagemaker-examples.readthedocs.io/en/latest/introduction_to_amazon_algorithms/linear_learner_mnist/linear_learner_mnist.html)  |   Menggunakan dataset MNIST, kami melatih pengklasifikasi biner untuk memprediksi satu digit.  | 
|  [Bagaimana Membangun Pengklasifikasi Multiclass?](https://sagemaker-examples.readthedocs.io/en/latest/scientific_details_of_algorithms/linear_learner_multiclass_classification/linear_learner_multiclass_classification.html)  |   Menggunakan kumpulan data Covertype UCI, kami mendemonstrasikan cara melatih pengklasifikasi multiclass.   | 
|  [Bagaimana Membangun Pipeline Machine Learning (ML) untuk Inferensi?](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-python-sdk/scikit_learn_inference_pipeline/Inference%20Pipeline%20with%20Scikit-learn%20and%20Linear%20Learner.html)  |   Menggunakan kontainer Scikit-learn, kami mendemonstrasikan cara membuat pipeline HTML. end-to-end   | 

 Untuk petunjuk tentang cara membuat dan mengakses instance notebook Jupyter yang dapat Anda gunakan untuk menjalankan contoh di SageMaker AI, lihat. [Instans SageMaker notebook Amazon](nbi.md) Setelah Anda membuat instance notebook dan membukanya, pilih tab **Contoh SageMaker AI** untuk melihat daftar semua sampel SageMaker AI. Contoh buku catatan pemodelan topik menggunakan algoritme pembelajaran linier terletak di bagian **Pengantar Algoritma Amazon**. Untuk membuka buku catatan, pilih tab **Use** dan pilih **Create copy**. 

# Cara kerja linear learner
<a name="ll_how-it-works"></a>

Ada tiga langkah yang terlibat dalam implementasi algoritma pembelajar linier: preprocess, train, dan validate. 

## Langkah 1: Pra-proses
<a name="step1-preprocessing"></a>

Normalisasi, atau penskalaan fitur, adalah langkah pra-pemrosesan penting untuk fungsi kerugian tertentu yang memastikan model yang dilatih pada kumpulan data tidak didominasi oleh bobot satu fitur. Algoritma Amazon SageMaker AI Linear Learner memiliki opsi normalisasi untuk membantu langkah pra-pemrosesan ini. Jika normalisasi dihidupkan, algoritme pertama-tama membahas sampel kecil data untuk mempelajari nilai rata-rata dan standar deviasi untuk setiap fitur dan untuk label. Setiap fitur dalam kumpulan data lengkap kemudian digeser untuk memiliki rata-rata nol dan diskalakan untuk memiliki standar deviasi unit.

**catatan**  
Untuk hasil terbaik, pastikan data Anda dikocokkan sebelum pelatihan. Pelatihan dengan data yang tidak diacak dapat menyebabkan pelatihan gagal. 

Anda dapat mengonfigurasi apakah algoritme pembelajar linier menormalkan data fitur dan label masing-masing menggunakan `normalize_data` dan `normalize_label` hiperparameter. Normalisasi diaktifkan secara default untuk fitur dan label untuk regresi. Hanya fitur yang dapat dinormalisasi untuk klasifikasi biner dan ini adalah perilaku default. 

## Langkah 2: Melatih
<a name="step2-training"></a>

Dengan algoritma pembelajar linier, Anda berlatih dengan implementasi terdistribusi dari penurunan gradien stokastik (SGD). Anda dapat mengontrol proses pengoptimalan dengan memilih algoritma pengoptimalan. Misalnya, Anda dapat memilih untuk menggunakan Adam,, penurunan gradien stokastik AdaGrad, atau algoritme pengoptimalan lainnya. Anda juga menentukan hiperparameternya, seperti momentum, tingkat pembelajaran, dan jadwal tingkat pembelajaran. Jika Anda tidak yakin algoritma atau nilai hyperparameter mana yang akan digunakan, pilih default yang berfungsi untuk sebagian besar kumpulan data. 

Selama pelatihan, Anda secara bersamaan mengoptimalkan beberapa model, masing-masing dengan tujuan yang sedikit berbeda. Misalnya, Anda memvariasikan regularisasi L1 atau L2 dan mencoba pengaturan pengoptimal yang berbeda. 

## Langkah 3: Validasi dan atur ambang batas
<a name="step3-validation"></a>

Saat melatih beberapa model secara paralel, model dievaluasi terhadap set validasi untuk memilih model yang paling optimal setelah pelatihan selesai. Untuk regresi, model yang paling optimal adalah model yang mencapai kerugian terbaik pada set validasi. Untuk klasifikasi, sampel set validasi digunakan untuk mengkalibrasi ambang klasifikasi. Model paling optimal yang dipilih adalah model yang mencapai kriteria pemilihan klasifikasi biner terbaik pada set validasi. Contoh kriteria tersebut termasuk ukuran F1, akurasi, dan kehilangan entropi silang. 

**catatan**  
Jika algoritma tidak disediakan set validasi, maka mengevaluasi dan memilih model yang paling optimal tidak mungkin. Untuk memanfaatkan pelatihan paralel dan pemilihan model, pastikan Anda memberikan set validasi ke algoritme. 

# Hiperparameter pelajar linier
<a name="ll_hyperparameters"></a>

Tabel berikut berisi hyperparameters untuk algoritma pembelajar linier. Ini adalah parameter yang ditetapkan oleh pengguna untuk memfasilitasi estimasi parameter model dari data. Hyperparameter yang diperlukan yang harus ditetapkan terdaftar terlebih dahulu, dalam urutan abjad. Hyperparameter opsional yang dapat diatur tercantum berikutnya, juga dalam urutan abjad. Ketika hyperparameter disetel ke`auto`, Amazon SageMaker AI akan secara otomatis menghitung dan menetapkan nilai hyperparameter itu. 


| Nama Parameter | Deskripsi | 
| --- | --- | 
| num\$1classes |  Jumlah kelas untuk variabel respons. Algoritma mengasumsikan bahwa kelas diberi label`0`,...,. `num_classes - 1` **Diperlukan** kapan `predictor_type``multiclass_classifier`. Jika tidak, algoritma mengabaikannya. Nilai yang valid: Bilangan bulat dari 3 hingga 1.000.000  | 
| predictor\$1type |  Menentukan jenis variabel target sebagai klasifikasi biner, klasifikasi multiclass, atau regresi. **Diperlukan** Nilai valid: `binary_classifier`, `multiclass_classifier`, atau `regressor`  | 
| accuracy\$1top\$1k |  *Saat menghitung metrik akurasi top-k untuk klasifikasi multiclass, nilai k.* Jika model menetapkan salah satu skor top-k ke label sebenarnya, sebuah contoh dinilai sebagai benar. **Opsional** Nilai yang valid: Bilangan bulat positif Nilai default: 3   | 
| balance\$1multiclass\$1weights |  Menentukan apakah akan menggunakan bobot kelas, yang memberikan masing-masing kelas sama pentingnya dalam fungsi kerugian. Digunakan hanya ketika `predictor_type` ada`multiclass_classifier`. **Opsional** Nilai valid: `true`, `false` Nilai default: `false`  | 
| beta\$11 |  Tingkat peluruhan eksponensial untuk perkiraan momen pertama. Berlaku hanya jika `optimizer` nilainya`adam`. **Opsional** Nilai valid: `auto` atau nilai floating-point antara 0 dan 1.0 Nilai default: `auto`  | 
| beta\$12 |  Tingkat peluruhan eksponensial untuk perkiraan momen kedua. Berlaku hanya jika `optimizer` nilainya`adam`. **Opsional** Nilai yang valid: `auto` atau bilangan bulat floating-point antara 0 dan 1.0  Nilai default: `auto`  | 
| bias\$1lr\$1mult |  Memungkinkan tingkat pembelajaran yang berbeda untuk istilah bias. Tingkat pembelajaran aktual untuk bias adalah `learning_rate` \$1`bias_lr_mult`. **Opsional** Nilai yang valid: `auto` atau bilangan bulat floating-point positif Nilai default: `auto`  | 
| bias\$1wd\$1mult |  Memungkinkan regularisasi yang berbeda untuk istilah bias. Bobot regularisasi L2 aktual untuk bias adalah \$1. `wd` `bias_wd_mult` Secara default, tidak ada regularisasi pada istilah bias. **Opsional** Nilai yang valid: `auto` atau bilangan bulat floating-point non-negatif Nilai default: `auto`  | 
| binary\$1classifier\$1model\$1selection\$1criteria |  Kapan `predictor_type` disetel ke`binary_classifier`, kriteria evaluasi model untuk kumpulan data validasi (atau untuk kumpulan data pelatihan jika Anda tidak memberikan kumpulan data validasi). Kriteria meliputi: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/ll_hyperparameters.html) **Opsional** Nilai yang valid:`accuracy`,`f_beta`,`precision_at_target_recall`,`recall_at_target_precision`, atau `loss_function` Nilai default: `accuracy`  | 
| early\$1stopping\$1patience | Jika tidak ada perbaikan yang dilakukan dalam metrik yang relevan, jumlah zaman yang harus menunggu sebelum mengakhiri pelatihan. Jika Anda telah memberikan nilai binary\$1classifier\$1model\$1selection\$1criteria untuk. metrik adalah nilai itu. Jika tidak, metriknya sama dengan nilai yang ditentukan untuk loss hyperparameter. Metrik dievaluasi pada data validasi. Jika Anda belum memberikan data validasi, metrik selalu sama dengan nilai yang ditentukan untuk `loss` hyperparameter dan dievaluasi pada data pelatihan. Untuk menonaktifkan penghentian awal, atur `early_stopping_patience` ke nilai yang lebih besar dari nilai yang ditentukan untuk`epochs`.**Opsional**Nilai yang valid: Bilangan bulat positifNilai default: 3 | 
| early\$1stopping\$1tolerance |  Toleransi relatif untuk mengukur peningkatan kerugian. Jika rasio peningkatan kerugian dibagi dengan kerugian terbaik sebelumnya lebih kecil dari nilai ini, penghentian awal menganggap peningkatan menjadi nol. **Opsional** Nilai yang valid: Bilangan bulat floating-point positif Nilai default: 0,001  | 
| epochs |  Jumlah maksimum lintasan atas data pelatihan. **Opsional** Nilai yang valid: Bilangan bulat positif Nilai default: 15  | 
| f\$1beta |  Nilai beta yang digunakan saat menghitung metrik skor F untuk klasifikasi biner atau multiclass. Juga digunakan jika nilai yang ditentukan untuk `binary_classifier_model_selection_criteria` adalah`f_beta`. **Opsional** Nilai yang valid: Bilangan bulat floating-point positif Nilai default: 1.0   | 
| feature\$1dim |  Jumlah fitur dalam data input.  **Opsional** Nilai yang valid: `auto` atau bilangan bulat positif Nilai default: `auto`  | 
| huber\$1delta |  Parameter untuk kerugian Huber. Selama pelatihan dan evaluasi metrik, hitung kerugian L2 untuk kesalahan yang lebih kecil dari delta dan kerugian L1 untuk kesalahan yang lebih besar dari delta. **Opsional** Nilai yang valid: Bilangan bulat floating-point positif Nilai default: 1.0   | 
| init\$1bias |  Bobot awal untuk istilah bias. **Opsional** Nilai yang valid: Integer Floating-point Nilai default: 0  | 
| init\$1method |  Menetapkan fungsi distribusi awal yang digunakan untuk bobot model. Fungsi meliputi: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/ll_hyperparameters.html) **Opsional** Nilai yang valid: `uniform` or `normal` Nilai default: `uniform`  | 
| init\$1scale |  Menimbang distribusi seragam awal untuk bobot model. Berlaku hanya ketika `init_method` hyperparameter disetel ke`uniform`. **Opsional** Nilai yang valid: Bilangan bulat floating-point positif Nilai default: 0,07  | 
| init\$1sigma |  Standar deviasi awal untuk distribusi normal. Berlaku hanya ketika `init_method` hyperparameter disetel ke`normal`. **Opsional** Nilai yang valid: Bilangan bulat floating-point positif Nilai default: 0,01  | 
| l1 |  Parameter regularisasi L1. Jika Anda tidak ingin menggunakan regularisasi L1, atur nilainya ke 0. **Opsional** Nilai yang valid: `auto` atau float non-negatif Nilai default: `auto`  | 
| learning\$1rate |  Ukuran langkah yang digunakan oleh pengoptimal untuk pembaruan parameter. **Opsional** Nilai yang valid: `auto` atau bilangan bulat floating-point positif Nilai default:`auto`, yang nilainya tergantung pada pengoptimal yang dipilih.  | 
| loss |  Menentukan fungsi kerugian.  Fungsi kerugian yang tersedia dan nilai defaultnya bergantung pada nilai`predictor_type`: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/ll_hyperparameters.html) Nilai yang valid: `auto``logistic`,`squared_loss`,`absolute_loss`,`hinge_loss`,`eps_insensitive_squared_loss`,`eps_insensitive_absolute_loss`,`quantile_loss`, atau `huber_loss`  **Opsional** Nilai default: `auto`  | 
| loss\$1insensitivity |  Parameter untuk tipe kerugian epsilon-insensitive. Selama pelatihan dan evaluasi metrik, kesalahan yang lebih kecil dari nilai ini dianggap nol. **Opsional** Nilai yang valid: Bilangan bulat floating-point positif Nilai default: 0,01   | 
| lr\$1scheduler\$1factor |  Untuk setiap `lr_scheduler_step` hiperparameter, tingkat pembelajaran menurun dengan kuantitas ini. Berlaku hanya ketika `use_lr_scheduler` hyperparameter disetel ke`true`. **Opsional** Nilai yang valid: `auto` atau bilangan bulat floating-point positif antara 0 dan 1 Nilai default: `auto`  | 
| lr\$1scheduler\$1minimum\$1lr |  Tingkat pembelajaran tidak pernah menurun ke nilai yang lebih rendah dari nilai yang ditetapkan`lr_scheduler_minimum_lr`. Berlaku hanya ketika `use_lr_scheduler` hyperparameter disetel ke`true`. **Opsional** Nilai yang valid: `auto` atau bilangan bulat floating-point positif Nilai default: `auto`  | 
| lr\$1scheduler\$1step |  Jumlah langkah antara penurunan tingkat pembelajaran. Berlaku hanya ketika `use_lr_scheduler` hyperparameter disetel ke`true`. **Opsional** Nilai yang valid: `auto` atau bilangan bulat positif Nilai default: `auto`  | 
| margin |  Margin untuk `hinge_loss` fungsi tersebut. **Opsional** Nilai yang valid: Bilangan bulat floating-point positif Nilai default: 1.0  | 
| mini\$1batch\$1size |  Jumlah pengamatan per mini-batch untuk iterator data. **Opsional** Nilai yang valid: Bilangan bulat positif Nilai default: 1000  | 
| momentum |  Momentum `sgd` pengoptimal. **Opsional** Nilai yang valid: `auto` atau bilangan bulat floating-point antara 0 dan 1.0 Nilai default: `auto`  | 
| normalize\$1data |  Menormalkan data fitur sebelum pelatihan. Normalisasi data menggeser data untuk setiap fitur untuk memiliki rata-rata nol dan menskalakannya untuk memiliki standar deviasi unit. **Opsional** Nilai valid: `auto`, `true`, atau `false` Nilai default: `true`  | 
| normalize\$1label |  Menormalkan label. Normalisasi label menggeser label untuk memiliki rata-rata nol dan menskalakannya untuk memiliki satuan standar deviasi. Nilai `auto` default menormalkan label untuk masalah regresi tetapi tidak untuk masalah klasifikasi. Jika Anda mengatur `normalize_label` hyperparameter `true` untuk masalah klasifikasi, algoritme mengabaikannya. **Opsional** Nilai valid: `auto`, `true`, atau `false` Nilai default: `auto`  | 
| num\$1calibration\$1samples |  Jumlah pengamatan dari dataset validasi yang akan digunakan untuk kalibrasi model (saat menemukan ambang batas terbaik). **Opsional** Nilai yang valid: `auto` atau bilangan bulat positif Nilai default: `auto`  | 
| num\$1models |  Jumlah model untuk dilatih secara paralel. Untuk default,`auto`, algoritma menentukan jumlah model paralel untuk dilatih. Satu model dilatih sesuai dengan parameter pelatihan yang diberikan (regularisasi, pengoptimal, kehilangan), dan sisanya dengan parameter dekat. **Opsional** Nilai yang valid: `auto` atau bilangan bulat positif Nilai default: `auto`  | 
| num\$1point\$1for\$1scaler |  Jumlah titik data yang digunakan untuk menghitung normalisasi atau tidak bias istilah. **Opsional** Nilai yang valid: Bilangan bulat positif Nilai default: 10.000  | 
| optimizer |  Algoritma optimasi untuk digunakan. **Opsional** Nilai valid: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/ll_hyperparameters.html) Nilai default:`auto`. Pengaturan default untuk `auto` adalah`adam`.  | 
| positive\$1example\$1weight\$1mult |  Bobot diberikan pada contoh positif saat melatih pengklasifikasi biner. Bobot contoh negatif ditetapkan pada 1. Jika Anda ingin algoritme memilih bobot sehingga kesalahan dalam mengklasifikasikan contoh negatif *vs.* positif memiliki dampak yang sama pada kehilangan pelatihan, tentukan. `balanced` Jika Anda ingin algoritme memilih bobot yang mengoptimalkan kinerja, tentukan`auto`. **Opsional** Nilai yang valid:`balanced`,`auto`, atau bilangan bulat floating-point positif Nilai default: 1.0  | 
| quantile |  Kuantil untuk kerugian kuantil. Untuk kuantil q, model mencoba menghasilkan prediksi sehingga nilai lebih besar dari `true_label` prediksi dengan probabilitas q. **Opsional** Nilai yang valid: Integer Floating-point antara 0 dan 1 Nilai default: 0,5  | 
| target\$1precision |  Ketepatan target. Jika `binary_classifier_model_selection_criteria` ya`recall_at_target_precision`, maka presisi dipertahankan pada nilai ini sementara recall dimaksimalkan. **Opsional** Nilai yang valid: Integer Floating-point antara 0 dan 1.0 Nilai default: 0,8  | 
| target\$1recall |  Target recall. Jika `binary_classifier_model_selection_criteria` ya`precision_at_target_recall`, maka recall ditahan pada nilai ini sementara presisi dimaksimalkan. **Opsional** Nilai yang valid: Integer Floating-point antara 0 dan 1.0 Nilai default: 0,8  | 
| unbias\$1data |  Tidak bias fitur sebelum pelatihan sehingga rata-ratanya adalah 0. Secara default, data tidak bias karena `use_bias` hyperparameter disetel ke. `true` **Opsional** Nilai valid: `auto`, `true`, atau `false` Nilai default: `auto`  | 
| unbias\$1label |  Label tidak bias sebelum pelatihan sehingga rata-ratanya adalah 0. Berlaku untuk regresi hanya jika `use_bias` hyperparameter disetel ke. `true` **Opsional** Nilai valid: `auto`, `true`, atau `false` Nilai default: `auto`  | 
| use\$1bias |  Menentukan apakah model harus menyertakan istilah bias, yang merupakan suku intersep dalam persamaan linier. **Opsional** Nilai yang valid: `true` or `false` Nilai default: `true`  | 
| use\$1lr\$1scheduler |  Apakah akan menggunakan penjadwal untuk tingkat pembelajaran. Jika Anda ingin menggunakan penjadwal, tentukan`true`.  **Opsional** Nilai yang valid: `true` or `false` Nilai default: `true`  | 
| wd |  Parameter peluruhan berat, juga dikenal sebagai parameter regularisasi L2. Jika Anda tidak ingin menggunakan regularisasi L2, atur nilainya ke 0. **Opsional** Nilai yang valid: `auto` atau bilangan bulat floating-point non-negatif Nilai default: `auto`  | 

# Menyetel model pembelajar linier
<a name="linear-learner-tuning"></a>

*Penyetelan model otomatis*, juga dikenal sebagai tuning hyperparameter, menemukan versi terbaik dari model dengan menjalankan banyak pekerjaan yang menguji berbagai hiperparameter pada kumpulan data Anda. Anda memilih hyperparameters yang dapat disetel, rentang nilai untuk masing-masing, dan metrik objektif. Anda memilih metrik objektif dari metrik yang dihitung algoritme. Penyetelan model otomatis mencari hiperparameter yang dipilih untuk menemukan kombinasi nilai yang menghasilkan model yang mengoptimalkan metrik objektif. 

Algoritma pembelajar linier juga memiliki mekanisme internal untuk menyetel hiperparameter yang terpisah dari fitur penyetelan model otomatis yang dijelaskan di sini. Secara default, algoritme pembelajar linier menyetel hiperparameter dengan melatih beberapa model secara paralel. Saat Anda menggunakan penyetelan model otomatis, mekanisme penyetelan internal pelajar linier dimatikan secara otomatis. Ini menetapkan jumlah model paralel,`num_models`, ke 1. Algoritma mengabaikan nilai apa pun yang Anda tetapkan`num_models`.

Untuk informasi selengkapnya tentang penyetelan model, lihat[Penyetelan model otomatis dengan AI SageMaker](automatic-model-tuning.md).

## Metrik dihitung dengan algoritma pembelajar linier
<a name="linear-learner-metrics"></a>

Algoritma pembelajar linier melaporkan metrik dalam tabel berikut, yang dihitung selama pelatihan. Pilih salah satunya sebagai metrik objektif. Untuk menghindari overfitting, kami sarankan untuk menyetel model terhadap metrik validasi alih-alih metrik pelatihan.


| Nama Metrik | Deskripsi | Arah Optimasi | 
| --- | --- | --- | 
| test:absolute\$1loss |  Hilangnya mutlak model akhir pada dataset pengujian. Metrik objektif ini hanya berlaku untuk regresi.  |  Minimalkan  | 
| test:binary\$1classification\$1accuracy |  Keakuratan model akhir pada dataset pengujian. Metrik objektif ini hanya berlaku untuk klasifikasi biner.  |  Maksimalkan  | 
| test:binary\$1f\$1beta |  Skor F-beta dari model akhir pada dataset pengujian. Secara default, ini adalah skor F1, yang merupakan rata-rata harmonik presisi dan ingatan. Metrik objektif ini hanya berlaku untuk klasifikasi biner.  |  Maksimalkan  | 
| test:dcg |  Keuntungan kumulatif diskon dari model akhir pada dataset pengujian. Metrik objektif ini hanya berlaku untuk klasifikasi multiclass.  |  Maksimalkan  | 
| test:macro\$1f\$1beta |  Skor F-beta dari model akhir pada dataset pengujian. Metrik objektif ini hanya berlaku untuk klasifikasi multiclass.  |  Maksimalkan  | 
| test:macro\$1precision |  Skor presisi model akhir pada dataset pengujian. Metrik objektif ini hanya berlaku untuk klasifikasi multiclass.  |  Maksimalkan  | 
| test:macro\$1recall |  Skor recall model akhir pada dataset tes. Metrik objektif ini hanya berlaku untuk klasifikasi multiclass.  |  Maksimalkan  | 
| test:mse |  Kesalahan kuadrat rata-rata dari model akhir pada dataset pengujian. Metrik objektif ini hanya berlaku untuk regresi.  |  Minimalkan  | 
| test:multiclass\$1accuracy |  Keakuratan model akhir pada dataset pengujian. Metrik objektif ini hanya berlaku untuk klasifikasi multiclass.  |  Maksimalkan  | 
| test:multiclass\$1top\$1k\$1accuracy |  Akurasi di antara label k teratas yang diprediksi pada kumpulan data pengujian. Jika Anda memilih metrik ini sebagai tujuan, sebaiknya atur nilai k menggunakan `accuracy_top_k` hyperparameter. Metrik objektif ini hanya berlaku untuk klasifikasi multiclass.  |  Maksimalkan  | 
| test:objective\$1loss |  Nilai rata-rata dari fungsi kerugian objektif pada dataset uji setelah model dilatih. Secara default, kerugian adalah kerugian logistik untuk klasifikasi biner dan kerugian kuadrat untuk regresi. Untuk mengatur kerugian ke jenis lain, gunakan `loss` hyperparameter.  |  Minimalkan  | 
| test:precision |  Ketepatan model akhir pada dataset pengujian. Jika Anda memilih metrik ini sebagai tujuan, kami sarankan untuk menetapkan penarikan target dengan menyetel `binary_classifier_model_selection` hyperparameter ke `precision_at_target_recall` dan menetapkan nilai untuk `target_recall` hyperparameter. Metrik objektif ini hanya berlaku untuk klasifikasi biner.  |  Maksimalkan  | 
| test:recall |  Penarikan kembali model akhir pada dataset pengujian. Jika Anda memilih metrik ini sebagai tujuan, kami sarankan untuk menetapkan presisi target dengan menyetel `binary_classifier_model_selection` hyperparameter ke `recall_at_target_precision` dan menetapkan nilai untuk `target_precision` hyperparameter. Metrik objektif ini hanya berlaku untuk klasifikasi biner.  |  Maksimalkan  | 
| test:roc\$1auc\$1score |  Area di bawah kurva karakteristik operasi penerima (kurva ROC) dari model akhir pada kumpulan data pengujian. Metrik objektif ini hanya berlaku untuk klasifikasi biner.  |  Maksimalkan  | 
| validation:absolute\$1loss |  Hilangnya mutlak model akhir pada dataset validasi. Metrik objektif ini hanya berlaku untuk regresi.  |  Minimalkan  | 
| validation:binary\$1classification\$1accuracy |  Keakuratan model akhir pada dataset validasi. Metrik objektif ini hanya berlaku untuk klasifikasi biner.  |  Maksimalkan  | 
| validation:binary\$1f\$1beta |  Skor F-beta dari model akhir pada dataset validasi. Secara default, skor F-beta adalah skor F1, yang merupakan rata-rata harmonik dari metrik dan. `validation:precision` `validation:recall` Metrik objektif ini hanya berlaku untuk klasifikasi biner.  |  Maksimalkan  | 
| validation:dcg |  Keuntungan kumulatif diskon dari model akhir pada dataset validasi. Metrik objektif ini hanya berlaku untuk klasifikasi multiclass.  |  Maksimalkan  | 
| validation:macro\$1f\$1beta |  Skor F-beta dari model akhir pada dataset validasi. Metrik objektif ini hanya berlaku untuk klasifikasi multiclass.  |  Maksimalkan  | 
| validation:macro\$1precision |  Skor presisi model akhir pada dataset validasi. Metrik objektif ini hanya berlaku untuk klasifikasi multiclass.  |  Maksimalkan  | 
| validation:macro\$1recall |  Skor recall model akhir pada dataset validasi. Metrik objektif ini hanya berlaku untuk klasifikasi multiclass.  |  Maksimalkan  | 
| validation:mse |  Kesalahan kuadrat rata-rata dari model akhir pada dataset validasi. Metrik objektif ini hanya berlaku untuk regresi.  |  Minimalkan  | 
| validation:multiclass\$1accuracy |  Keakuratan model akhir pada dataset validasi. Metrik objektif ini hanya berlaku untuk klasifikasi multiclass.  |  Maksimalkan  | 
| validation:multiclass\$1top\$1k\$1accuracy |  Akurasi di antara label k teratas yang diprediksi pada kumpulan data validasi. Jika Anda memilih metrik ini sebagai tujuan, sebaiknya atur nilai k menggunakan `accuracy_top_k` hyperparameter. Metrik objektif ini hanya berlaku untuk klasifikasi multiclass.  |  Maksimalkan  | 
| validation:objective\$1loss |  Nilai rata-rata dari fungsi kerugian objektif pada dataset validasi setiap zaman. Secara default, kerugian adalah kerugian logistik untuk klasifikasi biner dan kerugian kuadrat untuk regresi. Untuk mengatur kerugian ke jenis lain, gunakan `loss` hyperparameter.  |  Minimalkan  | 
| validation:precision |  Ketepatan model akhir pada dataset validasi. Jika Anda memilih metrik ini sebagai tujuan, kami sarankan untuk menetapkan penarikan target dengan menyetel `binary_classifier_model_selection` hyperparameter ke `precision_at_target_recall` dan menetapkan nilai untuk `target_recall` hyperparameter. Metrik objektif ini hanya berlaku untuk klasifikasi biner.  |  Maksimalkan  | 
| validation:recall |  Penarikan kembali model akhir pada dataset validasi. Jika Anda memilih metrik ini sebagai tujuan, kami sarankan untuk menetapkan presisi target dengan menyetel `binary_classifier_model_selection` hyperparameter ke `recall_at_target_precision` dan menetapkan nilai untuk `target_precision` hyperparameter. Metrik objektif ini hanya berlaku untuk klasifikasi biner.  |  Maksimalkan  | 
| validation:rmse |  Kesalahan kuadrat rata-rata akar dari model akhir pada kumpulan data validasi. Metrik objektif ini hanya berlaku untuk regresi.  |  Minimalkan  | 
| validation:roc\$1auc\$1score |  Area di bawah kurva karakteristik operasi penerima (kurva ROC) dari model akhir pada kumpulan data validasi. Metrik objektif ini hanya berlaku untuk klasifikasi biner.  |  Maksimalkan  | 

## Menyetel hiperparameter pelajar linier
<a name="linear-learner-tunable-hyperparameters"></a>

Anda dapat menyetel model pembelajar linier dengan hyperparameters berikut.


| Nama Parameter | Jenis Parameter | Rentang yang Direkomendasikan | 
| --- | --- | --- | 
| wd |  `ContinuousParameterRanges`  |  `MinValue: ``1e-7`, `MaxValue`: `1`  | 
| l1 |  `ContinuousParameterRanges`  |  `MinValue`: `1e-7`, `MaxValue`: `1`  | 
| learning\$1rate |  `ContinuousParameterRanges`  |  `MinValue`: `1e-5`, `MaxValue`: `1`  | 
| mini\$1batch\$1size |  `IntegerParameterRanges`  |  `MinValue`: `100`, `MaxValue`: `5000`  | 
| use\$1bias |  `CategoricalParameterRanges`  |  `[True, False]`  | 
| positive\$1example\$1weight\$1mult |  `ContinuousParameterRanges`  |  `MinValue`: 1e-5,: `MaxValue` `1e5`  | 

# Format respons pelajar linier
<a name="LL-in-formats"></a>

## Format respons JSON
<a name="LL-json"></a>

Semua algoritme bawaan Amazon SageMaker AI mematuhi format inferensi input umum yang dijelaskan dalam [Format Data Umum -](https://docs.aws.amazon.com/sagemaker/latest/dg/cdf-inference.html) Inferensi. Berikut ini adalah format output yang tersedia untuk algoritma SageMaker AI linear learner.

**Klasifikasi Biner**

```
let response =   {
    "predictions":    [
        {
            "score": 0.4,
            "predicted_label": 0
        } 
    ]
}
```

**Klasifikasi Multiclass**

```
let response =   {
    "predictions":    [
        {
            "score": [0.1, 0.2, 0.4, 0.3],
            "predicted_label": 2
        } 
    ]
}
```

**Regresi**

```
let response =   {
    "predictions":    [
        {
            "score": 0.4
        } 
    ]
}
```

## Format respons JSONLINES
<a name="LL-jsonlines"></a>

**Klasifikasi Biner**

```
{"score": 0.4, "predicted_label": 0}
```

**Klasifikasi Multiclass**

```
{"score": [0.1, 0.2, 0.4, 0.3], "predicted_label": 2}
```

**Regresi**

```
{"score": 0.4}
```

## Format respons RECORDIO
<a name="LL-recordio"></a>

**Klasifikasi Biner**

```
[
    Record = {
        features = {},
        label = {
            'score': {
                keys: [],
                values: [0.4]  # float32
            },
            'predicted_label': {
                keys: [],
                values: [0.0]  # float32
            }
        }
    }
]
```

**Klasifikasi Multiclass**

```
[
    Record = {
    "features": [],
    "label":    {
            "score":  {
                    "values":   [0.1, 0.2, 0.3, 0.4]   
            },
            "predicted_label":  {
                    "values":   [3]
            }
       },
    "uid":  "abc123",
    "metadata": "{created_at: '2017-06-03'}"
   }
]
```

**Regresi**

```
[
    Record = {
        features = {},
        label = {
            'score': {
                keys: [],
                values: [0.4]  # float32
            }   
        }
    }
]
```