Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Fine-Tuning yang Diawasi (Full FT, PEFT)
Fine-tuning adalah proses mengadaptasi model bahasa pra-terlatih untuk tugas atau domain tertentu dengan melatihnya pada kumpulan data yang ditargetkan. Tidak seperti pra-pelatihan, yang membangun pemahaman bahasa umum, fine-tuning mengoptimalkan model untuk aplikasi tertentu.
Berikut ikhtisar teknik fine-tuning utama:
Fine-Tuning yang Diawasi (SFT)
Fine-Tuning yang Diawasi (SFT)
SFT mengadaptasi model pra-terlatih menggunakan contoh berlabel input dan output yang diinginkan. Model belajar untuk menghasilkan respons yang sesuai dengan contoh yang diberikan, secara efektif mengajarkannya untuk mengikuti instruksi tertentu atau menghasilkan output dalam gaya tertentu. SFT biasanya melibatkan pembaruan semua parameter model berdasarkan data khusus tugas.
Untuk petunjuk mendetail tentang penggunaan SFT dengan kustomisasi model Amazon Nova, lihat bagian Fine-tuning (SFT) yang diawasi dari panduan pengguna Amazon Nova.
Penyetelan Halus Efisien Parameter (PEFT)
Penyetelan Halus Efisien Parameter (PEFT)
Teknik PEFT seperti Adaptasi Peringkat Rendah (LoRa) hanya memodifikasi sebagian kecil parameter model selama fine-tuning, secara signifikan mengurangi kebutuhan komputasi dan memori. LoRa bekerja dengan menambahkan matriks “adaptor” kecil yang dapat dilatih ke bobot model yang ada, memungkinkan adaptasi yang efektif sambil menjaga sebagian besar model asli tetap beku. Pendekatan ini memungkinkan fine-tuning model besar pada perangkat keras terbatas.
Untuk petunjuk terperinci tentang penggunaan PEFT dengan kustomisasi model Amazon Nova, lihat bagian Penyetelan halus (PEFT) yang efisien parameter dari panduan pengguna Amazon Nova.