Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Amazon NovaMemahami hiperparameter kustomisasi model
Amazon Nova ProModelAmazon Nova Lite,Amazon Nova Micro, dan mendukung tiga hyperparameter berikut untuk kustomisasi model. Untuk informasi selengkapnya, lihat Sesuaikan model Anda untuk meningkatkan kinerjanya untuk kasus penggunaan Anda.
Untuk informasi tentang fine tuning model Amazon Nova, lihat Model Amazon Novafine-tuning.
Jumlah epoch yang Anda tentukan meningkatkan biaya penyesuaian model Anda dengan memproses lebih banyak token. Setiap epoch memproses seluruh kumpulan data pelatihan satu kali. Untuk informasi tentang harga, lihat harga Amazon Bedrock
Hyperparameter (konsol) | Hiperparameter (API) | Definisi | Tipe | Minimum | Maksimum | Default |
---|---|---|---|---|---|---|
Zaman | EpochCount | Jumlah iterasi melalui seluruh dataset pelatihan | integer | 1 | 5 | 2 |
Tingkat pembelajaran | LearningRate | Tingkat di mana parameter model diperbarui setelah setiap batch | float | 1.00E-6 | 1.00E-4 | 1.00E-5 |
Langkah-langkah pemanasan tingkat pembelajaran | learningRateWarmupLangkah-Langkah | Jumlah iterasi di mana tingkat pembelajaran secara bertahap ditingkatkan ke tingkat yang ditentukan | integer | 0 | 100 | 10 |
Nomor epoch default adalah 2, yang berfungsi untuk sebagian besar kasus. Secara umum, kumpulan data yang lebih besar membutuhkan lebih sedikit zaman untuk bertemu, sementara kumpulan data yang lebih kecil membutuhkan lebih banyak zaman untuk bertemu. Konvergensi yang lebih cepat juga dapat dicapai dengan meningkatkan tingkat pembelajaran, tetapi ini kurang diinginkan karena dapat menyebabkan ketidakstabilan pelatihan pada konvergensi. Kami merekomendasikan memulai dengan hyperparameter default, yang didasarkan pada penilaian kami di seluruh tugas dengan kompleksitas dan ukuran data yang berbeda.
Tingkat pembelajaran secara bertahap akan meningkat ke nilai yang ditetapkan selama pemanasan. Oleh karena itu, kami menyarankan Anda menghindari nilai pemanasan yang besar ketika sampel pelatihan kecil karena tingkat pembelajaran mungkin tidak akan pernah mencapai nilai yang ditetapkan selama proses pelatihan. Kami merekomendasikan untuk mengatur langkah pemanasan dengan membagi ukuran kumpulan data dengan 640 untukAmazon Nova Micro, 160 untuk, dan 320 untukAmazon Nova Lite. Amazon Nova Pro