Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
MetaLlama 3.1hiperparameter kustomisasi model
Model Meta Llama 3.1 8B dan 70B mendukung hyperparameter berikut untuk kustomisasi model. Jumlah epoch yang Anda tentukan meningkatkan biaya penyesuaian model Anda dengan memproses lebih banyak token. Setiap epoch memproses seluruh kumpulan data pelatihan satu kali. Untuk informasi tentang harga, lihat harga Amazon Bedrock
Untuk informasi tentang fine tuning model Meta Llama, lihat Meta dokumentasi di https://ai.meta.com/llama/get-started/ #fine -tuning
catatan
epochCount
Kuota dapat disesuaikan.
Hyperparameter (konsol) | Hiperparameter (API) | Definisi | Minimum | Maksimum | Default |
---|---|---|---|---|---|
Zaman | EpochCount | Jumlah iterasi melalui seluruh dataset pelatihan | 1 | 10 | 5 |
Ukuran batch | BatchSize | Jumlah sampel yang diproses sebelum memperbarui parameter model | 1 | 1 | 1 |
Tingkat pembelajaran | LearningRate | Tingkat di mana parameter model diperbarui setelah setiap batch | 5.00E-6 | 0.1 | 1.00E-4 |