Hyperparameter model kustom - Amazon Bedrock

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Hyperparameter model kustom

Konten referensi berikut mencakup hiperparameter yang tersedia untuk melatih setiap model kustom Amazon Bedrock.

Hyperparameter adalah parameter yang mengontrol proses pelatihan, seperti tingkat pembelajaran atau hitungan zaman. Anda menetapkan hyperparameters untuk pelatihan model kustom saat mengirimkan tugas fine tuning dengan konsol Amazon Bedrock atau dengan memanggil operasi API. CreateModelCustomizationJob

Amazon Nova ProModelAmazon Nova Lite,Amazon Nova Micro, dan mendukung tiga hyperparameter berikut untuk kustomisasi model. Untuk informasi selengkapnya, lihat Sesuaikan model Anda untuk meningkatkan kinerjanya untuk kasus penggunaan Anda.

Untuk informasi tentang fine tuning model Amazon Nova, lihat Model Amazon Novafine-tuning.

Jumlah epoch yang Anda tentukan meningkatkan biaya penyesuaian model Anda dengan memproses lebih banyak token. Setiap epoch memproses seluruh kumpulan data pelatihan satu kali. Untuk informasi tentang harga, lihat harga Amazon Bedrock.

Hyperparameter (konsol) Hiperparameter (API) Definisi Tipe Minimum Maksimum Default
Zaman EpochCount Jumlah iterasi melalui seluruh dataset pelatihan integer 1 5 2
Tingkat pembelajaran LearningRate Tingkat di mana parameter model diperbarui setelah setiap batch float 1.00E-6 1.00E-4 1,00E-5
Langkah-langkah pemanasan tingkat pembelajaran learningRateWarmupLangkah-langkahnya Jumlah iterasi di mana tingkat pembelajaran secara bertahap ditingkatkan ke tingkat yang ditentukan integer 0 100 10

Nomor epoch default adalah 2, yang berfungsi untuk sebagian besar kasus. Secara umum, kumpulan data yang lebih besar membutuhkan lebih sedikit zaman untuk bertemu, sementara kumpulan data yang lebih kecil membutuhkan lebih banyak zaman untuk bertemu. Konvergensi yang lebih cepat juga dapat dicapai dengan meningkatkan tingkat pembelajaran, tetapi ini kurang diinginkan karena dapat menyebabkan ketidakstabilan pelatihan pada konvergensi. Kami merekomendasikan memulai dengan hyperparameter default, yang didasarkan pada penilaian kami di seluruh tugas dengan kompleksitas dan ukuran data yang berbeda.

Tingkat pembelajaran secara bertahap akan meningkat ke nilai yang ditetapkan selama pemanasan. Oleh karena itu, kami menyarankan Anda menghindari nilai pemanasan yang besar ketika sampel pelatihan kecil karena tingkat pembelajaran mungkin tidak akan pernah mencapai nilai yang ditetapkan selama proses pelatihan. Kami merekomendasikan untuk mengatur langkah pemanasan dengan membagi ukuran kumpulan data dengan 640 untukAmazon Nova Micro, 160 untuk, dan 320 untukAmazon Nova Lite. Amazon Nova Pro

Amazon Nova CanvasModel ini mendukung hyperparameters berikut untuk kustomisasi model.

Hyperparameter (konsol) Hiperparameter (API) Definisi Minimum Maksimum Default
Ukuran batch BatchSize Jumlah sampel yang diproses sebelum memperbarui parameter model 8 192 8
Langkah-langkah StepCount Berapa kali model diekspos ke setiap batch 10 20.000 500
Tingkat pembelajaran LearningRate Nilai parameter model mana yang diperbarui setelah setiap batch 1.00E-7 1.00E-4 1,00E-5

Amazon Titan Text Premier model mendukung hyperparameter berikut untuk kustomisasi model. Jumlah epoch yang Anda tentukan meningkatkan biaya penyesuaian model Anda dengan memproses lebih banyak token. Setiap epoch memproses seluruh kumpulan data pelatihan satu kali. Untuk informasi tentang harga, lihat harga Amazon Bedrock.

Hyperparameter (konsol) Hiperparameter (API) Definisi Tipe Minimum Maksimum Default
Zaman EpochCount Jumlah iterasi melalui seluruh dataset pelatihan integer 1 5 2
Ukuran Batch (mikro) BatchSize Jumlah sampel yang diproses sebelum memperbarui parameter model integer 1 1 1
Tingkat pembelajaran LearningRate Tingkat di mana parameter model diperbarui setelah setiap batch float 1.00E-07 1.00E-05 1.00E-06
Langkah-langkah pemanasan tingkat pembelajaran learningRateWarmupLangkah-langkahnya Jumlah iterasi di mana tingkat pembelajaran secara bertahap ditingkatkan ke tingkat yang ditentukan integer 0 20 5

Model Amazon Titan Text, seperti Lite dan Express, mendukung hyperparameter berikut untuk kustomisasi model. Jumlah epoch yang Anda tentukan meningkatkan biaya penyesuaian model Anda dengan memproses lebih banyak token. Setiap epoch memproses seluruh kumpulan data pelatihan satu kali. Untuk informasi tentang harga, lihat harga Amazon Bedrock.

Hyperparameter (konsol) Hiperparameter (API) Definisi Tipe Minimum Maksimum Default
Zaman EpochCount Jumlah iterasi melalui seluruh dataset pelatihan integer 1 10 5
Ukuran Batch (mikro) BatchSize Jumlah sampel yang diproses sebelum memperbarui parameter model integer 1 64 1
Tingkat pembelajaran LearningRate Tingkat di mana parameter model diperbarui setelah setiap batch float 0.0 1 1,00E-5
Langkah-langkah pemanasan tingkat pembelajaran learningRateWarmupLangkah-langkahnya Jumlah iterasi di mana tingkat pembelajaran secara bertahap ditingkatkan ke tingkat yang ditentukan integer 0 250 5

Model Amazon Titan Image Generator G1 mendukung hyperparameter berikut untuk kustomisasi model.

catatan

stepCounttidak memiliki nilai default dan harus ditentukan. stepCountmendukung nilainyaauto. automemprioritaskan kinerja model daripada biaya pelatihan dengan secara otomatis menentukan angka berdasarkan ukuran kumpulan data Anda. Biaya pekerjaan pelatihan tergantung pada jumlah yang auto menentukan. Untuk memahami bagaimana biaya pekerjaan dihitung dan untuk melihat contoh, lihat Harga Amazon Bedrock.

Hyperparameter (konsol) Hiperparameter (API) Definisi Minimum Maksimum Default
Ukuran batch BatchSize Jumlah sampel yang diproses sebelum memperbarui parameter model 8 192 8
Langkah-langkah StepCount Berapa kali model diekspos ke setiap batch 10 40.000 N/A
Tingkat pembelajaran LearningRate Nilai parameter model mana yang diperbarui setelah setiap batch 1.00E-7 1 1,00E-5

Titan Multimodal Embeddings G1Model Amazon mendukung hyperparameters berikut untuk kustomisasi model. Jumlah epoch yang Anda tentukan meningkatkan biaya penyesuaian model Anda dengan memproses lebih banyak token. Setiap epoch memproses seluruh kumpulan data pelatihan satu kali. Untuk informasi tentang harga, lihat harga Amazon Bedrock.

catatan

epochCounttidak memiliki nilai default dan harus ditentukan. epochCountmendukung nilainyaAuto. Automemprioritaskan kinerja model daripada biaya pelatihan dengan secara otomatis menentukan angka berdasarkan ukuran kumpulan data Anda. Biaya pekerjaan pelatihan tergantung pada jumlah yang Auto menentukan. Untuk memahami bagaimana biaya pekerjaan dihitung dan untuk melihat contoh, lihat Harga Amazon Bedrock.

Hyperparameter (konsol) Hiperparameter (API) Definisi Tipe Minimum Maksimum Default
Zaman EpochCount Jumlah iterasi melalui seluruh dataset pelatihan integer 1 100 N/A
Ukuran batch BatchSize Jumlah sampel yang diproses sebelum memperbarui parameter model integer 256 9,216 576
Tingkat pembelajaran LearningRate Tingkat di mana parameter model diperbarui setelah setiap batch float 5.00E-8 1 5.00E-5

Model Anthropic Claude 3 mendukung hyperparameter berikut untuk kustomisasi model. Jumlah epoch yang Anda tentukan meningkatkan biaya penyesuaian model Anda dengan memproses lebih banyak token. Setiap epoch memproses seluruh kumpulan data pelatihan satu kali. Untuk informasi tentang harga, lihat harga Amazon Bedrock.

Nama Konsol Nama API Definisi Default Minimum Maksimum
Hitungan zaman EpochCount Jumlah maksimum iterasi melalui seluruh dataset pelatihan 2 1 10
Ukuran batch BatchSize Jumlah sampel yang diproses sebelum memperbarui parameter model 32 4 256
Pengganda tingkat pembelajaran learningRateMultiplier Pengganda yang mempengaruhi tingkat pembelajaran di mana parameter model diperbarui setelah setiap batch 1 0.1 2
Ambang batas penghentian awal earlyStoppingThreshold Peningkatan minimum dalam kehilangan validasi diperlukan untuk mencegah penghentian prematur dari proses pelatihan 0,001 0 0.1
Menghentikan kesabaran lebih awal earlyStoppingPatience Toleransi terhadap stagnasi dalam metrik kerugian validasi sebelum menghentikan proses pelatihan 2 1 10

CohereCommand LightModel Cohere Command dan mendukung hyperparameter berikut untuk kustomisasi model. Jumlah epoch yang Anda tentukan meningkatkan biaya penyesuaian model Anda dengan memproses lebih banyak token. Setiap epoch memproses seluruh kumpulan data pelatihan satu kali. Untuk informasi tentang harga, lihat harga Amazon Bedrock. Untuk informasi selengkapnya, lihat Sesuaikan model Anda untuk meningkatkan kinerjanya untuk kasus penggunaan Anda.

Untuk informasi tentang Cohere model fine tuning, lihat Cohere dokumentasi di https://docs.cohere.com/docs/fine-tuning.

catatan

epochCountKuota dapat disesuaikan.

Hyperparameter (konsol) Hiperparameter (API) Definisi Tipe Minimum Maksimum Default
Zaman EpochCount Jumlah iterasi melalui seluruh dataset pelatihan integer 1 100 1
Ukuran batch BatchSize Jumlah sampel yang diproses sebelum memperbarui parameter model integer 8 8 (Perintah)

32 (Cahaya)

8
Tingkat pembelajaran LearningRate Tingkat di mana parameter model diperbarui setelah setiap batch. Jika Anda menggunakan kumpulan data validasi, sebaiknya Anda tidak memberikan nilai untuk. learningRate float 5.00E-6 0.1 1,00E-5
Ambang batas penghentian awal earlyStoppingThreshold Peningkatan minimum kerugian yang diperlukan untuk mencegah penghentian prematur dari proses pelatihan float 0 0.1 0,01
Menghentikan kesabaran lebih awal earlyStoppingPatience Toleransi stagnasi dalam metrik kerugian sebelum menghentikan proses pelatihan integer 1 10 6
Persentase evaluasi EvalPersentase

Persentase kumpulan data yang dialokasikan untuk evaluasi model, jika Anda tidak memberikan kumpulan data validasi terpisah

float 5 50 20

Model Meta Llama 3.1 8B dan 70B mendukung hyperparameter berikut untuk kustomisasi model. Jumlah epoch yang Anda tentukan meningkatkan biaya penyesuaian model Anda dengan memproses lebih banyak token. Setiap epoch memproses seluruh kumpulan data pelatihan satu kali. Untuk informasi tentang harga, lihat harga Amazon Bedrock. Untuk informasi selengkapnya, lihat Sesuaikan model Anda untuk meningkatkan kinerjanya untuk kasus penggunaan Anda.

Untuk informasi tentang fine tuning model Meta Llama, lihat Meta dokumentasi di https://ai.meta.com/llama/get-started/ #fine -tuning.

catatan

epochCountKuota dapat disesuaikan.

Hyperparameter (konsol) Hiperparameter (API) Definisi Minimum Maksimum Default
Zaman EpochCount Jumlah iterasi melalui seluruh dataset pelatihan 1 10 5
Ukuran batch BatchSize Jumlah sampel yang diproses sebelum memperbarui parameter model 1 1 1
Tingkat pembelajaran LearningRate Tingkat di mana parameter model diperbarui setelah setiap batch 5.00E-6 0.1 1.00E-4

Model Meta Llama 3.2 1B, 3B, 11B, dan 90B mendukung hyperparameter berikut untuk kustomisasi model. Jumlah epoch yang Anda tentukan meningkatkan biaya penyesuaian model Anda dengan memproses lebih banyak token. Setiap epoch memproses seluruh kumpulan data pelatihan satu kali. Untuk informasi tentang harga, lihat harga Amazon Bedrock. Untuk informasi selengkapnya, lihat Sesuaikan model Anda untuk meningkatkan kinerjanya untuk kasus penggunaan Anda.

Untuk informasi tentang fine tuning model Meta Llama, lihat Meta dokumentasi di https://ai.meta.com/llama/get-started/ #fine -tuning.

Hyperparameter (konsol) Hiperparameter (API) Definisi Minimum Maksimum Default
Zaman EpochCount Jumlah iterasi melalui seluruh dataset pelatihan 1 10 5
Ukuran batch BatchSize Jumlah sampel yang diproses sebelum memperbarui parameter model 1 1 1
Tingkat pembelajaran LearningRate Tingkat di mana parameter model diperbarui setelah setiap batch 5.00E-6 0.1 1.00E-4