

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Sesuaikan model dengan fine-tuning di Amazon Bedrock
<a name="custom-model-fine-tuning"></a>

Dengan Amazon Bedrock, Anda dapat melatih model pondasi untuk meningkatkan kinerja pada tugas-tugas tertentu (dikenal sebagai fine-tuning). [Untuk informasi tentang model fine-tuning, lihat Amazon Nova Model fine-tuning. Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html)

## Model dan Wilayah yang didukung untuk fine-tuning
<a name="custom-model-supported"></a>

Tabel berikut menunjukkan model pondasi yang dapat Anda sesuaikan:


| Penyedia | Model | ID Model | Dukungan model wilayah tunggal | 
| --- | --- | --- | --- | 
| Amazon | Nova 2 Lite | amazon.nova-2-lite-v 1:0:256 k |  us-east-1  | 
| Amazon | Kanvas Nova | Amazon. nova-canvas-v1:0 |  us-east-1  | 
| Amazon | Nova Lite | Amazon. nova-lite-v1:0:300 k |  us-east-1  | 
| Amazon | Nova Mikro | Amazon. nova-micro-v1:0:128 k |  us-east-1  | 
| Amazon | Nova Pro | Amazon. nova-pro-v1:0:300 k |  us-east-1  | 
| Amazon | Generator Gambar Titan G1 v2 | Amazon. titan-image-generator-v2:0 |  us-east-1 us-west-2  | 
| Amazon | Embeddings Multimodal Titan G1 | Amazon. titan-embed-image-v1:0 |  us-east-1 us-west-2  | 
| Antropik | Claude 3 Haiku | anthropic.claude-3-haiku-20240307-v 1:0:200 k |  us-west-2  | 
| Meta | Instruksi Llama 3.1 70B | b-instruct-vmeta.llama3-1-70 1:0:128 k |  us-west-2  | 
| Meta | Instruksi Llama 3.1 8B | b-instruct-vmeta.llama3-1-8 1:0:128 k |  us-west-2  | 
| Meta | Instruksi Llama 3.2 11B | b-instruct-vmeta.llama3-2-11 1:0:128 k |  us-west-2  | 
| Meta | Instruksi Llama 3.2 1B | b-instruct-vmeta.llama3-2-1 1:0:128 k |  us-west-2  | 
| Meta | Instruksi Llama 3.2 3B | b-instruct-vmeta.llama3-2-3 1:0:128 k |  us-west-2  | 
| Meta | Instruksi Llama 3.2 90B | b-instruct-vmeta.llama3-2-90 1:0:128 k |  us-west-2  | 
| Meta | Instruksi Llama 3.3 70B | b-instruct-vmeta.llama3-3-70 1:0:128 k |  us-west-2  | 

Untuk informasi tentang hiperparameter kustomisasi model untuk setiap model, lihat[Hyperparameter model kustom](custom-models-hp.md).

# Siapkan data untuk menyempurnakan model Anda
<a name="model-customization-prepare"></a>

Untuk menyiapkan kumpulan data pelatihan dan validasi untuk model kustom Anda, Anda membuat `.jsonl` file, di mana setiap baris adalah objek JSON yang sesuai dengan catatan. Sebelum Anda dapat memulai pekerjaan penyesuaian model, Anda setidaknya harus menyiapkan kumpulan data pelatihan. File yang Anda buat harus sesuai dengan format untuk metode kustomisasi dan model yang Anda pilih. Catatan di dalamnya harus sesuai dengan persyaratan ukuran tergantung model Anda. 

Untuk informasi tentang persyaratan model, lihat. [Persyaratan model untuk kumpulan data pelatihan dan validasi](#model-training-validation-requirements) Untuk melihat kuota default yang berlaku untuk kumpulan data pelatihan dan validasi yang digunakan untuk menyesuaikan model yang berbeda, lihat Kuota **Jumlah catatan pelatihan dan validasi di titik akhir [Amazon](https://docs.aws.amazon.com/general/latest/gr/bedrock.html) Bedrock dan** kuota di. Referensi Umum AWS

Apakah kumpulan data validasi didukung dan format kumpulan data pelatihan dan validasi Anda bergantung pada faktor-faktor berikut. 
+ Jenis pekerjaan kustomisasi fine-tuning.
+ Modalitas input dan output data.

[Untuk informasi tentang model fine-tuning, lihat Amazon Nova Model fine-tuning. Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html)

## Modalitas yang didukung untuk fine-tuning
<a name="model-customization-data-support"></a>

Bagian berikut menjelaskan berbagai kemampuan fine-tuning yang didukung oleh masing-masing model, yang diatur oleh modalitas input dan outputnya. [Untuk informasi tentang model fine-tuning, lihat Amazon Nova Model fine-tuning. Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html)

**Text-to-Text model**

Text-to-Text model dapat disetel dengan baik untuk berbagai tugas berbasis teks, termasuk aplikasi percakapan dan non-percakapan. Untuk informasi tentang menyiapkan data untuk Text-to-Text model fine-tuning, lihat. [Siapkan data untuk model text-to-text fine-tuning](#preparing-text-data) 

Model non-percakapan berikut dioptimalkan untuk tugas-tugas seperti meringkas, terjemahan, dan menjawab pertanyaan:
+ Amazon Titan Text G1 - Express
+ Amazon Titan Text G1 - Lite
+ Amazon Titan Teks Premier
+ Cohere Command
+ Cohere Command Light
+ Meta Llama 3.1 8B Instruct
+ Meta Llama 3.1 70B Instruct

Model percakapan berikut dirancang untuk interaksi satu putaran dan multi-putaran. Jika model menggunakan Converse API, kumpulan data fine-tuning Anda harus mengikuti format pesan Converse API dan menyertakan pesan sistem, pengguna, dan asisten. Sebagai contoh, lihat [Siapkan data untuk model text-to-text fine-tuning](#preparing-text-data). Untuk informasi selengkapnya tentang operasi Converse API, lihat[Melakukan percakapan dengan operasi Converse API](conversation-inference.md).
+ Antropik Claude 3 Haiku
+ MetaLlama 3.2 1B Instruct(Format API Converse)
+ MetaLlama 3.2 3B Instruct(Format API Converse)
+ MetaLlama 3.2 11B InstructVisi (Format API Converse)
+ MetaLlama 3.2 90B InstructVisi (Format API Converse)
+ MetaInstruksi Visi Llama 3.3 70B (Format API Converse)

**Text-Image-to-Text & Text-to-Image model** s

Model berikut mendukung fine-tuning untuk pembuatan gambar dan pemrosesan teks-gambar. Model-model ini memproses atau menghasilkan gambar berdasarkan input tekstual, atau menghasilkan teks berdasarkan input tekstual dan gambar. Untuk informasi tentang menyiapkan data untuk model fine-tuning Text-Image-to-Text & Text-to-Image model, lihat. [Siapkan data untuk menyempurnakan model pemrosesan gambar dan teks](#preparing-image-text-data)
+ Amazon Titan Image Generator G1 V1
+ MetaLlama 3.2 11B InstructVisi
+ MetaLlama 3.2 90B InstructVisi
+ MetaInstruksi Visi Llama 3.3 70B

**Gambar-untuk-Embeddings**

Model berikut mendukung fine-tuning untuk tugas-tugas seperti klasifikasi dan pengambilan. Model-model ini menghasilkan representasi numerik (embeddings) dari input gambar. Untuk informasi tentang menyiapkan data untuk Image-to-Embeddings model fine-tuning, lihat. [Siapkan data untuk menyempurnakan pembuatan gambar dan model penyematan](#preparing-image-generation-data)
+ Amazon Titan Multimodal Embeddings G1
+ Amazon Titan Image Generator G1 V1

## Persyaratan model untuk kumpulan data pelatihan dan validasi
<a name="model-training-validation-requirements"></a>

Bagian berikut mencantumkan persyaratan untuk kumpulan data pelatihan dan validasi untuk model. [Untuk informasi tentang batasan kumpulan data untuk model, lihat Amazon Nova Model fine-tuning. Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html)

### Amazon Titan Teks Premier
<a name="quotas-cm-titan-premier"></a>


****  

| Deskripsi | Maksimum (Fine-tuning) | 
| --- | --- | 
| Jumlah token input dan output saat ukuran batch adalah 1 | 4,096 | 
| Jumlah token input dan output saat ukuran batch adalah 2, 3, atau 4 | N/A | 
| Kuota karakter per sampel dalam dataset | Kuota token x 6 (perkiraan) | 
| Ukuran file kumpulan data pelatihan | 1 GB | 
| Ukuran file dataset validasi | 100 MB | 

### Amazon Titan Text G1 - Express
<a name="quotas-cm-titan-text"></a>


****  

| Deskripsi | Maksimum (Fine-tuning) | 
| --- | --- | 
| Jumlah token input dan output saat ukuran batch adalah 1 | 4,096 | 
| Jumlah token input dan output saat ukuran batch adalah 2, 3, atau 4 | 2,048 | 
| Kuota karakter per sampel dalam dataset | Kuota token x 6 (perkiraan) | 
| Ukuran file kumpulan data pelatihan | 1 GB | 
| Ukuran file dataset validasi | 100 MB | 

### Amazon Titan Text G1 - Lite
<a name="quotas-cm-titan-text-lite"></a>


****  

| Deskripsi | Maksimum (Fine-tuning) | 
| --- | --- | 
| Jumlah token input dan output saat ukuran batch adalah 1 atau 2 | 4,096 | 
| Jumlah token input dan output saat ukuran batch adalah 3, 4, 5, atau 6 | 2,048 | 
| Kuota karakter per sampel dalam dataset | Kuota token x 6 (perkiraan) | 
| Ukuran file kumpulan data pelatihan | 1 GB | 
| Ukuran file dataset validasi | 100 MB | 

### Amazon Titan Image Generator G1 V1
<a name="quotas-cm-titan-image"></a>


****  

| Deskripsi | Minimum (Penyetelan halus) | Maksimum (Fine-tuning) | 
| --- | --- | --- | 
| Panjang prompt teks dalam sampel pelatihan, dalam karakter | 3 | 1,024 | 
| Catatan dalam kumpulan data pelatihan | 5 | 10.000 | 
| Ukuran gambar masukan | 0 | 50 MB | 
| Input tinggi gambar dalam piksel | 512 | 4,096 | 
| Masukan lebar gambar dalam piksel | 512 | 4,096 | 
| Masukan total piksel gambar | 0 | 12,582,912 | 
| Rasio aspek gambar masukan | 1:4 | 4:1 | 

### Amazon Titan Multimodal Embeddings G1
<a name="quotas-cm-titan-mm-embed"></a>


****  

| Deskripsi | Minimum (Penyetelan halus) | Maksimum (Fine-tuning) | 
| --- | --- | --- | 
| Panjang prompt teks dalam sampel pelatihan, dalam karakter | 0 | 2,560 | 
| Catatan dalam kumpulan data pelatihan | 1.000 | 500.000 | 
| Ukuran gambar masukan | 0 | 5 MB | 
| Input tinggi gambar dalam piksel | 128 | 4096 | 
| Masukan lebar gambar dalam piksel | 128 | 4096 | 
| Masukan total piksel gambar | 0 | 12,528,912 | 
| Rasio aspek gambar masukan | 1:4 | 4:1 | 

### Meta Llama 3.1
<a name="quotas-cm-meta-llama-3-1"></a>


****  

| Deskripsi | Minimum (Penyetelan halus) | Maksimum (Fine-tuning) | 
| --- | --- | --- | 
| Token masukan | 0 | 16.000 | 
| Token keluaran | 0 | 16.000 | 
| Kuota karakter per sampel dalam dataset | 0 | Kuota token x 6 (perkiraan) | 
| Jumlah token Input dan Output | 0 | 16.000 | 
| Jumlah catatan pelatihan dan validasi | 100 | 10.000 (dapat disesuaikan menggunakan kuota layanan) | 

### Meta Llama 3.2
<a name="quotas-cm-meta-llama-3-2"></a>

Format gambar yang didukung untuk Meta Llama-3.2 11B Vision Instruct dan Meta Llama-3.2 90B Vision Instruct termasuk:`gif`,`jpeg`,`png`, dan`webp`. Untuk memperkirakan image-to-token konversi selama fine-tuning model ini, Anda dapat menggunakan rumus ini sebagai perkiraan:. `Tokens = min(2, max(Height // 560, 1)) * min(2, max(Width // 560, 1)) * 1601` Gambar dikonversi menjadi sekitar 1.601 hingga 6.404 token berdasarkan ukurannya.


****  

| Deskripsi | Minimum (Penyetelan halus) | Maksimum (Fine-tuning) | 
| --- | --- | --- | 
| Jumlah token Input dan Output | 0 | 16.000 (10000 untuk Meta Llama 3.2 90B) | 
| Jumlah catatan pelatihan dan validasi | 100 | 10.000 (dapat disesuaikan menggunakan kuota layanan) | 
| Masukan ukuran gambar untuk Meta Llama 11B and 90B instruct model) | 0 | 10 MB | 
| Masukkan tinggi gambar dalam piksel untuk Meta Llama 11B and 90B instruct model | 10 | 8192 | 
| Masukan lebar gambar dalam piksel untuk Meta Llama 11B and 90B90B instruct model | 10 | 8192 | 

### Meta Llama 3.3
<a name="quotas-cm-meta-llama-3-3"></a>


****  

| Deskripsi | Minimum (Penyetelan halus) | Maksimum (Fine-tuning) | 
| --- | --- | --- | 
| Jumlah token Input dan Output | 0 | 16000 | 
| Jumlah catatan pelatihan dan validasi | 100 | 10.000 (dapat disesuaikan menggunakan Service Quotas) | 

### CohereCommand
<a name="quotas-cm-cohere-command"></a>


****  

| Deskripsi | Maksimum (Fine-tuning) | 
| --- | --- | 
| Token masukan | 4,096 | 
| Token keluaran | 2,048 | 
| Kuota karakter per sampel dalam dataset | Kuota token x 6 (perkiraan) | 
| Catatan dalam kumpulan data pelatihan | 10.000 | 
| Merekam dalam kumpulan data validasi | 1.000 | 

### Antropik Claude 3 Haiku
<a name="anthropic-claude-3-haiku"></a>


****  

| Deskripsi | Maksimum (Fine-tuning) | 
| --- | --- | 
| Jumlah catatan minimum | 32 | 
| Catatan pelatihan maksimum | 10.000 | 
| Catatan validasi maksimum | 1.000 | 
| Total catatan maksimum | 10.000 (dapat disesuaikan menggunakan kuota layanan) | 
| Token maksimum | 32.000 | 
| Ukuran dataset pelatihan maksimum | 10 GB | 
| Ukuran dataset validasi maksimum | 1 GB | 

## Siapkan data untuk model text-to-text fine-tuning
<a name="preparing-text-data"></a>

**catatan**  
[Untuk informasi tentang model fine-tuning, lihat Amazon Nova Model fine-tuning. Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html)

Untuk text-to-text model fine-tuning, setiap objek JSON adalah sampel yang berisi bidang terstruktur yang dirancang untuk memandu model menuju menghasilkan output tekstual yang diinginkan berdasarkan prompt tekstual yang disediakan. Format data bervariasi tergantung pada kasus penggunaan, secara luas dikategorikan ke dalam kasus penggunaan non-percakapan dan percakapan.

------
#### [ Non-conversational tasks ]

Tugas non-percakapan melibatkan menghasilkan output tunggal untuk input yang diberikan. Setiap sampel dataset mencakup `prompt` bidang yang berisi teks input dan `completion` bidang dengan output yang diharapkan. Format ini mendukung berbagai tugas seperti menjawab pertanyaan, meringkas, terjemahan, penyelesaian teks, dan ekstraksi informasi.

Contoh format

```
{"prompt": "What is the capital of France?", "completion": "The capital of France is Paris."}
{"prompt": "Summarize the article about climate change.", "completion": "Climate change refers to the long-term alteration of temperature and typical weather patterns in a place."}
```

Gunakan sekitar 6 karakter per token untuk memperkirakan jumlah token untuk merencanakan ukuran dataset.

------
#### [ Converse API format (Single turn and Multi turn) ]

Untuk menggunakan Converse API, Anda memanggil `ConverseStream` operasi `Converse` atau untuk mengirim pesan ke model. Untuk menelepon`Converse`, Anda memerlukan izin untuk `bedrock:InvokeModel` operasi. Untuk menelepon`ConverseStream`, Anda memerlukan izin untuk `bedrock:InvokeModelWithResponseStream` operasi. Untuk informasi selengkapnya, lihat [Menggunakan API Converse ini](conversation-inference-call.md). Untuk informasi selengkapnya tentang operasi Converse API, lihat [Melakukan percakapan dengan operasi Converse API](conversation-inference.md)

Contoh format

```
{
    "schemaVersion": "bedrock-conversation-2024",
    "system": [
        {
            "text": "You are a digital assistant with a friendly personality"
        }
    ],
    "messages": [
        {
            "role": "user",
            "content": [
                {
                    "text": "What is the capital of Mars?"
                }
            ]
        },
        {
            "role": "assistant",
            "content": [
                {
                    "text": "Mars does not have a capital. Perhaps it will one day."
                }
            ]
        }
    ]
}
```

------
#### [ Anthropic Claude 3 Haiku: Single-turn conversations ]

Tugas percakapan satu putaran melibatkan pertukaran terisolasi, di mana model menghasilkan respons hanya berdasarkan input pengguna saat ini tanpa mempertimbangkan konteks sebelumnya. Setiap sampel dataset menggunakan array pesan, dengan peran bergantian dari dan. `user` `assistant`

format

```
{"system": "<system message>","messages":[{"role": "user", "content": "<user query>"},{"role": "assistant", "content": "<expected generated text>"}]}
```

Contoh

```
{"system": "You are an helpful assistant.","messages":[{"role": "user", "content": "what is AWS"},{"role": "assistant", "content": "it's Amazon Web Services."}]}
```

------
#### [ Anthropic Claude 3 Haiku: Multi-turn conversations ]

Tugas percakapan multi-giliran melibatkan dialog yang diperluas di mana model harus menghasilkan respons sambil mempertahankan konteks pertukaran sebelumnya. Format ini menangkap sifat dinamis dari tugas interaktif, seperti dukungan pelanggan atau diskusi kompleks.

format

```
{"system": "<system message>","messages":[{"role": "user", "content": "<user query 1>"},{"role": "assistant", "content": "<expected generated text 1>"}, {"role": "user", "content": "<user query 2>"},{"role": "assistant", "content": "<expected generated text 2>"}]}
```

Contoh

```
{"system": "system message","messages":[{"role": "user", "content": "Hello there."},{"role": "assistant", "content": "Hi, how can I help you?"},{"role": "user", "content": "what are LLMs?"},{"role": "assistant", "content": "LLM means large language model."},]}  
```

------

## Siapkan data untuk menyempurnakan model pemrosesan gambar dan teks
<a name="preparing-image-text-data"></a>

**catatan**  
[Untuk informasi tentang model fine-tuning, lihat Amazon Nova Model fine-tuning. Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html)

Untuk image-text-to-text model fine-tuning, setiap objek JSON adalah sampel yang berisi percakapan yang terstruktur sebagai `messages` array, yang terdiri dari objek JSON bergantian yang mewakili input pengguna dan respons asisten. Masukan pengguna dapat mencakup teks dan gambar, sementara tanggapan asisten selalu tekstual. Struktur ini mendukung alur percakapan single-turn dan multi-turn, memungkinkan model untuk menangani beragam tugas secara efektif. Format gambar yang didukung untuk Meta Llama-3.2 11B Vision Instruct dan Meta Llama-3.2 90B Vision Instruct termasuk:`gif`,`jpeg`,`png`, dan`webp`.

Untuk mengizinkan Amazon Bedrock mengakses file gambar, tambahkan kebijakan IAM yang mirip dengan yang ada di [Izin untuk mengakses file pelatihan dan validasi dan untuk menulis file output di S3](model-customization-iam-role.md#model-customization-iam-role-s3) peran layanan kustomisasi model Amazon Bedrock yang Anda atur atau yang disiapkan secara otomatis untuk Anda di konsol. Jalur Amazon S3 yang Anda berikan dalam kumpulan data pelatihan harus berada di folder yang Anda tentukan dalam kebijakan.

**Percakapan satu putaran**

Setiap objek JSON untuk percakapan satu putaran terdiri dari pesan pengguna dan pesan asisten. Pesan pengguna menyertakan bidang peran yang disetel ke *pengguna* dan bidang *konten* yang berisi array dengan `type` bidang (*teks* atau *gambar*) yang menjelaskan modalitas input. Untuk input teks, `content` bidang menyertakan `text` bidang dengan pertanyaan atau prompt pengguna. Untuk input gambar, `content` bidang menentukan gambar `format` (misalnya, *jpeg*, *png*) dan `source` dengan `uri` menunjuk ke lokasi Amazon S3 gambar. `uri`Ini mewakili jalur unik ke gambar yang disimpan dalam bucket Amazon S3, biasanya dalam format. `s3://<bucket-name>/<path-to-file>` Pesan asisten menyertakan `role` bidang yang disetel ke *asisten* dan `content` bidang yang berisi larik dengan `type` bidang yang disetel ke *teks* dan `text` bidang yang berisi respons yang dihasilkan asisten.

Contoh format

```
{
    "schemaVersion": "bedrock-conversation-2024",
    "system": [{
        "text": "You are a smart assistant that answers questions respectfully"
    }],
    "messages": [{
            "role": "user",
            "content": [{
                    "text": "What does the text in this image say?"
                },
                {
                    "image": {
                        "format": "png",
                        "source": {
                            "s3Location": {
                                "uri": "s3://your-bucket/your-path/your-image.png",
                                "bucketOwner": "your-aws-account-id"
                            }
                        }
                    }
                }
            ]
        },
        {
            "role": "assistant",
            "content": [{
                "text": "The text in the attached image says 'LOL'."
            }]
        }
    ]
}
```

**Percakapan multi-giliran**

Setiap objek JSON untuk percakapan multi-putaran berisi urutan pesan dengan peran bergantian, di mana pesan pengguna dan pesan asisten disusun secara konsisten untuk memungkinkan pertukaran yang koheren. Pesan pengguna menyertakan `role` bidang yang disetel ke *pengguna* dan `content` bidang yang menjelaskan modalitas input. Untuk input teks, `content` bidang menyertakan `text` bidang dengan pertanyaan atau tindak lanjut pengguna, sedangkan untuk input gambar, bidang ini menentukan gambar `format` dan `source` dengan `uri` menunjuk ke lokasi Amazon S3 gambar. Ini `uri` berfungsi sebagai pengenal unik dalam format s3://<bucket-name>/< path-to-file > dan memungkinkan model untuk mengakses gambar dari bucket Amazon S3 yang ditunjuk. Pesan asisten menyertakan `role` bidang yang disetel ke *asisten* dan `content` bidang yang berisi larik dengan `type` bidang yang disetel ke *teks* dan `text` bidang yang berisi respons yang dihasilkan asisten. Percakapan dapat mencakup beberapa pertukaran, memungkinkan asisten untuk mempertahankan konteks dan memberikan respons yang koheren di seluruh.

Contoh format

```
{
    "schemaVersion": "bedrock-conversation-2024",
    "system": [{
        "text": "You are a smart assistant that answers questions respectfully"
    }],
    "messages": [{
            "role": "user",
            "content": [{
                    "text": "What does the text in this image say?"
                },
                {
                    "image": {
                        "format": "png",
                        "source": {
                            "s3Location": {
                                "uri": "s3://your-bucket/your-path/your-image.png",
                                "bucketOwner": "your-aws-account-id"
                            }
                        }
                    }
                }
            ]
        },
        {
            "role": "assistant",
            "content": [{
                "text": "The text in the attached image says 'LOL'."
            }]
        },
        {
            "role": "user",
            "content": [{
                    "text": "What does the text in this image say?"
                }
            ]
        },
        {
            "role": "assistant",
            "content": [{
                "text": "The text in the attached image says 'LOL'."
            }]
        }
        
    ]
}
```

## Siapkan data untuk menyempurnakan pembuatan gambar dan model penyematan
<a name="preparing-image-generation-data"></a>

**catatan**  
Amazon Novamodel memiliki persyaratan fine-tuning yang berbeda. Untuk menyempurnakan model ini, ikuti instruksi di model [Amazon NovaFine-tuning](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

Untuk text-to-image atau image-to-embedding model, siapkan dataset pelatihan. Kumpulan data validasi tidak didukung. Setiap objek JSON adalah sampel yang berisi`image-ref`, Amazon S3 URI untuk gambar, dan `caption` yang bisa menjadi prompt untuk gambar.

Gambar harus dalam format JPEG atau PNG.

```
{"image-ref": "s3://bucket/path/to/image001.png", "caption": "<prompt text>"}
{"image-ref": "s3://bucket/path/to/image002.png", "caption": "<prompt text>"}{"image-ref": "s3://bucket/path/to/image003.png", "caption": "<prompt text>"}
```

Berikut ini adalah item contoh:

```
{"image-ref": "s3://amzn-s3-demo-bucket/my-pets/cat.png", "caption": "an orange cat with white spots"}
```

Untuk mengizinkan Amazon Bedrock mengakses file gambar, tambahkan kebijakan IAM yang mirip dengan yang ada di [Izin untuk mengakses file pelatihan dan validasi dan untuk menulis file output di S3](model-customization-iam-role.md#model-customization-iam-role-s3) peran layanan kustomisasi model Amazon Bedrock yang Anda atur atau yang disiapkan secara otomatis untuk Anda di konsol. Jalur Amazon S3 yang Anda berikan dalam kumpulan data pelatihan harus berada di folder yang Anda tentukan dalam kebijakan.

# Amazon NovaModel fine-tune dengan fine-tuning yang diawasi
<a name="nova-2-sft-data-prep"></a>

Amazon NovaData 2.0 SFT menggunakan format Converse API yang sama dengan Amazon Nova 1.0, dengan penambahan bidang konten penalaran opsional. Untuk spesifikasi format lengkap, lihat [ReasoningContentBlock](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ReasoningContentBlock.html)dan [skema Converse API](https://docs.aws.amazon.com/bedrock/latest/userguide/conversation-inference-call.html).

**Fitur yang didukung:**
+ **Jenis input** - Teks, gambar, atau video di blok konten pengguna
+ **Konten asisten** - Tanggapan khusus teks dan konten penalaran
+ **Komposisi dataset** — Harus homogen. Pilih salah satu dari berikut ini: belokan teks saja, teks \$1 gambar berubah, atau teks\$1video berubah

**penting**  
Anda tidak dapat mencampur gambar dan video dalam kumpulan data yang sama atau di belokan yang berbeda.

**Keterbatasan saat ini:**
+ **Penggunaan alat** - Meskipun penggunaan alat didukung dalam format input, saat ini tidak didukung oleh Amazon Nova 2.0 SFT. Menambahkan bagian alat dapat menyebabkan pekerjaan Anda gagal.
+ **Konten penalaran multimodal - Meskipun format Converse mendukung konten** penalaran berbasis gambar, ini tidak didukung oleh 2.0 SFT. Amazon Nova
+ **Set validasi** - Menyediakan set validasi mungkin didukung melalui UI tetapi tidak akan didukung selama pelatihan SFT.

**Format media yang didukung:**
+ **Gambar** - PNG, JPEG, GIF
+ **Video** - MOV, MKV, MP4

## Contoh format data
<a name="nova-2-sft-data-examples"></a>

------
#### [ Text-only ]

Contoh ini menunjukkan format teks dasar saja yang kompatibel dengan Amazon Nova 1.0.

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a digital assistant with a friendly personality"
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "text": "What country is right next to Australia?"
        }
      ]
    },
    {
      "role": "assistant",
      "content": [
        {
          "text": "The closest country is New Zealand"
        }
      ]
    }
  ]
}
```

------
#### [ Text with reasoning ]

Contoh ini menunjukkan teks dengan konten penalaran opsional untuk Amazon Nova 2.0.

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a digital assistant with a friendly personality"
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "text": "What country is right next to Australia?"
        }
      ]
    },
    {
      "role": "assistant",
      "content": [
        {
          "reasoningContent": {
            "reasoningText": {
              "text": "I need to use my world knowledge of geography to answer this question"
            }
          }
        },
        {
          "text": "The closest country to Australia is New Zealand, located to the southeast across the Tasman Sea."
        }
      ]
    }
  ]
}
```

**catatan**  
Saat ini, hanya `reasoningText` didukung di dalam`reasoningContent`. Konten penalaran multimodal belum tersedia.

------
#### [ Image \$1 text ]

Contoh ini menunjukkan bagaimana memasukkan input gambar dengan teks.

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a helpful assistant."
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "image": {
            "format": "jpeg",
            "source": {
              "s3Location": {
                "uri": "s3://your-bucket/your-path/your-image.jpg",
                "bucketOwner": "your-aws-account-id"
              }
            }
          }
        },
        {
          "text": "Which country is highlighted in the image?"
        }
      ]
    },
    {
      "role": "assistant",
      "content": [
        {
          "reasoningContent": {
            "reasoningText": {
              "text": "I will determine the highlighted country by examining its location on the map and using my geographical knowledge"
            }
          }
        },
        {
          "text": "The highlighted country is New Zealand"
        }
      ]
    }
  ]
}
```

------
#### [ Video \$1 text ]

Contoh ini menunjukkan cara memasukkan input video dengan teks.

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a helpful assistant."
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "video": {
            "format": "mp4",
            "source": {
              "s3Location": {
                "uri": "s3://your-bucket/your-path/your-video.mp4",
                "bucketOwner": "your-aws-account-id"
              }
            }
          }
        },
        {
          "text": "What is shown in this video?"
        }
      ]
    },
    {
      "role": "assistant",
      "content": [
        {
          "reasoningContent": {
            "reasoningText": {
              "text": "I will analyze the video content to identify key elements"
            }
          }
        },
        {
          "text": "The video shows a map with New Zealand highlighted"
        }
      ]
    }
  ]
}
```

------

## Konten penalaran
<a name="nova-2-reasoning-modes"></a>

Konten penalaran (juga disebut chain-of-thought) menangkap langkah-langkah pemikiran menengah model sebelum menghasilkan jawaban akhir. Pada `assistant` gilirannya, gunakan `reasoningContent` bidang untuk memasukkan jejak penalaran ini.

**Bagaimana kerugian dihitung:**
+ **Dengan konten penalaran** — Kerugian pelatihan mencakup token penalaran dan token keluaran akhir
+ **Tanpa penalaran konten** - Kerugian pelatihan dihitung hanya pada token keluaran akhir

**Kapan mengaktifkan mode penalaran:** Atur `reasoning_enabled: true` konfigurasi pelatihan Anda saat Anda ingin model menghasilkan token pemikiran sebelum menghasilkan output akhir atau perlu meningkatkan kinerja pada tugas penalaran yang kompleks. Tetapkan `reasoning_enabled: false` saat Anda berlatih pada tugas-tugas sederhana yang tidak mendapat manfaat dari langkah-langkah penalaran eksplisit.

**catatan**  
Anda dapat mengaktifkan mode penalaran terlepas dari apakah data pelatihan Anda berisi konten penalaran. Namun, memasukkan jejak penalaran dalam data pelatihan Anda disarankan agar model dapat belajar dari contoh-contoh ini dan meningkatkan kualitas penalaran.

**Pedoman pemformatan:**
+ Gunakan teks biasa untuk penalaran konten.
+ Hindari tag markup seperti `<thinking>` dan `</thinking>` kecuali secara khusus diperlukan oleh tugas Anda.
+ Pastikan konten penalaran jelas dan relevan dengan proses pemecahan masalah.

**Konten penalaran yang efektif harus mencakup:**
+ Pikiran dan analisis menengah
+ Pengurangan logis dan langkah inferensi
+ Step-by-step pendekatan pemecahan masalah
+ Hubungan eksplisit antara langkah dan kesimpulan

Jika kumpulan data Anda tidak memiliki jejak penalaran, Anda dapat membuatnya menggunakan model berkemampuan penalaran seperti Nova Premier. Berikan pasangan input-output Anda ke model dan tangkap proses penalarannya untuk membangun kumpulan data yang diperbesar dengan alasan.

## Pedoman persiapan kumpulan data
<a name="nova-2-dataset-preparation"></a>

Tabel berikut memberikan panduan untuk mempersiapkan dataset pelatihan Anda.


**Pedoman persiapan kumpulan data**  

| Pedoman | Deskripsi | 
| --- | --- | 
| Ukuran dan kualitas |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/bedrock/latest/userguide/nova-2-sft-data-prep.html)  | 
| Keanekaragaman |  Sertakan beragam contoh yang melakukan hal berikut: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/bedrock/latest/userguide/nova-2-sft-data-prep.html)  | 
| Pemformatan keluaran |  Tentukan dengan jelas format output yang diinginkan dalam tanggapan asisten. Contohnya termasuk struktur JSON, tabel, format CSV, atau format kustom khusus untuk aplikasi Anda.  | 
| Percakapan multi-giliran |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/bedrock/latest/userguide/nova-2-sft-data-prep.html)  | 
| Daftar periksa kualitas |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/bedrock/latest/userguide/nova-2-sft-data-prep.html)  | 

# Hyperparameter model kustom
<a name="custom-models-hp"></a>

Konten referensi berikut mencakup hiperparameter yang tersedia untuk melatih setiap model kustom Amazon Bedrock.

Hyperparameter adalah parameter yang mengontrol proses pelatihan, seperti tingkat pembelajaran atau hitungan zaman. Anda menetapkan hyperparameters untuk pelatihan model kustom saat [mengirimkan](model-customization-submit.md) tugas fine tuning dengan konsol Amazon Bedrock atau dengan memanggil operasi API. [CreateModelCustomizationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelCustomizationJob.html)

## Amazon NovaMemahami hiperparameter kustomisasi model
<a name="cm-hp-nova-mm"></a>

Amazon Nova ProModelAmazon Nova Lite,Amazon Nova Micro, dan mendukung tiga hyperparameter berikut untuk kustomisasi model. Untuk informasi selengkapnya, lihat [Sesuaikan model Anda untuk meningkatkan kinerjanya untuk kasus penggunaan Anda](custom-models.md).

 Untuk informasi tentang fine tuning model Amazon Nova, lihat Model [Amazon Novafine-tuning](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

Jumlah epoch yang Anda tentukan meningkatkan biaya penyesuaian model Anda dengan memproses lebih banyak token. Setiap epoch memproses seluruh kumpulan data pelatihan satu kali. Untuk informasi tentang harga, lihat [harga Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Hyperparameter (konsol) | Hiperparameter (API) | Definisi | Tipe | Minimum | Maksimum | Default | 
| --- | --- | --- | --- | --- | --- | --- | 
| Zaman | EpochCount | Jumlah iterasi melalui seluruh dataset pelatihan | integer | 1 | 5 | 2 | 
| Tingkat pembelajaran | LearningRate | Tingkat di mana parameter model diperbarui setelah setiap batch | float | 1.00E-6 | 1.00E-4 | 1,00E-5 | 
| Langkah-langkah pemanasan tingkat pembelajaran | learningRateWarmupLangkah-langkahnya | Jumlah iterasi di mana tingkat pembelajaran secara bertahap ditingkatkan ke tingkat yang ditentukan | integer | 0 | 100 | 10 | 

Nomor epoch default adalah 2, yang berfungsi untuk sebagian besar kasus. Secara umum, kumpulan data yang lebih besar membutuhkan lebih sedikit zaman untuk bertemu, sementara kumpulan data yang lebih kecil membutuhkan lebih banyak zaman untuk bertemu. Konvergensi yang lebih cepat juga dapat dicapai dengan meningkatkan tingkat pembelajaran, tetapi ini kurang diinginkan karena dapat menyebabkan ketidakstabilan pelatihan pada konvergensi. Kami merekomendasikan memulai dengan hyperparameter default, yang didasarkan pada penilaian kami di seluruh tugas dengan kompleksitas dan ukuran data yang berbeda.

Tingkat pembelajaran secara bertahap akan meningkat ke nilai yang ditetapkan selama pemanasan. Oleh karena itu, kami menyarankan Anda menghindari nilai pemanasan yang besar ketika sampel pelatihan kecil karena tingkat pembelajaran mungkin tidak akan pernah mencapai nilai yang ditetapkan selama proses pelatihan. Kami merekomendasikan untuk mengatur langkah pemanasan dengan membagi ukuran kumpulan data dengan 640 untukAmazon Nova Micro, 160 untuk, dan 320 untukAmazon Nova Lite. Amazon Nova Pro

## Amazon NovaHiperparameter kustomisasi model kanvas
<a name="cm-hp-nova-canvas"></a>

Amazon Nova CanvasModel ini mendukung hyperparameters berikut untuk kustomisasi model.


****  

| Hyperparameter (konsol) | Hiperparameter (API) | Definisi | Minimum | Maksimum | Default | 
| --- | --- | --- | --- | --- | --- | 
| Ukuran batch | BatchSize | Jumlah sampel yang diproses sebelum memperbarui parameter model | 8 | 192 | 8 | 
| Langkah-langkah | StepCount | Berapa kali model diekspos ke setiap batch | 10 | 20.000 | 500 | 
| Tingkat pembelajaran | LearningRate | Nilai parameter model mana yang diperbarui setelah setiap batch | 1.00E-7 | 1.00E-4 | 1,00E-5 | 

## Hiperparameter kustomisasi model Titan teks Amazon
<a name="cm-hp-titan-text"></a>

Amazon Titan Text Premier model mendukung hyperparameter berikut untuk kustomisasi model. Jumlah epoch yang Anda tentukan meningkatkan biaya penyesuaian model Anda dengan memproses lebih banyak token. Setiap epoch memproses seluruh kumpulan data pelatihan satu kali. Untuk informasi tentang harga, lihat [harga Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Hyperparameter (konsol) | Hiperparameter (API) | Definisi | Tipe | Minimum | Maksimum | Default | 
| --- | --- | --- | --- | --- | --- | --- | 
| Zaman | EpochCount | Jumlah iterasi melalui seluruh dataset pelatihan | integer | 1 | 5 | 2 | 
| Ukuran Batch (mikro) | BatchSize | Jumlah sampel yang diproses sebelum memperbarui parameter model | integer | 1 | 1 | 1 | 
| Tingkat pembelajaran | LearningRate | Tingkat di mana parameter model diperbarui setelah setiap batch | float | 1.00E-07 | 1.00E-05 | 1.00E-06 | 
| Langkah-langkah pemanasan tingkat pembelajaran | learningRateWarmupLangkah-langkahnya | Jumlah iterasi di mana tingkat pembelajaran secara bertahap ditingkatkan ke tingkat yang ditentukan | integer | 0 | 20 | 5 | 

Model Amazon Titan Text, seperti Lite dan Express, mendukung hyperparameter berikut untuk kustomisasi model. Jumlah epoch yang Anda tentukan meningkatkan biaya penyesuaian model Anda dengan memproses lebih banyak token. Setiap epoch memproses seluruh kumpulan data pelatihan satu kali. Untuk informasi tentang harga, lihat [harga Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Hyperparameter (konsol) | Hiperparameter (API) | Definisi | Tipe | Minimum | Maksimum | Default | 
| --- | --- | --- | --- | --- | --- | --- | 
| Zaman | EpochCount | Jumlah iterasi melalui seluruh dataset pelatihan | integer | 1 | 10 | 5 | 
| Ukuran Batch (mikro) | BatchSize | Jumlah sampel yang diproses sebelum memperbarui parameter model | integer | 1 | 64 | 1 | 
| Tingkat pembelajaran | LearningRate | Tingkat di mana parameter model diperbarui setelah setiap batch | float | 0.0 | 1 | 1,00E-5 | 
| Langkah-langkah pemanasan tingkat pembelajaran | learningRateWarmupLangkah-langkahnya | Jumlah iterasi di mana tingkat pembelajaran secara bertahap ditingkatkan ke tingkat yang ditentukan | integer | 0 | 250 | 5 | 

## Amazon Titan Image Generator G1 model kustomisasi hyperparameters
<a name="cm-hp-titan-image"></a>

Model Amazon Titan Image Generator G1 mendukung hyperparameter berikut untuk kustomisasi model.

**catatan**  
`stepCount`tidak memiliki nilai default dan harus ditentukan. `stepCount`mendukung nilainya`auto`. `auto`memprioritaskan kinerja model daripada biaya pelatihan dengan secara otomatis menentukan angka berdasarkan ukuran kumpulan data Anda. Biaya pekerjaan pelatihan tergantung pada jumlah yang `auto` menentukan. Untuk memahami bagaimana biaya pekerjaan dihitung dan untuk melihat contoh, lihat [Harga Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Hyperparameter (konsol) | Hiperparameter (API) | Definisi | Minimum | Maksimum | Default | 
| --- | --- | --- | --- | --- | --- | 
| Ukuran batch | BatchSize | Jumlah sampel yang diproses sebelum memperbarui parameter model | 8 | 192 | 8 | 
| Langkah-langkah | StepCount | Berapa kali model diekspos ke setiap batch | 10 | 40.000 | N/A | 
| Tingkat pembelajaran | LearningRate | Nilai parameter model mana yang diperbarui setelah setiap batch | 1.00E-7 | 1 | 1,00E-5 | 

## Hiperparameter Titan Multimodal Embeddings G1 kustomisasi Amazon
<a name="cm-hp-titan-mm"></a>

Titan Multimodal Embeddings G1Model Amazon mendukung hyperparameters berikut untuk kustomisasi model. Jumlah epoch yang Anda tentukan meningkatkan biaya penyesuaian model Anda dengan memproses lebih banyak token. Setiap epoch memproses seluruh kumpulan data pelatihan satu kali. Untuk informasi tentang harga, lihat [harga Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).

**catatan**  
`epochCount`tidak memiliki nilai default dan harus ditentukan. `epochCount`mendukung nilainya`Auto`. `Auto`memprioritaskan kinerja model daripada biaya pelatihan dengan secara otomatis menentukan angka berdasarkan ukuran kumpulan data Anda. Biaya pekerjaan pelatihan tergantung pada jumlah yang `Auto` menentukan. Untuk memahami bagaimana biaya pekerjaan dihitung dan untuk melihat contoh, lihat [Harga Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Hyperparameter (konsol) | Hiperparameter (API) | Definisi | Tipe | Minimum | Maksimum | Default | 
| --- | --- | --- | --- | --- | --- | --- | 
| Zaman | EpochCount | Jumlah iterasi melalui seluruh dataset pelatihan | integer | 1 | 100 | N/A | 
| Ukuran batch | BatchSize | Jumlah sampel yang diproses sebelum memperbarui parameter model | integer | 256 | 9,216 | 576 | 
| Tingkat pembelajaran | LearningRate | Tingkat di mana parameter model diperbarui setelah setiap batch | float | 5.00E-8 | 1 | 5.00E-5 | 

## Hyperparameter kustomisasi model Antropik Claude 3
<a name="cm-hp-anth-claude-3"></a>

Model Anthropic Claude 3 mendukung hyperparameter berikut untuk kustomisasi model. Jumlah epoch yang Anda tentukan meningkatkan biaya penyesuaian model Anda dengan memproses lebih banyak token. Setiap epoch memproses seluruh kumpulan data pelatihan satu kali. Untuk informasi tentang harga, lihat [harga Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Nama Konsol | Nama API | Definisi | Default | Minimum | Maksimum | 
| --- | --- | --- | --- | --- | --- | 
| Hitungan zaman | EpochCount | Jumlah maksimum iterasi melalui seluruh dataset pelatihan | 2 | 1 | 10 | 
| Ukuran batch  | BatchSize | Jumlah sampel yang diproses sebelum memperbarui parameter model | 32 | 4 | 256 | 
| Pengganda tingkat pembelajaran | learningRateMultiplier | Pengganda yang mempengaruhi tingkat pembelajaran di mana parameter model diperbarui setelah setiap batch | 1 | 0.1 | 2 | 
| Ambang batas penghentian awal | earlyStoppingThreshold | Peningkatan minimum dalam kehilangan validasi diperlukan untuk mencegah penghentian prematur dari proses pelatihan | 0,001 | 0 | 0.1 | 
| Menghentikan kesabaran lebih awal | earlyStoppingPatience | Toleransi terhadap stagnasi dalam metrik kerugian validasi sebelum menghentikan proses pelatihan | 2 | 1 | 10 | 

## CohereCommandhiperparameter kustomisasi model
<a name="cm-hp-cohere-command"></a>

CohereCommand LightModel Cohere Command dan mendukung hyperparameter berikut untuk kustomisasi model. Jumlah epoch yang Anda tentukan meningkatkan biaya penyesuaian model Anda dengan memproses lebih banyak token. Setiap epoch memproses seluruh kumpulan data pelatihan satu kali. Untuk informasi tentang harga, lihat [harga Amazon Bedrock](https://aws.amazon.com/bedrock/pricing). Untuk informasi selengkapnya, lihat [Sesuaikan model Anda untuk meningkatkan kinerjanya untuk kasus penggunaan Anda](custom-models.md).

 Untuk informasi tentang Cohere model fine tuning, lihat Cohere dokumentasi di [https://docs.cohere.com/docs/fine-tuning](https://docs.cohere.com/docs/fine-tuning).

**catatan**  
`epochCount`Kuota dapat disesuaikan.


****  

| Hyperparameter (konsol) | Hiperparameter (API) | Definisi | Tipe | Minimum | Maksimum | Default | 
| --- | --- | --- | --- | --- | --- | --- | 
| Zaman | EpochCount | Jumlah iterasi melalui seluruh dataset pelatihan | integer | 1 | 100 | 1 | 
| Ukuran batch | BatchSize | Jumlah sampel yang diproses sebelum memperbarui parameter model | integer | 8 | 8 (Perintah)32 (Cahaya) | 8 | 
| Tingkat pembelajaran | LearningRate | Tingkat di mana parameter model diperbarui setelah setiap batch. Jika Anda menggunakan kumpulan data validasi, sebaiknya Anda tidak memberikan nilai untuk. learningRate | float | 5.00E-6 | 0.1 | 1,00E-5 | 
| Ambang batas penghentian awal | earlyStoppingThreshold | Peningkatan minimum kerugian yang diperlukan untuk mencegah penghentian prematur dari proses pelatihan | float | 0 | 0.1 | 0,01 | 
| Menghentikan kesabaran lebih awal | earlyStoppingPatience | Toleransi stagnasi dalam metrik kerugian sebelum menghentikan proses pelatihan | integer | 1 | 10 | 6 | 
| Persentase evaluasi | EvalPersentase |  Persentase kumpulan data yang dialokasikan untuk evaluasi model, jika Anda tidak memberikan kumpulan data validasi terpisah  | float | 5 | 50 | 20 | 

## MetaLlama 3.1hiperparameter kustomisasi model
<a name="cm-hp-meta-llama31"></a>

Model Meta Llama 3.1 8B dan 70B mendukung hyperparameter berikut untuk kustomisasi model. Jumlah epoch yang Anda tentukan meningkatkan biaya penyesuaian model Anda dengan memproses lebih banyak token. Setiap epoch memproses seluruh kumpulan data pelatihan satu kali. Untuk informasi tentang harga, lihat [harga Amazon Bedrock](https://aws.amazon.com/bedrock/pricing). Untuk informasi selengkapnya, lihat [Sesuaikan model Anda untuk meningkatkan kinerjanya untuk kasus penggunaan Anda](custom-models.md).

 Untuk informasi tentang fine tuning model Meta Llama, lihat Meta dokumentasi di [https://ai.meta.com/llama/get-started/ \$1fine -tuning](https://ai.meta.com/llama/get-started/#fine-tuning).

**catatan**  
`epochCount`Kuota dapat disesuaikan.


****  

| Hyperparameter (konsol) | Hiperparameter (API) | Definisi | Minimum | Maksimum | Default | 
| --- | --- | --- | --- | --- | --- | 
| Zaman | EpochCount | Jumlah iterasi melalui seluruh dataset pelatihan | 1 | 10 | 5 | 
| Ukuran batch | BatchSize | Jumlah sampel yang diproses sebelum memperbarui parameter model | 1 | 1 | 1 | 
| Tingkat pembelajaran | LearningRate | Tingkat di mana parameter model diperbarui setelah setiap batch | 5.00E-6 | 0.1 | 1.00E-4 | 

## MetaLlama 3.2hiperparameter kustomisasi model
<a name="cm-hp-meta-llama32"></a>

Model Meta Llama 3.2 1B, 3B, 11B, dan 90B mendukung hyperparameter berikut untuk kustomisasi model. Jumlah epoch yang Anda tentukan meningkatkan biaya penyesuaian model Anda dengan memproses lebih banyak token. Setiap epoch memproses seluruh kumpulan data pelatihan satu kali. Untuk informasi tentang harga, lihat [harga Amazon Bedrock](https://aws.amazon.com/bedrock/pricing). Untuk informasi selengkapnya, lihat [Sesuaikan model Anda untuk meningkatkan kinerjanya untuk kasus penggunaan Anda](custom-models.md).

 Untuk informasi tentang fine tuning model Meta Llama, lihat Meta dokumentasi di [https://ai.meta.com/llama/get-started/ \$1fine -tuning](https://ai.meta.com/llama/get-started/#fine-tuning).


****  

| Hyperparameter (konsol) | Hiperparameter (API) | Definisi | Minimum | Maksimum | Default | 
| --- | --- | --- | --- | --- | --- | 
| Zaman | EpochCount | Jumlah iterasi melalui seluruh dataset pelatihan | 1 | 10 | 5 | 
| Ukuran batch | BatchSize | Jumlah sampel yang diproses sebelum memperbarui parameter model | 1 | 1 | 1 | 
| Tingkat pembelajaran | LearningRate | Tingkat di mana parameter model diperbarui setelah setiap batch | 5.00E-6 | 0.1 | 1.00E-4 | 

# Kirim pekerjaan kustomisasi model untuk fine-tuning
<a name="model-customization-submit"></a>

Anda dapat membuat model kustom dengan menggunakan fine-tuning di konsol Amazon Bedrock atau API. Anda selanjutnya dapat menyempurnakan model kustom yang ada. Pekerjaan kustomisasi bisa memakan waktu beberapa jam. Durasi pekerjaan tergantung pada ukuran data pelatihan (jumlah catatan, token input, dan token keluaran), jumlah epoch, dan ukuran batch.

## Prasyarat
<a name="submit-model-customization-job-prerequisites"></a>
+ Buat peran layanan AWS Identity and Access Management (IAM) untuk mengakses bucket S3 tempat Anda ingin menyimpan data pelatihan dan validasi penyesuaian model. Anda dapat membuat peran ini secara otomatis dengan menggunakan Konsol Manajemen AWS atau secara manual. Untuk informasi lebih lanjut tentang opsi manual, lihat[Buat peran layanan IAM untuk kustomisasi model](custom-model-job-access-security.md#custom-model-job-service-role).
+ (Opsional) Enkripsi data input dan output, pekerjaan kustomisasi Anda, atau permintaan inferensi yang dibuat untuk model kustom. Untuk informasi selengkapnya, lihat [Enkripsi model khusus](encryption-custom-job.md).
+ (Opsional) Buat virtual private cloud (VPC) untuk melindungi pekerjaan kustomisasi Anda. Untuk informasi selengkapnya, lihat [(Opsional) Lindungi pekerjaan penyesuaian model Anda menggunakan VPC](custom-model-job-access-security.md#vpc-model-customization).

## Kirimkan pekerjaan Anda
<a name="submit-model-customization-job-how-to"></a>

Pilih tab untuk metode pilihan Anda, lalu ikuti langkah-langkahnya:

------
#### [ Console ]

Untuk mengirimkan pekerjaan penyesuaian model di konsol, lakukan langkah-langkah berikut.

1. Masuk ke Konsol Manajemen AWS dengan identitas IAM yang memiliki izin untuk menggunakan konsol Amazon Bedrock. Kemudian, buka konsol Amazon Bedrock di [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Dari panel navigasi kiri, pilih **Model khusus** di bawah **Tune**.

1. Di tab **Model**, pilih **Sesuaikan model** dan kemudian **Buat pekerjaan Fine-tuning**.

1. Di bagian **Detail model**, lakukan hal berikut.

   1. Pilih model yang ingin Anda sesuaikan dengan data Anda sendiri dan beri nama model hasil Anda. Anda dapat memilih model foundation atau model yang sebelumnya disesuaikan (fine-tuned atau distilled) sebagai model dasar Anda.

   1. (Opsional) Secara default, Amazon Bedrock mengenkripsi model Anda dengan kunci yang dimiliki dan dikelola oleh. AWS Untuk menggunakan [kunci KMS khusus](encryption-custom-job.md), pilih **Enkripsi model** dan pilih kunci.

   1. (Opsional) Untuk mengaitkan [tag](tagging.md) dengan model khusus, perluas bagian **Tag** dan pilih **Tambahkan tag baru**.

1. Di bagian **konfigurasi Job**, masukkan nama untuk pekerjaan tersebut dan secara opsional tambahkan tag apa pun untuk dikaitkan dengan pekerjaan tersebut.

1. **(Opsional) Untuk menggunakan [virtual private cloud (VPC) untuk melindungi data pelatihan dan pekerjaan kustomisasi Anda](custom-model-job-access-security.md#vpc-model-customization), pilih VPC yang berisi data input dan data output lokasi Amazon S3, subnetnya, dan grup keamanan di bagian pengaturan VPC.**
**catatan**  
Jika Anda menyertakan konfigurasi VPC, konsol tidak dapat membuat peran layanan baru untuk pekerjaan tersebut. [Buat peran layanan kustom](model-customization-iam-role.md) dan tambahkan izin yang mirip dengan contoh yang dijelaskan di[Lampirkan izin VPC ke peran penyesuaian model](custom-model-job-access-security.md#vpc-data-access-role).

1. Di bagian **Input data**, pilih lokasi S3 dari file dataset pelatihan dan, jika ada, file dataset validasi.

1. Di bagian **Hyperparameters**, nilai input untuk [hyperparameters](custom-models-hp.md) untuk digunakan dalam pelatihan.

1. Di bagian **Data keluaran**, masukkan lokasi Amazon S3 tempat Amazon Bedrock harus menyimpan output pekerjaan. Amazon Bedrock menyimpan metrik kehilangan pelatihan dan metrik kehilangan validasi untuk setiap epoch dalam file terpisah di lokasi yang Anda tentukan.

1. Di bagian **Akses layanan**, pilih salah satu dari berikut ini: 
   + **Gunakan peran layanan yang ada** — Pilih peran layanan dari daftar tarik-turun. Untuk informasi selengkapnya tentang menyiapkan peran kustom dengan izin yang sesuai, lihat[Buat peran layanan untuk kustomisasi model](model-customization-iam-role.md).
   + **Membuat dan menggunakan peran layanan baru** — Masukkan nama untuk peran layanan.

1. Pilih **model Fine-tune** untuk memulai pekerjaan.

------
#### [ API ]

**Permintaan**

Kirim permintaan [CreateModelCustomizationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelCustomizationJob.html)(lihat tautan untuk format permintaan dan respons serta detail bidang) dengan [titik akhir bidang kontrol Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) untuk mengirimkan pekerjaan penyesuaian model. Minimal, Anda harus menyediakan bidang-bidang berikut.
+ `roleArn`— ARN peran layanan dengan izin untuk menyesuaikan model. Amazon Bedrock dapat secara otomatis membuat peran dengan izin yang sesuai jika Anda menggunakan konsol, atau Anda dapat membuat peran khusus dengan mengikuti langkah-langkah di. [Buat peran layanan untuk kustomisasi model](model-customization-iam-role.md)
**catatan**  
Jika Anda menyertakan `vpcConfig` bidang, pastikan peran tersebut memiliki izin yang tepat untuk mengakses VPC. Sebagai contoh, lihat [Lampirkan izin VPC ke peran penyesuaian model](custom-model-job-access-security.md#vpc-data-access-role).
+ `baseModelIdentifier`— [ID model](models-supported.md) atau ARN dari model pondasi atau model yang sebelumnya disesuaikan (fine-tuned atau distilled) untuk disesuaikan.
+ `customModelName`- Nama untuk memberikan model yang baru disesuaikan.
+ `jobName`— Nama untuk memberikan pekerjaan pelatihan.
+ `hyperParameters`— [Hyperparameter](custom-models-hp.md) yang mempengaruhi proses kustomisasi model.
+ `trainingDataConfig`— Objek yang berisi URI Amazon S3 dari kumpulan data pelatihan. Bergantung pada metode dan model kustomisasi, Anda juga dapat menyertakan file`validationDataConfig`. Untuk informasi selengkapnya tentang menyiapkan kumpulan data, lihat. [Siapkan data untuk menyempurnakan model Anda](model-customization-prepare.md)
+ `validationDataconfig`— Objek yang berisi URI Amazon S3 dari dataset validasi.
+ `outputDataConfig`— Objek yang berisi URI Amazon S3 untuk menulis data output ke.

Jika Anda tidak menentukan`customizationType`, metode penyesuaian model default ke. `FINE_TUNING`

Untuk mencegah permintaan selesai lebih dari satu kali, sertakan a`clientRequestToken`.

Anda dapat menyertakan bidang opsional berikut untuk konfigurasi tambahan.
+ `jobTags` and/or `customModelTags`— Kaitkan [tag](tagging.md) dengan pekerjaan kustomisasi atau model kustom yang dihasilkan.
+ `customModelKmsKeyId`— Sertakan [kunci KMS khusus](encryption-custom-job.md) untuk mengenkripsi model kustom Anda.
+ `vpcConfig`— Sertakan konfigurasi untuk [virtual private cloud (VPC) untuk melindungi data pelatihan dan pekerjaan kustomisasi Anda](custom-model-job-access-security.md#vpc-model-customization).

**Respons**

Respons mengembalikan `jobArn` yang dapat Anda gunakan untuk [memantau](model-customization-monitor.md) atau [menghentikan](model-customization-stop.md) pekerjaan.

[Lihat contoh kode](model-customization-code-samples.md)

------