

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Personaliza un modelo con ajustes precisos en Amazon Bedrock
<a name="custom-model-fine-tuning"></a>

Con Amazon Bedrock, puede entrenar un modelo básico para mejorar el rendimiento en tareas específicas (lo que se conoce como ajuste fino). Para obtener información sobre cómo refinar modelos de Amazon Nova, consulte [Refinamiento de modelos de Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

## Modelos y regiones compatibles para realizar ajustes
<a name="custom-model-supported"></a>

En la siguiente tabla se muestran los modelos básicos que puede ajustar con precisión:


| Proveedor | Modelo | ID del modelo | Compatibilidad con modelos de una sola región | 
| --- | --- | --- | --- | 
| Amazon | Nova 2 Lite | amazon.nova-2-lite-v1:00:256 k |  us-east-1  | 
| Amazon | Nova Canvas | amazona. nova-canvas-v1:0 |  us-east-1  | 
| Amazon | Nova Lite | amazon. nova-lite-v1:30:300 km |  us-east-1  | 
| Amazon | Nova Micro | amazona. nova-micro-v1:20:128 k |  us-east-1  | 
| Amazon | Nova Pro | amazona. nova-pro-v1:30:300 km |  us-east-1  | 
| Amazon | Titan Image Generator G1 v2 | amazona. titan-image-generator-v2:0 |  us-east-1 us-west-2  | 
| Amazon | Titan Multimodal Embeddings G1 | amazon. titan-embed-image-v1:0 |  us-east-1 us-west-2  | 
| Anthropic | Claude 3 Haiku | anthropic.claude-3-haiku-20240307-v1:0:200k |  us-west-2  | 
| Meta | Llama 3.1 70B Instruct | meta.llama3-1-70 1:10:128 k b-instruct-v |  us-west-2  | 
| Meta | Llama 3.1 8B Instruct | metal.llama3-1-8 1:10:128 k b-instruct-v |  us-west-2  | 
| Meta | Llama 3.2 11B Instruct | metal.llama3-2-11 1:10:128 k b-instruct-v |  us-west-2  | 
| Meta | Llama 3.2 1B Instruct | meta.llama3-2-1 1:10:128 k b-instruct-v |  us-west-2  | 
| Meta | Llama 3.2 3B Instruct | meta.llama3-2-3 1:00:128 k b-instruct-v |  us-west-2  | 
| Meta | Llama 3.2 90B Instruct | metal.llama3-2-90 1:00:128 k b-instruct-v |  us-west-2  | 
| Meta | Llama 3.3 70B Instruct | metal.llama3-3-70 1:00:128 k b-instruct-v |  us-west-2  | 

Para obtener información sobre los hiperparámetros de personalización del modelo para cada modelo, consulte. [Hiperparámetros de los modelos personalizados](custom-models-hp.md)

# Prepare los datos para ajustar sus modelos
<a name="model-customization-prepare"></a>

Para preparar conjuntos de datos de entrenamiento y validación para el modelo personalizado, debe crear archivos `.jsonl`, en los que cada línea es un objeto JSON que se corresponde con un registro. Antes de iniciar un trabajo de personalización de modelos, debe preparar al menos un conjunto de datos de entrenamiento. Los archivos que cree deben tener el formato del método y modelo de personalización que elija. Los registros que contiene también deben cumplir los requisitos de tamaño en función del modelo. 

Para obtener información sobre los requisitos de los modelos, consulte [Requisitos de los modelos para los conjuntos de datos de entrenamiento y validación](#model-training-validation-requirements). Para ver las cuotas predeterminadas que se aplican a los conjuntos de datos de entrenamiento y validación utilizados para personalizar diferentes modelos, consulte la **Suma de las cuotas de los registros de entrenamiento y validación** en los [Amazon Bedrock endpoints and quotas](https://docs.aws.amazon.com/general/latest/gr/bedrock.html) en la Referencia general de AWS. 

La compatibilidad con un conjunto de datos de validación y el formato del conjunto de datos de entrenamiento y validación dependen de los siguientes factores. 
+ El tipo de trabajo de personalización de ajustes.
+ Las modalidades de entrada y salida de los datos.

Para obtener información sobre cómo refinar modelos de Amazon Nova, consulte [Refinamiento de modelos de Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

## Modalidades compatibles para el ajuste fino
<a name="model-customization-data-support"></a>

Las siguientes secciones describen las diferentes capacidades de ajuste fino que admite cada modelo, organizadas por sus modalidades de entrada y salida. Para obtener información sobre cómo refinar modelos de Amazon Nova, consulte [Refinamiento de modelos de Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

Modelos de **Text-to-Text  **

Text-to-Text los modelos se pueden ajustar para diversas tareas basadas en texto, incluidas las aplicaciones conversacionales y no conversacionales. Para obtener información sobre la preparación de datos para ajustar los modelos, consulte. Text-to-Text [Prepare los datos para ajustar los modelos text-to-text](#preparing-text-data) 

Los siguientes modelos no conversacionales están optimizados para tareas como el resumen, la traducción y la respuesta a preguntas:
+ Amazon Titan Text G1 - Express
+ Amazon Titan Text G1 - Lite
+ Amazon Titan Text Premier
+ Cohere Command
+ Cohere Command Light
+ Meta Llama 3.1 8B Instruct
+ Meta Llama 3.1 70B Instruct

Los siguientes modelos conversacionales están diseñados para interacciones de un solo turno y de varios turnos. Si un modelo usa la API Converse, el conjunto de datos de refinamiento debe seguir el formato de mensaje de la API Converse e incluir los mensajes del sistema, del usuario y del asistente. Para ver ejemplos, consulte [Prepare los datos para ajustar los modelos text-to-text](#preparing-text-data). Para obtener más información sobre las operaciones de la API Converse, consulte [Cómo mantener una conversación con las operaciones de la API Converse](conversation-inference.md).
+ Anthropic Claude 3 Haiku
+ Meta Llama 3.2 1B Instruct (formato de la API Converse)
+ Meta Llama 3.2 3B Instruct (formato de la API Converse)
+ Meta Llama 3.2 11B Instruct Vision (formato de la API Converse)
+ Meta Llama 3.2 90B Instruct Vision (formato de la API Converse)
+ Meta Llama 3.3 70B Vision Instruct (formato de la API Converse)

**Text-Image-to-Text & modelo s Text-to-Image**

Los siguientes modelos admiten el refinamiento para la generación de imágenes y el procesamiento de imágenes de texto. Estos modelos procesan o generan imágenes a partir de entradas textuales o generan texto a partir de entradas textuales y de imágenes. Para obtener información sobre la preparación de datos para ajustar Text-Image-to-Text y Text-to-Image modelar modelos, consulte. [Preparación de datos para el refinamiento de los modelos de procesamiento de imágenes y texto](#preparing-image-text-data)
+ Amazon Titan Image Generator G1 V1
+ Meta Llama 3.2 11B Instruct Vision
+ Meta Llama 3.2 90B Instruct Vision
+ Meta Llama 3.3 70B Vision Instruct

**De imagen a incrustaciones**

Los siguientes modelos permiten realizar el refinamiento de tareas como clasificación y recuperación. Estos modelos generan representaciones numéricas (incrustaciones) a partir de entradas de imágenes. Para obtener información sobre la preparación de datos para el ajuste fino Image-to-Embeddings de los modelos, consulte. [Preparación de datos para el refinamiento de los modelos de incrustación y generación de imágenes](#preparing-image-generation-data)
+ Amazon Titan Multimodal Embeddings G1
+ Amazon Titan Image Generator G1 V1

## Requisitos de los modelos para los conjuntos de datos de entrenamiento y validación
<a name="model-training-validation-requirements"></a>

En las siguientes secciones se indican los requisitos de los conjuntos de datos de entrenamiento y validación de un modelo. Para obtener información sobre las restricciones de los conjuntos de datos para los modelos de Amazon Nova, consulte [Refinamiento de modelos de Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

### Amazon Titan Text Premier
<a name="quotas-cm-titan-premier"></a>


****  

| Description (Descripción) | Máximo (afinación) | 
| --- | --- | 
| Suma de los tokens de entrada y salida cuando el tamaño del lote es 1. | 4.096 | 
| Suma de los tokens de entrada y salida cuando el tamaño del lote es 2, 3 o 4. | N/A | 
| Cuota de caracteres por muestra en el conjunto de datos | Cuota de tokens x 6 (estimada) | 
| Tamaño del archivo del conjunto de datos de entrenamiento | 1 GB | 
| Tamaño del archivo del conjunto de datos de validación | 100 MB | 

### Amazon Titan Text G1 - Express
<a name="quotas-cm-titan-text"></a>


****  

| Description (Descripción) | Máximo (afinación) | 
| --- | --- | 
| Suma de los tokens de entrada y salida cuando el tamaño del lote es 1. | 4.096 | 
| Suma de los tokens de entrada y salida cuando el tamaño del lote es 2, 3 o 4. | 2048 | 
| Cuota de caracteres por muestra en el conjunto de datos | Cuota de tokens x 6 (estimada) | 
| Tamaño del archivo del conjunto de datos de entrenamiento | 1 GB | 
| Tamaño del archivo del conjunto de datos de validación | 100 MB | 

### Amazon Titan Text G1 - Lite
<a name="quotas-cm-titan-text-lite"></a>


****  

| Description (Descripción) | Máximo (afinación) | 
| --- | --- | 
| Suma de los tokens de entrada y salida cuando el tamaño del lote es 1 o 2. | 4.096 | 
| Suma de los tokens de entrada y salida cuando el tamaño del lote es 3, 4, 5 o 6. | 2048 | 
| Cuota de caracteres por muestra en el conjunto de datos | Cuota de tokens x 6 (estimada) | 
| Tamaño del archivo del conjunto de datos de entrenamiento | 1 GB | 
| Tamaño del archivo del conjunto de datos de validación | 100 MB | 

### Amazon Titan Image Generator G1 V1
<a name="quotas-cm-titan-image"></a>


****  

| Description (Descripción) | Mínimo (afinación) | Máximo (afinación) | 
| --- | --- | --- | 
| Longitud de la petición de texto en el ejemplo de entrenamiento, en caracteres | 3 | 1 024 | 
| Registros en un conjunto de datos de entrenamiento | 5 | 10 000 | 
| Tamaño de la imagen de entrada | 0 | 50 MB | 
| Altura de la imagen de entrada en píxeles | 512 | 4.096 | 
| Ancho de la imagen de entrada en píxeles | 512 | 4.096 | 
| Pixeles totales de la imagen de entrada | 0 | 12.582.912 | 
| Relación de aspecto de la imagen de entrada | 1:4 | 4:1 | 

### Amazon Titan Multimodal Embeddings G1
<a name="quotas-cm-titan-mm-embed"></a>


****  

| Description (Descripción) | Mínimo (afinación) | Máximo (afinación) | 
| --- | --- | --- | 
| Longitud de la petición de texto en el ejemplo de entrenamiento, en caracteres | 0 | 2.560 | 
| Registros en un conjunto de datos de entrenamiento | 1 000 | 500.000 | 
| Tamaño de la imagen de entrada | 0 | 5 MB | 
| Altura de la imagen de entrada en píxeles | 128 | 4096 | 
| Ancho de la imagen de entrada en píxeles | 128 | 4096 | 
| Pixeles totales de la imagen de entrada | 0 | 12.528.912 | 
| Relación de aspecto de la imagen de entrada | 1:4 | 4:1 | 

### Meta Llama 3.1
<a name="quotas-cm-meta-llama-3-1"></a>


****  

| Description (Descripción) | Mínimo (afinación) | Máximo (afinación) | 
| --- | --- | --- | 
| Tokens de entrada | 0 | 16,000 | 
| Tokens de salida | 0 | 16,000 | 
| Cuota de caracteres por muestra en el conjunto de datos | 0 | Cuota de tokens x 6 (estimada) | 
| Suma de los tokens de entrada y salida | 0 | 16,000 | 
| Suma de los registros de entrenamiento y validación | 100 | 10 000 (ajustables mediante cuotas de servicio) | 

### Meta Llama 3.2
<a name="quotas-cm-meta-llama-3-2"></a>

Los formatos de imagen compatibles para Meta Llama-3.2 11B Vision Instruct y Meta Llama-3.2 90B Vision Instruct incluyen: `gif`, `jpeg`, `png` y `webp`. Para estimar la image-to-token conversión durante el ajuste fino de estos modelos, puede utilizar esta fórmula como una aproximación:. `Tokens = min(2, max(Height // 560, 1)) * min(2, max(Width // 560, 1)) * 1601` Las imágenes se convierten en aproximadamente 1601 a 6404 tokens en función de su tamaño.


****  

| Description (Descripción) | Mínimo (afinación) | Máximo (afinación) | 
| --- | --- | --- | 
| Suma de los tokens de entrada y salida | 0 | 16 000 (10 000 para Meta Llama 3.2 90B) | 
| Suma de los registros de entrenamiento y validación | 100 | 10 000 (ajustables mediante cuotas de servicio) | 
| Tamaño de la imagen de entrada para los modelos Meta Llama 11B and 90B instruct) | 0 | 10 MB | 
| Altura de la imagen de entrada en píxeles para los modelos Meta Llama 11B and 90B instruct | 10 | 8192 | 
| Ancho de la imagen de entrada en píxeles para los modelos Meta Llama 11B and 90B90B instruct | 10 | 8192 | 

### Meta Llama 3.3
<a name="quotas-cm-meta-llama-3-3"></a>


****  

| Description (Descripción) | Mínimo (afinación) | Máximo (afinación) | 
| --- | --- | --- | 
| Suma de los tokens de entrada y salida | 0 | 16 000 | 
| Suma de los registros de entrenamiento y validación | 100 | 10 000 (ajustables mediante cuotas de servicio) | 

### CohereCommand
<a name="quotas-cm-cohere-command"></a>


****  

| Description (Descripción) | Máximo (afinación) | 
| --- | --- | 
| Tokens de entrada | 4.096 | 
| Tokens de salida | 2048 | 
| Cuota de caracteres por muestra en el conjunto de datos | Cuota de tokens x 6 (estimada) | 
| Registros en un conjunto de datos de entrenamiento | 10 000 | 
| Registros en un conjunto de datos de validación | 1 000 | 

### Anthropic Claude 3 Haiku
<a name="anthropic-claude-3-haiku"></a>


****  

| Description (Descripción) | Máximo (afinación) | 
| --- | --- | 
| Número mínimo de registros | 32 | 
| Registros de entrenamiento máximos | 10 000 | 
| Registros de validación máximos | 1 000 | 
| Número máximo total de registros | 10 000 (ajustables mediante cuotas de servicio) | 
| Número máximo de tokens | 32 000 | 
| Tamaño máximo del conjunto de datos de entrenamiento | 10 GB | 
| Tamaño máximo del conjunto de datos de validación | 1 GB | 

## Prepare los datos para ajustar los modelos text-to-text
<a name="preparing-text-data"></a>

**nota**  
Para obtener información sobre cómo refinar modelos de Amazon Nova, consulte [Refinamiento de modelos de Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

Para ajustar text-to-text los modelos, cada objeto JSON es un ejemplo que contiene campos estructurados diseñados para guiar al modelo hacia la generación del resultado textual deseado a partir de un mensaje textual proporcionado. El formato de los datos varía según el caso de uso y se divide, a grandes rasgos, en casos de uso conversacionales y no conversacionales.

------
#### [ Non-conversational tasks ]

Las tareas no conversacionales implican generar una salida única para una entrada determinada. Cada muestra del conjunto de datos incluye un campo `prompt` que contiene el texto de entrada y un campo `completion` con el resultado esperado. Este formato admite una variedad de tareas, como responder preguntas, resumir, traducir, completar textos y extraer información.

Formato de ejemplo

```
{"prompt": "What is the capital of France?", "completion": "The capital of France is Paris."}
{"prompt": "Summarize the article about climate change.", "completion": "Climate change refers to the long-term alteration of temperature and typical weather patterns in a place."}
```

Utilice aproximadamente seis caracteres por token para estimar el número de tokens para el tamaño del conjunto de datos de planificación.

------
#### [ Converse API format (Single turn and Multi turn) ]

Para usar la API de Converse, debe llamar a las operaciones `Converse` o `ConverseStream` para enviar mensajes a un modelo. Para llamar a `Converse` se requiere permiso para la operación `bedrock:InvokeModel`. Para llamar a `ConverseStream` se requiere permiso para la operación `bedrock:InvokeModelWithResponseStream`. Para obtener más información, consulte [Mediante la API de Converse](conversation-inference-call.md). Para obtener más información sobre las operaciones de la API Converse, consulte [Cómo mantener una conversación con las operaciones de la API Converse](conversation-inference.md)

Formato de ejemplo

```
{
    "schemaVersion": "bedrock-conversation-2024",
    "system": [
        {
            "text": "You are a digital assistant with a friendly personality"
        }
    ],
    "messages": [
        {
            "role": "user",
            "content": [
                {
                    "text": "What is the capital of Mars?"
                }
            ]
        },
        {
            "role": "assistant",
            "content": [
                {
                    "text": "Mars does not have a capital. Perhaps it will one day."
                }
            ]
        }
    ]
}
```

------
#### [ Anthropic Claude 3 Haiku: Single-turn conversations ]

Las tareas conversacionales de un solo turno implican intercambios aislados, en los que el modelo genera una respuesta basada únicamente en la entrada del usuario actual sin tener en cuenta el contexto previo. Cada muestra de conjunto de datos utiliza una matriz de mensajes, con los roles alternos `user` y `assistant`.

Formato

```
{"system": "<system message>","messages":[{"role": "user", "content": "<user query>"},{"role": "assistant", "content": "<expected generated text>"}]}
```

Ejemplo

```
{"system": "You are an helpful assistant.","messages":[{"role": "user", "content": "what is AWS"},{"role": "assistant", "content": "it's Amazon Web Services."}]}
```

------
#### [ Anthropic Claude 3 Haiku: Multi-turn conversations ]

Las tareas conversacionales de varios turnos implican diálogos prolongados en los que el modelo debe generar respuestas y, al mismo tiempo, preservar el contexto de los intercambios anteriores. Este formato captura la naturaleza dinámica de las tareas interactivas, como la atención al cliente o las conversaciones complejas.

Formato

```
{"system": "<system message>","messages":[{"role": "user", "content": "<user query 1>"},{"role": "assistant", "content": "<expected generated text 1>"}, {"role": "user", "content": "<user query 2>"},{"role": "assistant", "content": "<expected generated text 2>"}]}
```

Ejemplo

```
{"system": "system message","messages":[{"role": "user", "content": "Hello there."},{"role": "assistant", "content": "Hi, how can I help you?"},{"role": "user", "content": "what are LLMs?"},{"role": "assistant", "content": "LLM means large language model."},]}  
```

------

## Preparación de datos para el refinamiento de los modelos de procesamiento de imágenes y texto
<a name="preparing-image-text-data"></a>

**nota**  
Para obtener información sobre cómo refinar modelos de Amazon Nova, consulte [Refinamiento de modelos de Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

Para ajustar image-text-to-text los modelos, cada objeto JSON es un ejemplo que contiene una conversación estructurada como una `messages` matriz, que consiste en objetos JSON alternados que representan las entradas del usuario y las respuestas del asistente. Las entradas del usuario pueden incluir texto e imágenes, mientras que las respuestas del asistente son siempre textuales. Esta estructura admite flujos de conversación de uno o varios turnos, lo que permite al modelo gestionar diversas tareas de forma eficaz. Los formatos de imagen compatibles para Meta Llama-3.2 11B Vision Instruct y Meta Llama-3.2 90B Vision Instruct incluyen: `gif`, `jpeg`, `png` y `webp`.

Para permitir que Amazon Bedrock acceda a los archivos de imagen, agregue una política de IAM similar a la de [Permisos para acceder a los archivos de entrenamiento y validación y escribir los archivos de salida en S3](model-customization-iam-role.md#model-customization-iam-role-s3) al rol de servicio de personalización de modelos de Amazon Bedrock que ha configurado o que se ha configurado automáticamente para usted en la consola. Las rutas de Amazon S3 que proporcione en el conjunto de datos de entrenamiento deben estar en las carpetas que especifique en la política.

**Conversaciones de un solo turno**

Cada objeto JSON para conversaciones de un solo turno consta de un mensaje del usuario y un mensaje del asistente. El mensaje del usuario incluye un campo de rol establecido en *user* y un campo *content* que contiene una matriz con un campo `type` (*text* o *image*) que describe la modalidad de entrada. Para las entradas de texto, el campo `content` incluye un campo `text` con la pregunta o la petición del usuario. Para las entradas de imágenes, el campo `content` especifica la imagen `format` (por ejemplo, *jpeg*, *png*) y su `source` con un `uri` que apunta a la ubicación de la imagen en Amazon S3. El `uri` representa la ruta única de la imagen almacenada en un bucket de Amazon S3, normalmente en el formato `s3://<bucket-name>/<path-to-file>`. El mensaje del asistente incluye un campo `role` configurado como *assistant* y un campo `content` que contiene una matriz con un campo `type` configurado como *text* y un campo `text` que contiene la respuesta generada por el asistente.

Formato de ejemplo

```
{
    "schemaVersion": "bedrock-conversation-2024",
    "system": [{
        "text": "You are a smart assistant that answers questions respectfully"
    }],
    "messages": [{
            "role": "user",
            "content": [{
                    "text": "What does the text in this image say?"
                },
                {
                    "image": {
                        "format": "png",
                        "source": {
                            "s3Location": {
                                "uri": "s3://your-bucket/your-path/your-image.png",
                                "bucketOwner": "your-aws-account-id"
                            }
                        }
                    }
                }
            ]
        },
        {
            "role": "assistant",
            "content": [{
                "text": "The text in the attached image says 'LOL'."
            }]
        }
    ]
}
```

**Conversaciones de varios turnos**

Cada objeto JSON para conversaciones de varios turnos contiene una secuencia de mensajes con roles alternos, en la que los mensajes del usuario y los mensajes del asistente se estructuran de forma coherente para permitir intercambios coherentes. Los mensajes del usuario incluyen un campo `role` configurado como *user* y un campo `content` que describe la modalidad de entrada. Para las entradas de texto, el campo `content` incluye un campo `text` con la pregunta o el seguimiento del usuario, mientras que para las entradas de imágenes, especifica el elemento `format` de la imagen y su `source` con un `uri` que apunta a la ubicación de la imagen en Amazon S3. `uri`Sirve como identificador único en el formato s3://<bucket-name>/< path-to-file > y permite al modelo acceder a la imagen desde el bucket de Amazon S3 designado. Los mensajes del asistente incluyen un campo `role` configurado como *assistant* y un campo `content` que contiene una matriz con un campo `type` configurado como *text* y un campo `text` que contiene la respuesta generada por el asistente. Las conversaciones pueden abarcar varios intercambios, lo que permite al asistente mantener el contexto y ofrecer respuestas coherentes en todo momento.

Formato de ejemplo

```
{
    "schemaVersion": "bedrock-conversation-2024",
    "system": [{
        "text": "You are a smart assistant that answers questions respectfully"
    }],
    "messages": [{
            "role": "user",
            "content": [{
                    "text": "What does the text in this image say?"
                },
                {
                    "image": {
                        "format": "png",
                        "source": {
                            "s3Location": {
                                "uri": "s3://your-bucket/your-path/your-image.png",
                                "bucketOwner": "your-aws-account-id"
                            }
                        }
                    }
                }
            ]
        },
        {
            "role": "assistant",
            "content": [{
                "text": "The text in the attached image says 'LOL'."
            }]
        },
        {
            "role": "user",
            "content": [{
                    "text": "What does the text in this image say?"
                }
            ]
        },
        {
            "role": "assistant",
            "content": [{
                "text": "The text in the attached image says 'LOL'."
            }]
        }
        
    ]
}
```

## Preparación de datos para el refinamiento de los modelos de incrustación y generación de imágenes
<a name="preparing-image-generation-data"></a>

**nota**  
Los modelos de Amazon Nova tienen diferentes requisitos de refinamiento. Para refinar estos modelos, siga las instrucciones de [Refinamiento de modelos de Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

Para nuestros text-to-image image-to-embedding modelos, prepare un conjunto de datos de entrenamiento. No se admiten conjuntos de datos de validación. Cada objeto JSON es un ejemplo que contiene una `image-ref`, el URI de Amazon S3 de una imagen y un `caption` que podría ser una petición para la imagen.

Las imágenes deben tener formato PNG o JPEG.

```
{"image-ref": "s3://bucket/path/to/image001.png", "caption": "<prompt text>"}
{"image-ref": "s3://bucket/path/to/image002.png", "caption": "<prompt text>"}{"image-ref": "s3://bucket/path/to/image003.png", "caption": "<prompt text>"}
```

A continuación, se muestra un elemento de ejemplo:

```
{"image-ref": "s3://amzn-s3-demo-bucket/my-pets/cat.png", "caption": "an orange cat with white spots"}
```

Para permitir que Amazon Bedrock acceda a los archivos de imagen, agregue una política de IAM similar a la de [Permisos para acceder a los archivos de entrenamiento y validación y escribir los archivos de salida en S3](model-customization-iam-role.md#model-customization-iam-role-s3) al rol de servicio de personalización de modelos de Amazon Bedrock que ha configurado o que se ha configurado automáticamente para usted en la consola. Las rutas de Amazon S3 que proporcione en el conjunto de datos de entrenamiento deben estar en las carpetas que especifique en la política.

# Ajuste los Amazon Nova modelos con ajustes supervisados
<a name="nova-2-sft-data-prep"></a>

Amazon NovaLos datos de la SFT 2.0 utilizan el mismo formato de la API de Converse que en la Amazon Nova versión 1.0, con la adición de campos de contenido de razonamiento opcionales. Para ver las especificaciones de formato completas, consulte el esquema de la [ReasoningContentBlock](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ReasoningContentBlock.html)API de [Converse.](https://docs.aws.amazon.com/bedrock/latest/userguide/conversation-inference-call.html)

**Funciones compatibles:**
+ **Tipos de entrada**: texto, imagen o vídeo en bloques de contenido de usuario
+ **Contenido de asistente**: respuestas y contenido de razonamiento solo de texto
+ **Composición del conjunto** de datos: debe ser homogéneo. Elija una de las siguientes opciones: giros de solo texto, giros de texto con imagen o giros de texto con vídeo

**importante**  
No puedes mezclar imágenes y vídeos en el mismo conjunto de datos ni en turnos diferentes.

**Limitaciones actuales:**
+ **Uso de herramientas**: aunque el formato de entrada admite el uso de herramientas, actualmente no lo admite Amazon Nova 2.0 SFT. Añadir secciones de herramientas puede provocar un error en el trabajo.
+ **Contenido de razonamiento multimodal**: aunque el formato Converse admite contenido de razonamiento basado en imágenes, la SFT 2.0 no lo admite. Amazon Nova
+ **Conjuntos de validación**: es posible que la interfaz de usuario admita proporcionar un conjunto de validación, pero no se admitirá durante el entrenamiento de SFT.

**Formatos multimedia compatibles:**
+ **Imágenes**: PNG, JPEG, GIF
+ **Vídeos**: MOV, MKV, MP4

## Ejemplos de formatos de datos
<a name="nova-2-sft-data-examples"></a>

------
#### [ Text-only ]

En este ejemplo se muestra un formato básico de solo texto compatible con Amazon Nova la versión 1.0.

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a digital assistant with a friendly personality"
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "text": "What country is right next to Australia?"
        }
      ]
    },
    {
      "role": "assistant",
      "content": [
        {
          "text": "The closest country is New Zealand"
        }
      ]
    }
  ]
}
```

------
#### [ Text with reasoning ]

En este ejemplo se muestra texto con contenido de razonamiento opcional para Amazon Nova la versión 2.0.

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a digital assistant with a friendly personality"
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "text": "What country is right next to Australia?"
        }
      ]
    },
    {
      "role": "assistant",
      "content": [
        {
          "reasoningContent": {
            "reasoningText": {
              "text": "I need to use my world knowledge of geography to answer this question"
            }
          }
        },
        {
          "text": "The closest country to Australia is New Zealand, located to the southeast across the Tasman Sea."
        }
      ]
    }
  ]
}
```

**nota**  
Actualmente, solo `reasoningText` es compatible con la versión interna`reasoningContent`. El contenido de razonamiento multimodal aún no está disponible.

------
#### [ Image \$1 text ]

En este ejemplo se muestra cómo incluir la entrada de imágenes con el texto.

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a helpful assistant."
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "image": {
            "format": "jpeg",
            "source": {
              "s3Location": {
                "uri": "s3://your-bucket/your-path/your-image.jpg",
                "bucketOwner": "your-aws-account-id"
              }
            }
          }
        },
        {
          "text": "Which country is highlighted in the image?"
        }
      ]
    },
    {
      "role": "assistant",
      "content": [
        {
          "reasoningContent": {
            "reasoningText": {
              "text": "I will determine the highlighted country by examining its location on the map and using my geographical knowledge"
            }
          }
        },
        {
          "text": "The highlighted country is New Zealand"
        }
      ]
    }
  ]
}
```

------
#### [ Video \$1 text ]

En este ejemplo se muestra cómo incluir la entrada de vídeo con el texto.

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a helpful assistant."
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "video": {
            "format": "mp4",
            "source": {
              "s3Location": {
                "uri": "s3://your-bucket/your-path/your-video.mp4",
                "bucketOwner": "your-aws-account-id"
              }
            }
          }
        },
        {
          "text": "What is shown in this video?"
        }
      ]
    },
    {
      "role": "assistant",
      "content": [
        {
          "reasoningContent": {
            "reasoningText": {
              "text": "I will analyze the video content to identify key elements"
            }
          }
        },
        {
          "text": "The video shows a map with New Zealand highlighted"
        }
      ]
    }
  ]
}
```

------

## Razonamiento del contenido
<a name="nova-2-reasoning-modes"></a>

El contenido de razonamiento (también denominado chain-of-thought) captura los pasos intermedios del pensamiento del modelo antes de generar una respuesta final. `assistant`A su vez, usa el `reasoningContent` campo para incluir estas pistas de razonamiento.

**Cómo se calcula la pérdida:**
+ **Con contenido de razonamiento**: la pérdida por entrenamiento incluye tanto las fichas de razonamiento como las de resultado final
+ **Sin contenido razonado**: la pérdida de entrenamiento se calcula únicamente sobre las fichas de producción final

**Cuándo activar el modo de razonamiento: `reasoning_enabled: true` Configúralo** en tu configuración de entrenamiento cuando desees que el modelo genere señales de pensamiento antes de producir los resultados finales o necesites mejorar el rendimiento en tareas de razonamiento complejas. `reasoning_enabled: false`Establézcalo cuando estés entrenando para realizar tareas sencillas que no se beneficien de pasos de razonamiento explícitos.

**nota**  
Puedes activar el modo de razonamiento independientemente de si los datos de entrenamiento contienen contenido de razonamiento. Sin embargo, se recomienda incluir trazas de razonamiento en los datos de entrenamiento para que el modelo pueda aprender de estos ejemplos y mejorar la calidad del razonamiento.

**Pautas de formato:**
+ Usa texto plano para razonar el contenido.
+ Evite las etiquetas de marcado como `<thinking>` y `</thinking>` a menos que su tarea lo requiera específicamente.
+ Asegúrese de que el contenido del razonamiento sea claro y relevante para el proceso de resolución de problemas.

**El contenido de razonamiento efectivo debe incluir:**
+ Pensamientos y análisis intermedios
+ Deducciones lógicas y pasos de inferencia
+ Step-by-step enfoques de resolución de problemas
+ Conexiones explícitas entre los pasos y las conclusiones

Si su conjunto de datos carece de trazas de razonamiento, puede crearlas utilizando un modelo con capacidad de razonamiento como Nova Premier. Proporcione sus pares de entrada-salida al modelo y capture su proceso de razonamiento para crear un conjunto de datos con razonamiento aumentado.

## Directrices de preparación del conjunto de datos
<a name="nova-2-dataset-preparation"></a>

La siguiente tabla proporciona pautas para preparar el conjunto de datos de entrenamiento.


**Directrices de preparación del conjunto de datos**  

| Directriz | Description (Descripción) | 
| --- | --- | 
| Tamaño y calidad |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/bedrock/latest/userguide/nova-2-sft-data-prep.html)  | 
| Diversidad |  Incluya diversos ejemplos que hagan lo siguiente: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/bedrock/latest/userguide/nova-2-sft-data-prep.html)  | 
| Formateo de salida |  Especifique claramente el formato de salida deseado en las respuestas del asistente. Los ejemplos incluyen estructuras JSON, tablas, formato CSV o formatos personalizados específicos de su aplicación.  | 
| Conversaciones de varios turnos |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/bedrock/latest/userguide/nova-2-sft-data-prep.html)  | 
| Lista de control de calidad |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/bedrock/latest/userguide/nova-2-sft-data-prep.html)  | 

# Hiperparámetros de los modelos personalizados
<a name="custom-models-hp"></a>

El siguiente contenido de referencia cubre los hiperparámetros que están disponibles para entrenar cada modelo personalizado de Amazon Bedrock.

Un hiperparámetro es un parámetro que controla el proceso de entrenamiento, como la tasa de aprendizaje o el recuento de épocas. Los hiperparámetros para el entrenamiento de modelos personalizados se configuran al [enviar](model-customization-submit.md) el trabajo de ajuste con la consola de Amazon Bedrock o al llamar a la operación de la [CreateModelCustomizationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelCustomizationJob.html)API.

## Descripción de los hiperparámetros de personalización del modelo Amazon Nova
<a name="cm-hp-nova-mm"></a>

Los modelos Amazon Nova Lite, Amazon Nova Micro y Amazon Nova Pro admiten los siguientes hiperparámetros para la personalización de modelos. Para obtener más información, consulte [Personalización del modelo para mejorar su rendimiento según su caso de uso](custom-models.md).

 Para obtener información sobre cómo refinar los modelos Amazon Nova, consulte [Refinamiento de modelos de Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

El número de épocas que especifique aumentará el costo de personalización del modelo al procesar más tokens. Cada época procesa todo el conjunto de datos de entrenamiento una sola vez. Para obtener más información acerca de los precios, consulte [Precios de Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Hiperparámetro (consola) | Hiperparámetro (API) | Definición | Tipo | Mínimo | Máximo | Predeterminado | 
| --- | --- | --- | --- | --- | --- | --- | 
| Épocas | epochCount | El número de iteraciones en todo el conjunto de datos de entrenamiento | entero | 1 | 5 | 2 | 
| Tasa de aprendizaje | learningRate | La velocidad a la que se actualizan los parámetros del modelo después de cada lote | float | 1.00E-6 | 1.00E-4 | 1,00E-5 | 
| Pasos de calentamiento de la tasa de aprendizaje | learningRateWarmupPasos | El número de iteraciones durante las que la tasa de aprendizaje aumenta gradualmente hasta alcanzar la tasa especificada | entero | 0 | 100 | 10 | 

El número de épocas predeterminado es 2, lo que funciona en la mayoría de los casos. En general, los conjuntos de datos grandes requieren menos épocas para lograr la convergencia, mientras que los conjuntos de datos pequeños requieren un mayor número de épocas. También se podría lograr una convergencia más rápida aumentando la velocidad de aprendizaje, pero esto es menos recomendable porque podría provocar inestabilidad en el entrenamiento en el momento de la convergencia. Le recomendamos que empiece con los hiperparámetros predeterminados, que se basan en nuestra evaluación de tareas de diferentes niveles de complejidad y tamaños de datos.

La velocidad de aprendizaje aumentará gradualmente hasta alcanzar el valor establecido durante la preparación. Por lo tanto, le recomendamos que evite usar un número de preparación grande para una muestra de entrenamiento pequeña, ya que es posible que la velocidad de aprendizaje nunca alcance el valor establecido durante el proceso de entrenamiento. Le recomendamos que configure los pasos de preparación dividiendo el tamaño del conjunto de datos por 640 para Amazon Nova Micro, por 160 para Amazon Nova Lite y por 320 para Amazon Nova Pro.

## Hiperparámetros de personalización del modelo Amazon Nova Canvas
<a name="cm-hp-nova-canvas"></a>

El modelo Amazon Nova Canvas admite los siguientes hiperparámetros para su personalización.


****  

| Hiperparámetro (consola) | Hiperparámetro (API) | Definición | Mínimo | Máximo | Predeterminado | 
| --- | --- | --- | --- | --- | --- | 
| Tamaño de lote | batchSize | Número de muestras procesadas antes de actualizar los parámetros del modelo | 8 | 192 | 8 | 
| Steps | stepCount | Número de veces que el modelo se expone a cada lote | 10 | 20 000 | 500 | 
| Tasa de aprendizaje | learningRate | Velocidad a la que se actualizan los parámetros del modelo después de cada lote | 1,00E-7 | 1.00E-4 | 1,00E-5 | 

## Hiperparámetros de personalización del modelo Amazon Titan Text
<a name="cm-hp-titan-text"></a>

El modelo Amazon Titan Text Premier admite los siguientes hiperparámetros para la personalización de modelos. El número de épocas que especifique aumentará el costo de personalización del modelo al procesar más tokens. Cada época procesa todo el conjunto de datos de entrenamiento una sola vez. Para obtener más información acerca de los precios, consulte [Precios de Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Hiperparámetro (consola) | Hiperparámetro (API) | Definición | Tipo | Mínimo | Máximo | Predeterminado | 
| --- | --- | --- | --- | --- | --- | --- | 
| Épocas | epochCount | El número de iteraciones en todo el conjunto de datos de entrenamiento | entero | 1 | 5 | 2 | 
| Tamaño de lote (micro) | batchSize | El número de muestras procesadas antes de actualizar los parámetros del modelo | entero | 1 | 1 | 1 | 
| Tasa de aprendizaje | learningRate | La velocidad a la que se actualizan los parámetros del modelo después de cada lote | float | 1.00E-07 | 1.00E-05 | 1.00E-06 | 
| Pasos de calentamiento de la tasa de aprendizaje | learningRateWarmupPasos | El número de iteraciones durante las que la tasa de aprendizaje aumenta gradualmente hasta alcanzar la tasa especificada | entero | 0 | 20 | 5 | 

Los modelos Amazon Titan Text, como Lite y Express, admiten los siguientes hiperparámetros para la personalización de modelos. El número de épocas que especifique aumentará el costo de personalización del modelo al procesar más tokens. Cada época procesa todo el conjunto de datos de entrenamiento una sola vez. Para obtener más información acerca de los precios, consulte [Precios de Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Hiperparámetro (consola) | Hiperparámetro (API) | Definición | Tipo | Mínimo | Máximo | Predeterminado | 
| --- | --- | --- | --- | --- | --- | --- | 
| Épocas | epochCount | El número de iteraciones en todo el conjunto de datos de entrenamiento | entero | 1 | 10 | 5 | 
| Tamaño de lote (micro) | batchSize | El número de muestras procesadas antes de actualizar los parámetros del modelo | entero | 1 | 64 | 1 | 
| Tasa de aprendizaje | learningRate | La velocidad a la que se actualizan los parámetros del modelo después de cada lote | float | 0.0 | 1 | 1,00E-5 | 
| Pasos de calentamiento de la tasa de aprendizaje | learningRateWarmupPasos | El número de iteraciones durante las que la tasa de aprendizaje aumenta gradualmente hasta alcanzar la tasa especificada | entero | 0 | 250 | 5 | 

## Hiperparámetros de personalización de los modelos Amazon Titan Image Generator G1
<a name="cm-hp-titan-image"></a>

Los modelos Amazon Titan Image Generator G1 admiten los siguientes hiperparámetros para la personalización de modelos.

**nota**  
`stepCount` no tiene ningún valor predeterminado y debe especificarse. `stepCount` admite el valor `auto`. `auto` prioriza el rendimiento del modelo por encima del costo de entrenamiento al determinar automáticamente un número en función del tamaño del conjunto de datos. Los costos de los trabajos de entrenamiento dependen del número que determine `auto`. Para entender cómo se calcula el costo del trabajo y ver ejemplos, consulte [Precios de Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Hiperparámetro (consola) | Hiperparámetro (API) | Definición | Mínimo | Máximo | Predeterminado | 
| --- | --- | --- | --- | --- | --- | 
| Tamaño de lote | batchSize | Número de muestras procesadas antes de actualizar los parámetros del modelo | 8 | 192 | 8 | 
| Steps | stepCount | Número de veces que el modelo se expone a cada lote | 10 | 40 000 | N/A | 
| Tasa de aprendizaje | learningRate | Velocidad a la que se actualizan los parámetros del modelo después de cada lote | 1,00E-7 | 1 | 1,00E-5 | 

## Hiperparámetros de la personalización del modelo Amazon Titan Multimodal Embeddings G1
<a name="cm-hp-titan-mm"></a>

El modelo Titan Multimodal Embeddings G1 admite los siguientes hiperparámetros para personalizar el modelo. El número de épocas que especifique aumentará el costo de personalización del modelo al procesar más tokens. Cada época procesa todo el conjunto de datos de entrenamiento una sola vez. Para obtener más información acerca de los precios, consulte [Precios de Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).

**nota**  
`epochCount` no tiene ningún valor predeterminado y debe especificarse. `epochCount` admite el valor `Auto`. `Auto` prioriza el rendimiento del modelo por encima del costo de entrenamiento al determinar automáticamente un número en función del tamaño del conjunto de datos. Los costos de los trabajos de entrenamiento dependen del número que determine `Auto`. Para entender cómo se calcula el costo del trabajo y ver ejemplos, consulte [Precios de Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Hiperparámetro (consola) | Hiperparámetro (API) | Definición | Tipo | Mínimo | Máximo | Predeterminado | 
| --- | --- | --- | --- | --- | --- | --- | 
| Épocas | epochCount | El número de iteraciones en todo el conjunto de datos de entrenamiento | entero | 1 | 100 | N/A | 
| Tamaño de lote | batchSize | El número de muestras procesadas antes de actualizar los parámetros del modelo | entero | 256 | 9216 | 576 | 
| Tasa de aprendizaje | learningRate | La velocidad a la que se actualizan los parámetros del modelo después de cada lote | float | 5.00E-8 | 1 | 5.00E-5 | 

## Hiperparámetros de personalización del modelo Anthropic Claude 3
<a name="cm-hp-anth-claude-3"></a>

Los modelos Anthropic Claude 3 admiten los siguientes hiperparámetros para la personalización del modelo: El número de épocas que especifique aumentará el costo de personalización del modelo al procesar más tokens. Cada época procesa todo el conjunto de datos de entrenamiento una sola vez. Para obtener más información acerca de los precios, consulte [Precios de Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Nombre de la consola | Nombre de API | Definición | Predeterminado | Mínimo | Máximo | 
| --- | --- | --- | --- | --- | --- | 
| Recuento de épocas | epochCount | Número máximo de iteraciones en todo el conjunto de datos de entrenamiento | 2. | 1 | 10 | 
| Tamaño de lote  | batchSize | Número de muestras procesadas antes de actualizar los parámetros del modelo | 32 | 4 | 256 | 
| Multiplicador de tasa de aprendizaje | learningRateMultiplier | Multiplicador que influye en la tasa de aprendizaje a la que se actualizan los parámetros del modelo después de cada lote | 1 | 0.1 | 2 | 
| Umbral de finalización anticipada | earlyStoppingThreshold | Mejora mínima de la pérdida de validación necesaria para evitar la finalización anticipada del proceso de aprendizaje | 0.001 | 0 | 0.1 | 
| Paciencia para finalización anticipada | earlyStoppingPatience | Tolerancia al estancamiento en la métrica de pérdida de validación antes de detener el proceso de aprendizaje | 2. | 1 | 10 | 

## Hiperparámetros de la personalización del modelo Cohere Command
<a name="cm-hp-cohere-command"></a>

Los modelos Cohere Command y Cohere Command Light admiten los siguientes hiperparámetros para la personalización del modelo. El número de épocas que especifique aumentará el costo de personalización del modelo al procesar más tokens. Cada época procesa todo el conjunto de datos de entrenamiento una sola vez. Para obtener más información acerca de los precios, consulte [Precios de Amazon Bedrock](https://aws.amazon.com/bedrock/pricing). Para obtener más información, consulte [Personalización del modelo para mejorar su rendimiento según su caso de uso](custom-models.md).

 Para obtener información sobre Cohere los modelos de ajuste fino, consulte la Cohere documentación en ajuste [https://docs.cohere.com/docs/fino](https://docs.cohere.com/docs/fine-tuning).

**nota**  
La cuota de `epochCount` se puede ajustar.


****  

| Hiperparámetro (consola) | Hiperparámetro (API) | Definición | Tipo | Mínimo | Máximo | Predeterminado | 
| --- | --- | --- | --- | --- | --- | --- | 
| Épocas | epochCount | El número de iteraciones en todo el conjunto de datos de entrenamiento | entero | 1 | 100 | 1 | 
| Tamaño de lote | batchSize | El número de muestras procesadas antes de actualizar los parámetros del modelo | entero | 8 | 8 (Command)32 (Light) | 8 | 
| Tasa de aprendizaje | learningRate | Es la velocidad a la que se actualizan los parámetros del modelo después de cada lote. Si utiliza un conjunto de datos de validación, le recomendamos que no proporcione un valor para learningRate. | float | 5.00E-6 | 0.1 | 1,00E-5 | 
| Umbral de finalización anticipada | earlyStoppingThreshold | Mejora mínima de la pérdida de validación necesaria para evitar la finalización anticipada del proceso de aprendizaje | float | 0 | 0.1 | 0.01 | 
| Paciencia para finalización anticipada | earlyStoppingPatience | Tolerancia al estancamiento en la métrica de pérdida antes de detener el proceso de aprendizaje | entero | 1 | 10 | 6 | 
| Porcentaje de evaluación | evalPercentage |  El porcentaje del conjunto de datos asignado a la evaluación del modelo, si no proporciona un conjunto de datos de validación independiente.  | float | 5 | 50 | 20 | 

## Hiperparámetros de la personalización del modelo Meta Llama 3.1
<a name="cm-hp-meta-llama31"></a>

Los modelos Meta Llama 3.1 8B y 70B admiten los siguientes hiperparámetros para la personalización del modelo. El número de épocas que especifique aumentará el costo de personalización del modelo al procesar más tokens. Cada época procesa todo el conjunto de datos de entrenamiento una sola vez. Para obtener más información acerca de los precios, consulte [Precios de Amazon Bedrock](https://aws.amazon.com/bedrock/pricing). Para obtener más información, consulte [Personalización del modelo para mejorar su rendimiento según su caso de uso](custom-models.md).

 Para obtener información sobre el ajuste preciso de los modelos Meta Llama, consulte la Meta documentación en [https://ai.meta.com/llama/get-started/ \$1fine -tuning](https://ai.meta.com/llama/get-started/#fine-tuning).

**nota**  
La cuota de `epochCount` se puede ajustar.


****  

| Hiperparámetro (consola) | Hiperparámetro (API) | Definición | Mínimo | Máximo | Predeterminado | 
| --- | --- | --- | --- | --- | --- | 
| Épocas | epochCount | El número de iteraciones en todo el conjunto de datos de entrenamiento | 1 | 10 | 5 | 
| Tamaño de lote | batchSize | El número de muestras procesadas antes de actualizar los parámetros del modelo | 1 | 1 | 1 | 
| Tasa de aprendizaje | learningRate | La velocidad a la que se actualizan los parámetros del modelo después de cada lote | 5.00E-6 | 0.1 | 1.00E-4 | 

## Hiperparámetros de la personalización del modelo Meta Llama 3.2
<a name="cm-hp-meta-llama32"></a>

Los modelos Meta Llama 3.2 1B, 3B, 11B y 90B admiten los siguientes hiperparámetros para la personalización de modelos. El número de épocas que especifique aumentará el costo de personalización del modelo al procesar más tokens. Cada época procesa todo el conjunto de datos de entrenamiento una sola vez. Para obtener más información acerca de los precios, consulte [Precios de Amazon Bedrock](https://aws.amazon.com/bedrock/pricing). Para obtener más información, consulte [Personalización del modelo para mejorar su rendimiento según su caso de uso](custom-models.md).

 Para obtener información sobre el ajuste preciso de los modelos Meta Llama, consulte la Meta documentación en [https://ai.meta.com/llama/get-started/ \$1fine -tuning](https://ai.meta.com/llama/get-started/#fine-tuning).


****  

| Hiperparámetro (consola) | Hiperparámetro (API) | Definición | Mínimo | Máximo | Predeterminado | 
| --- | --- | --- | --- | --- | --- | 
| Épocas | epochCount | El número de iteraciones en todo el conjunto de datos de entrenamiento | 1 | 10 | 5 | 
| Tamaño de lote | batchSize | El número de muestras procesadas antes de actualizar los parámetros del modelo | 1 | 1 | 1 | 
| Tasa de aprendizaje | learningRate | La velocidad a la que se actualizan los parámetros del modelo después de cada lote | 5.00E-6 | 0.1 | 1.00E-4 | 

# Envíe un trabajo de personalización del modelo para su ajuste
<a name="model-customization-submit"></a>

Puede crear un modelo personalizado mediante ajustes precisos en la consola o API de Amazon Bedrock. Puede refinar aún más un modelo personalizado existente. El trabajo de personalización puede tardar varias horas. La duración del trabajo depende del tamaño de los datos de entrenamiento (número de registros, fichas de entrada y señales de salida), del número de épocas y del tamaño del lote.

## Requisitos previos
<a name="submit-model-customization-job-prerequisites"></a>
+ Cree un rol de servicio AWS Identity and Access Management (IAM) para acceder al depósito de S3 en el que desee almacenar los datos de validación y entrenamiento de la personalización del modelo. Puede crear este rol automáticamente mediante el Consola de administración de AWS o manualmente. Para obtener más información sobre la opción manual, consulte [Creación de un rol de servicio para la personalización de modelos](custom-model-job-access-security.md#custom-model-job-service-role).
+ (Opcional) Cifre los datos de entrada y salida, el trabajo de personalización o las solicitudes de inferencia realizadas a los modelos personalizados. Para obtener más información, consulte [Cifrado de los modelos personalizados](encryption-custom-job.md).
+ (Opcional) Cree una nube privada virtual (VPC) para proteger sus trabajos de personalización. Para obtener más información, consulte [(Opcional) Protección de los trabajos de personalización de modelos mediante una VPC](custom-model-job-access-security.md#vpc-model-customization).

## Envío de su trabajo
<a name="submit-model-customization-job-how-to"></a>

Elija la pestaña del método que prefiera y siga estos pasos:

------
#### [ Console ]

Para enviar un trabajo de personalización del modelo desde la consola, siga estos pasos.

1. Inicie sesión Consola de administración de AWS con una identidad de IAM que tenga permisos para usar la consola Amazon Bedrock. A continuación, abra la consola de Amazon Bedrock en [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. En el panel de navegación de la izquierda, seleccione **Modelos personalizados** en **Ajustar**.

1. En la pestaña **Modelos**, seleccione **Personalizar modelo** y, a continuación, **Crear** trabajo de ajuste preciso.

1. En la sección **Detalles del modelo**, realice lo siguiente.

   1. Elija el modelo que desee personalizar con sus propios datos y asigne un nombre al modelo resultante. Puede elegir un modelo fundacional o un modelo previamente personalizado (refinado o destilado) como modelo base.

   1. (Opcional) De forma predeterminada, Amazon Bedrock cifra el modelo con una clave que es propiedad de y está administrada por AWS. Para usar una [clave de KMS personalizada](encryption-custom-job.md), seleccione **Cifrado de modelos** y elija una clave.

   1. (Opcional) Para asociar [etiquetas](tagging.md) con un modelo personalizado, amplíe la sección **Etiquetas** y seleccione **Agregar nueva etiqueta**.

1. En la sección **Configuración del trabajo**, introduzca un nombre para el trabajo y añada las etiquetas que desee asociar al trabajo.

1. (Opcional) Para usar una [nube privada virtual (VPC) para proteger los datos de entrenamiento y el trabajo de personalización](custom-model-job-access-security.md#vpc-model-customization), seleccione una VPC que contenga los datos de entrada y salida de las ubicaciones de Amazon S3, sus subredes y grupos de seguridad en la sección **Configuración de la VPC**.
**nota**  
Si incluye una configuración de VPC, la consola no puede crear un nuevo rol de servicio para el trabajo. [Cree un rol de servicio personalizado](model-customization-iam-role.md) y añada permisos de forma similar al ejemplo que se describe en [Asociación de permisos de VPC a un rol de importación de modelos](custom-model-job-access-security.md#vpc-data-access-role).

1. En la sección **Datos de entrada**, seleccione la ubicación de S3 del archivo del conjunto de datos de entrenamiento y, si corresponde, del archivo del conjunto de datos de validación.

1. En la sección **Hiperparámetros**, introduzca los valores de [hiperparámetros](custom-models-hp.md) que quiere usar en el entrenamiento.

1. En la sección **Datos de salida**, introduzca la ubicación de Amazon S3 en la que Amazon Bedrock debe guardar la salida del trabajo. Amazon Bedrock almacena las métricas de pérdidas por entrenamiento y las métricas de pérdida por validación de cada época en archivos separados en la ubicación que especifique.

1. En la sección **Acceso al servicio**, realice una de las siguientes acciones: 
   + **Usar un rol de servicio existente**: seleccione un rol de servicio en la lista desplegable. Para obtener más información sobre cómo configurar un rol personalizado con los permisos adecuados, consulte [Creación de un rol de servicio para la personalización de modelos](model-customization-iam-role.md).
   + **Crear y usar un nuevo rol de servicio**: introduzca un nombre para el rol de servicio.

1. Elija **Ajustar el modelo** con precisión para comenzar el trabajo.

------
#### [ API ]

**Solicitud**

Envíe una solicitud [CreateModelCustomizationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelCustomizationJob.html)(consulte el enlace para ver los formatos de solicitud y respuesta y los detalles del campo) a un [punto final del plano de control de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) para enviar un trabajo de personalización del modelo. Debe rellenar, como mínimo, los siguientes campos obligatorios:
+ `roleArn`: ARN del rol de servicio con permisos para personalizar modelos. Amazon Bedrock puede crear automáticamente un rol con los permisos adecuados si utiliza la consola. También puede crear un rol personalizado siguiendo los pasos que se indican en [Creación de un rol de servicio para la personalización de modelos](model-customization-iam-role.md).
**nota**  
Si incluye un campo `vpcConfig`, asegúrese de que el rol tenga los permisos adecuados para obtener acceso a la VPC. Para ver un ejemplo, consulta [Asociación de permisos de VPC a un rol de importación de modelos](custom-model-job-access-security.md#vpc-data-access-role).
+ `baseModelIdentifier`: el [ID del modelo](models-supported.md) o el ARN del modelo fundacional o del modelo previamente personalizado (refinado o destilado) que se va a personalizar.
+ `customModelName`: el nombre que se le da al modelo recién personalizado.
+ `jobName`: el nombre que se le da al trabajo de entrenamiento.
+ `hyperParameters`: [hiperparámetros](custom-models-hp.md) que afectan al proceso de personalización del modelo.
+ `trainingDataConfig`: un objeto que contiene el URI de Amazon S3 del conjunto de datos de entrenamiento. Según el método y el modelo de personalización, también puede incluir una `validationDataConfig`. Para obtener más información sobre cómo preparar los conjuntos de datos, consulte [Prepare los datos para ajustar sus modelos](model-customization-prepare.md).
+ `validationDataconfig`: un objeto que contiene el URI de Amazon S3 del conjunto de datos de validación.
+ `outputDataConfig`: un objeto que contiene el URI de Amazon S3 donde se deben escribir los datos de salida.

Si no especifica el `customizationType`, el método de personalización del modelo se establece de forma predeterminada en `FINE_TUNING`.

Para evitar que la solicitud se complete más de una vez, incluya un `clientRequestToken`.

Puede incluir los siguientes campos opcionales para obtener configuraciones adicionales.
+ `jobTags` and/or `customModelTags`— Asocie las [etiquetas](tagging.md) al trabajo de personalización o al modelo personalizado resultante.
+ `customModelKmsKeyId`: incluya una [clave de KMS personalizada](encryption-custom-job.md) para cifrar el modelo personalizado.
+ `vpcConfig`: incluya la configuración de una [nube privada virtual (VPC) para proteger sus datos de entrenamiento y su trabajo de personalización](custom-model-job-access-security.md#vpc-model-customization).

**Respuesta**

La respuesta devuelve un `jobArn` que puede utilizar para [supervisar](model-customization-monitor.md) o [detener](model-customization-stop.md) el trabajo.

[Ver ejemplos de código](model-customization-code-samples.md)

------