Prepare los datos para ajustar sus modelos - Amazon Bedrock

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Prepare los datos para ajustar sus modelos

Para preparar conjuntos de datos de entrenamiento y validación para el modelo personalizado, debe crear archivos .jsonl, en los que cada línea es un objeto JSON que se corresponde con un registro. Antes de iniciar un trabajo de personalización de modelos, debe preparar al menos un conjunto de datos de entrenamiento. Los archivos que cree deben tener el formato del método y modelo de personalización que elija. Los registros que contiene también deben cumplir los requisitos de tamaño en función del modelo.

Para obtener información sobre los requisitos de los modelos, consulte Requisitos de los modelos para los conjuntos de datos de entrenamiento y validación. Para ver las cuotas predeterminadas que se aplican a los conjuntos de datos de entrenamiento y validación utilizados para personalizar diferentes modelos, consulte la Suma de las cuotas de los registros de entrenamiento y validación en los Amazon Bedrock endpoints and quotas en la Referencia general de AWS.

La compatibilidad con un conjunto de datos de validación y el formato del conjunto de datos de entrenamiento y validación dependen de los siguientes factores.

  • El tipo de trabajo de personalización de ajustes.

  • Las modalidades de entrada y salida de los datos.

Para obtener información sobre cómo refinar modelos de Amazon Nova, consulte Refinamiento de modelos de Amazon Nova.

Las siguientes secciones describen las diferentes capacidades de ajuste fino que admite cada modelo, organizadas por sus modalidades de entrada y salida. Para obtener información sobre cómo refinar modelos de Amazon Nova, consulte Refinamiento de modelos de Amazon Nova.

Modelos de Text-to-Text  

Text-to-Text los modelos se pueden ajustar para diversas tareas basadas en texto, incluidas las aplicaciones conversacionales y no conversacionales. Para obtener información sobre la preparación de datos para ajustar los modelos, consulte. Text-to-Text Prepare los datos para ajustar los modelos text-to-text

Los siguientes modelos no conversacionales están optimizados para tareas como el resumen, la traducción y la respuesta a preguntas:

  • Amazon Titan Text G1 - Express

  • Amazon Titan Text G1 - Lite

  • Amazon Titan Text Premier

  • Cohere Command

  • Cohere Command Light

  • Meta Llama 3.1 8B Instruct

  • Meta Llama 3.1 70B Instruct

Los siguientes modelos conversacionales están diseñados para interacciones de un solo turno y de varios turnos. Si un modelo usa la API Converse, el conjunto de datos de refinamiento debe seguir el formato de mensaje de la API Converse e incluir los mensajes del sistema, del usuario y del asistente. Para ver ejemplos, consulte Prepare los datos para ajustar los modelos text-to-text. Para obtener más información sobre las operaciones de la API Converse, consulte Cómo mantener una conversación con las operaciones de la API Converse.

  • Anthropic Claude 3 Haiku

  • Meta Llama 3.2 1B Instruct (formato de la API Converse)

  • Meta Llama 3.2 3B Instruct (formato de la API Converse)

  • Meta Llama 3.2 11B Instruct Vision (formato de la API Converse)

  • Meta Llama 3.2 90B Instruct Vision (formato de la API Converse)

  • Meta Llama 3.3 70B Vision Instruct (formato de la API Converse)

Text-Image-to-Text & modelo s Text-to-Image

Los siguientes modelos admiten el refinamiento para la generación de imágenes y el procesamiento de imágenes de texto. Estos modelos procesan o generan imágenes a partir de entradas textuales o generan texto a partir de entradas textuales y de imágenes. Para obtener información sobre la preparación de datos para ajustar Text-Image-to-Text y Text-to-Image modelar modelos, consulte. Preparación de datos para el refinamiento de los modelos de procesamiento de imágenes y texto

  • Amazon Titan Image Generator G1 V1

  • Meta Llama 3.2 11B Instruct Vision

  • Meta Llama 3.2 90B Instruct Vision

  • Meta Llama 3.3 70B Vision Instruct

De imagen a incrustaciones

Los siguientes modelos permiten realizar el refinamiento de tareas como clasificación y recuperación. Estos modelos generan representaciones numéricas (incrustaciones) a partir de entradas de imágenes. Para obtener información sobre la preparación de datos para el ajuste fino Image-to-Embeddings de los modelos, consulte. Preparación de datos para el refinamiento de los modelos de incrustación y generación de imágenes

  • Amazon Titan Multimodal Embeddings G1

  • Amazon Titan Image Generator G1 V1

En las siguientes secciones se indican los requisitos de los conjuntos de datos de entrenamiento y validación de un modelo. Para obtener información sobre las restricciones de los conjuntos de datos para los modelos de Amazon Nova, consulte Refinamiento de modelos de Amazon Nova.

Description (Descripción) Máximo (afinación)
Suma de los tokens de entrada y salida cuando el tamaño del lote es 1. 4.096
Suma de los tokens de entrada y salida cuando el tamaño del lote es 2, 3 o 4. N/A
Cuota de caracteres por muestra en el conjunto de datos Cuota de tokens x 6 (estimada)
Tamaño del archivo del conjunto de datos de entrenamiento 1 GB
Tamaño del archivo del conjunto de datos de validación 100 MB
Description (Descripción) Máximo (afinación)
Suma de los tokens de entrada y salida cuando el tamaño del lote es 1. 4.096
Suma de los tokens de entrada y salida cuando el tamaño del lote es 2, 3 o 4. 2048
Cuota de caracteres por muestra en el conjunto de datos Cuota de tokens x 6 (estimada)
Tamaño del archivo del conjunto de datos de entrenamiento 1 GB
Tamaño del archivo del conjunto de datos de validación 100 MB
Description (Descripción) Máximo (afinación)
Suma de los tokens de entrada y salida cuando el tamaño del lote es 1 o 2. 4.096
Suma de los tokens de entrada y salida cuando el tamaño del lote es 3, 4, 5 o 6. 2048
Cuota de caracteres por muestra en el conjunto de datos Cuota de tokens x 6 (estimada)
Tamaño del archivo del conjunto de datos de entrenamiento 1 GB
Tamaño del archivo del conjunto de datos de validación 100 MB
Description (Descripción) Mínimo (afinación) Máximo (afinación)
Longitud de la petición de texto en el ejemplo de entrenamiento, en caracteres 3 1 024
Registros en un conjunto de datos de entrenamiento 5 10 000
Tamaño de la imagen de entrada 0 50 MB
Altura de la imagen de entrada en píxeles 512 4.096
Ancho de la imagen de entrada en píxeles 512 4.096
Pixeles totales de la imagen de entrada 0 12.582.912
Relación de aspecto de la imagen de entrada 1:4 4:1
Description (Descripción) Mínimo (afinación) Máximo (afinación)
Longitud de la petición de texto en el ejemplo de entrenamiento, en caracteres 0 2.560
Registros en un conjunto de datos de entrenamiento 1 000 500.000
Tamaño de la imagen de entrada 0 5 MB
Altura de la imagen de entrada en píxeles 128 4096
Ancho de la imagen de entrada en píxeles 128 4096
Pixeles totales de la imagen de entrada 0 12.528.912
Relación de aspecto de la imagen de entrada 1:4 4:1
Description (Descripción) Mínimo (afinación) Máximo (afinación)
Tokens de entrada 0 16,000
Tokens de salida 0 16,000
Cuota de caracteres por muestra en el conjunto de datos 0 Cuota de tokens x 6 (estimada)
Suma de los tokens de entrada y salida 0 16,000
Suma de los registros de entrenamiento y validación 100 10 000 (ajustables mediante cuotas de servicio)

Los formatos de imagen compatibles para Meta Llama-3.2 11B Vision Instruct y Meta Llama-3.2 90B Vision Instruct incluyen: gif, jpeg, png y webp. Para estimar la image-to-token conversión durante el ajuste fino de estos modelos, puede utilizar esta fórmula como una aproximación:. Tokens = min(2, max(Height // 560, 1)) * min(2, max(Width // 560, 1)) * 1601 Las imágenes se convierten en aproximadamente 1601 a 6404 tokens en función de su tamaño.

Description (Descripción) Mínimo (afinación) Máximo (afinación)
Suma de los tokens de entrada y salida 0 16 000 (10 000 para Meta Llama 3.2 90B)
Suma de los registros de entrenamiento y validación 100 10 000 (ajustables mediante cuotas de servicio)
Tamaño de la imagen de entrada para los modelos Meta Llama 11B and 90B instruct) 0 10 MB
Altura de la imagen de entrada en píxeles para los modelos Meta Llama 11B and 90B instruct 10 8192
Ancho de la imagen de entrada en píxeles para los modelos Meta Llama 11B and 90B90B instruct 10 8192
Description (Descripción) Mínimo (afinación) Máximo (afinación)
Suma de los tokens de entrada y salida 0 16 000
Suma de los registros de entrenamiento y validación 100 10 000 (ajustables mediante cuotas de servicio)
Description (Descripción) Máximo (afinación)
Tokens de entrada 4.096
Tokens de salida 2048
Cuota de caracteres por muestra en el conjunto de datos Cuota de tokens x 6 (estimada)
Registros en un conjunto de datos de entrenamiento 10 000
Registros en un conjunto de datos de validación 1 000
Description (Descripción) Máximo (afinación)
Número mínimo de registros 32
Registros de entrenamiento máximos 10 000
Registros de validación máximos 1 000
Número máximo total de registros 10 000 (ajustables mediante cuotas de servicio)
Número máximo de tokens 32 000
Tamaño máximo del conjunto de datos de entrenamiento 10 GB
Tamaño máximo del conjunto de datos de validación 1 GB
nota

Para obtener información sobre cómo refinar modelos de Amazon Nova, consulte Refinamiento de modelos de Amazon Nova.

Para ajustar text-to-text los modelos, cada objeto JSON es un ejemplo que contiene campos estructurados diseñados para guiar al modelo hacia la generación del resultado textual deseado a partir de un mensaje textual proporcionado. El formato de los datos varía según el caso de uso y se divide, a grandes rasgos, en casos de uso conversacionales y no conversacionales.

Non-conversational tasks

Las tareas no conversacionales implican generar una salida única para una entrada determinada. Cada muestra del conjunto de datos incluye un campo prompt que contiene el texto de entrada y un campo completion con el resultado esperado. Este formato admite una variedad de tareas, como responder preguntas, resumir, traducir, completar textos y extraer información.

Formato de ejemplo

{"prompt": "What is the capital of France?", "completion": "The capital of France is Paris."} {"prompt": "Summarize the article about climate change.", "completion": "Climate change refers to the long-term alteration of temperature and typical weather patterns in a place."}

Utilice aproximadamente seis caracteres por token para estimar el número de tokens para el tamaño del conjunto de datos de planificación.

Converse API format (Single turn and Multi turn)

Para usar la API de Converse, debe llamar a las operaciones Converse o ConverseStream para enviar mensajes a un modelo. Para llamar a Converse se requiere permiso para la operación bedrock:InvokeModel. Para llamar a ConverseStream se requiere permiso para la operación bedrock:InvokeModelWithResponseStream. Para obtener más información, consulte Mediante la API de Converse. Para obtener más información sobre las operaciones de la API Converse, consulte Cómo mantener una conversación con las operaciones de la API Converse

Formato de ejemplo

{ "schemaVersion": "bedrock-conversation-2024", "system": [ { "text": "You are a digital assistant with a friendly personality" } ], "messages": [ { "role": "user", "content": [ { "text": "What is the capital of Mars?" } ] }, { "role": "assistant", "content": [ { "text": "Mars does not have a capital. Perhaps it will one day." } ] } ] }
Anthropic Claude 3 Haiku: Single-turn conversations

Las tareas conversacionales de un solo turno implican intercambios aislados, en los que el modelo genera una respuesta basada únicamente en la entrada del usuario actual sin tener en cuenta el contexto previo. Cada muestra de conjunto de datos utiliza una matriz de mensajes, con los roles alternos user y assistant.

Formato

{"system": "<system message>","messages":[{"role": "user", "content": "<user query>"},{"role": "assistant", "content": "<expected generated text>"}]}

Ejemplo

{"system": "You are an helpful assistant.","messages":[{"role": "user", "content": "what is AWS"},{"role": "assistant", "content": "it's Amazon Web Services."}]}
Anthropic Claude 3 Haiku: Multi-turn conversations

Las tareas conversacionales de varios turnos implican diálogos prolongados en los que el modelo debe generar respuestas y, al mismo tiempo, preservar el contexto de los intercambios anteriores. Este formato captura la naturaleza dinámica de las tareas interactivas, como la atención al cliente o las conversaciones complejas.

Formato

{"system": "<system message>","messages":[{"role": "user", "content": "<user query 1>"},{"role": "assistant", "content": "<expected generated text 1>"}, {"role": "user", "content": "<user query 2>"},{"role": "assistant", "content": "<expected generated text 2>"}]}

Ejemplo

{"system": "system message","messages":[{"role": "user", "content": "Hello there."},{"role": "assistant", "content": "Hi, how can I help you?"},{"role": "user", "content": "what are LLMs?"},{"role": "assistant", "content": "LLM means large language model."},]}
nota

Para obtener información sobre cómo refinar modelos de Amazon Nova, consulte Refinamiento de modelos de Amazon Nova.

Para ajustar image-text-to-text los modelos, cada objeto JSON es un ejemplo que contiene una conversación estructurada como una messages matriz, que consiste en objetos JSON alternados que representan las entradas del usuario y las respuestas del asistente. Las entradas del usuario pueden incluir texto e imágenes, mientras que las respuestas del asistente son siempre textuales. Esta estructura admite flujos de conversación de uno o varios turnos, lo que permite al modelo gestionar diversas tareas de forma eficaz. Los formatos de imagen compatibles para Meta Llama-3.2 11B Vision Instruct y Meta Llama-3.2 90B Vision Instruct incluyen: gif, jpeg, png y webp.

Para permitir que Amazon Bedrock acceda a los archivos de imagen, agregue una política de IAM similar a la de Permisos para acceder a los archivos de entrenamiento y validación y escribir los archivos de salida en S3 al rol de servicio de personalización de modelos de Amazon Bedrock que ha configurado o que se ha configurado automáticamente para usted en la consola. Las rutas de Amazon S3 que proporcione en el conjunto de datos de entrenamiento deben estar en las carpetas que especifique en la política.

Conversaciones de un solo turno

Cada objeto JSON para conversaciones de un solo turno consta de un mensaje del usuario y un mensaje del asistente. El mensaje del usuario incluye un campo de rol establecido en user y un campo content que contiene una matriz con un campo type (text o image) que describe la modalidad de entrada. Para las entradas de texto, el campo content incluye un campo text con la pregunta o la petición del usuario. Para las entradas de imágenes, el campo content especifica la imagen format (por ejemplo, jpeg, png) y su source con un uri que apunta a la ubicación de la imagen en Amazon S3. El uri representa la ruta única de la imagen almacenada en un bucket de Amazon S3, normalmente en el formato s3://<bucket-name>/<path-to-file>. El mensaje del asistente incluye un campo role configurado como assistant y un campo content que contiene una matriz con un campo type configurado como text y un campo text que contiene la respuesta generada por el asistente.

Formato de ejemplo

{ "schemaVersion": "bedrock-conversation-2024", "system": [{ "text": "You are a smart assistant that answers questions respectfully" }], "messages": [{ "role": "user", "content": [{ "text": "What does the text in this image say?" }, { "image": { "format": "png", "source": { "s3Location": { "uri": "s3://your-bucket/your-path/your-image.png", "bucketOwner": "your-aws-account-id" } } } } ] }, { "role": "assistant", "content": [{ "text": "The text in the attached image says 'LOL'." }] } ] }

Conversaciones de varios turnos

Cada objeto JSON para conversaciones de varios turnos contiene una secuencia de mensajes con roles alternos, en la que los mensajes del usuario y los mensajes del asistente se estructuran de forma coherente para permitir intercambios coherentes. Los mensajes del usuario incluyen un campo role configurado como user y un campo content que describe la modalidad de entrada. Para las entradas de texto, el campo content incluye un campo text con la pregunta o el seguimiento del usuario, mientras que para las entradas de imágenes, especifica el elemento format de la imagen y su source con un uri que apunta a la ubicación de la imagen en Amazon S3. uriSirve como identificador único en el formato s3://<bucket-name>/< path-to-file > y permite al modelo acceder a la imagen desde el bucket de Amazon S3 designado. Los mensajes del asistente incluyen un campo role configurado como assistant y un campo content que contiene una matriz con un campo type configurado como text y un campo text que contiene la respuesta generada por el asistente. Las conversaciones pueden abarcar varios intercambios, lo que permite al asistente mantener el contexto y ofrecer respuestas coherentes en todo momento.

Formato de ejemplo

{ "schemaVersion": "bedrock-conversation-2024", "system": [{ "text": "You are a smart assistant that answers questions respectfully" }], "messages": [{ "role": "user", "content": [{ "text": "What does the text in this image say?" }, { "image": { "format": "png", "source": { "s3Location": { "uri": "s3://your-bucket/your-path/your-image.png", "bucketOwner": "your-aws-account-id" } } } } ] }, { "role": "assistant", "content": [{ "text": "The text in the attached image says 'LOL'." }] }, { "role": "user", "content": [{ "text": "What does the text in this image say?" } ] }, { "role": "assistant", "content": [{ "text": "The text in the attached image says 'LOL'." }] } ] }
nota

Los modelos de Amazon Nova tienen diferentes requisitos de refinamiento. Para refinar estos modelos, siga las instrucciones de Refinamiento de modelos de Amazon Nova.

Para nuestros text-to-image image-to-embedding modelos, prepare un conjunto de datos de entrenamiento. No se admiten conjuntos de datos de validación. Cada objeto JSON es un ejemplo que contiene una image-ref, el URI de Amazon S3 de una imagen y un caption que podría ser una petición para la imagen.

Las imágenes deben tener formato PNG o JPEG.

{"image-ref": "s3://bucket/path/to/image001.png", "caption": "<prompt text>"} {"image-ref": "s3://bucket/path/to/image002.png", "caption": "<prompt text>"}{"image-ref": "s3://bucket/path/to/image003.png", "caption": "<prompt text>"}

A continuación, se muestra un elemento de ejemplo:

{"image-ref": "s3://amzn-s3-demo-bucket/my-pets/cat.png", "caption": "an orange cat with white spots"}

Para permitir que Amazon Bedrock acceda a los archivos de imagen, agregue una política de IAM similar a la de Permisos para acceder a los archivos de entrenamiento y validación y escribir los archivos de salida en S3 al rol de servicio de personalización de modelos de Amazon Bedrock que ha configurado o que se ha configurado automáticamente para usted en la consola. Las rutas de Amazon S3 que proporcione en el conjunto de datos de entrenamiento deben estar en las carpetas que especifique en la política.