Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Preparación de datos para el refinamiento de modelos de texto a texto
nota
Para obtener información sobre cómo refinar modelos de Amazon Nova, consulte Refinamiento de modelos de Amazon Nova.
Para refinar los modelos de texto a texto, cada objeto JSON es un ejemplo que contiene campos estructurados diseñados para guiar al modelo hacia la generación del resultado textual deseado a partir de una petición textual proporcionada. El formato de los datos varía según el caso de uso y se divide, a grandes rasgos, en casos de uso conversacionales y no conversacionales. Las tareas no conversacionales implican peticiones y salidas independientes, mientras que las tareas conversacionales se pueden dividir en intercambios de un solo turno, en los que el modelo responde a una sola entrada del usuario, y diálogos de varios turnos, en los que el modelo mantiene el contexto en varios intercambios.
Tareas no conversacionales
Las tareas no conversacionales implican generar una salida única para una entrada determinada. Cada muestra del conjunto de datos incluye un campo prompt que contiene el texto de entrada y un campo completion con el resultado esperado. Este formato admite una variedad de tareas, como responder preguntas, resumir, traducir, completar textos y extraer información.
Formato de ejemplo
{"prompt": "What is the capital of France?", "completion": "The capital of France is Paris."} {"prompt": "Summarize the article about climate change.", "completion": "Climate change refers to the long-term alteration of temperature and typical weather patterns in a place."}
Utilice aproximadamente seis caracteres por token para estimar el número de tokens para el tamaño del conjunto de datos de planificación.
Formato de API Converse (un solo turno y varios turnos)
Para usar la API de Converse, debe llamar a las operaciones Converse o ConverseStream para enviar mensajes a un modelo. Para llamar a Converse se requiere permiso para la operación bedrock:InvokeModel. Para llamar a ConverseStream se requiere permiso para la operación bedrock:InvokeModelWithResponseStream. Para obtener más información, consulte Mediante la API de Converse. Para obtener más información sobre las operaciones de la API Converse, consulte Cómo mantener una conversación con las operaciones de la API Converse
Formato de ejemplo
{ "schemaVersion": "bedrock-conversation-2024", "system": [ { "text": "You are a digital assistant with a friendly personality" } ], "messages": [ { "role": "user", "content": [ { "text": "What is the capital of Mars?" } ] }, { "role": "assistant", "content": [ { "text": "Mars does not have a capital. Perhaps it will one day." } ] } ] }
Solo para Anthropic Claude 3 Haiku: conversaciones de un solo turno
Las tareas conversacionales de un solo turno implican intercambios aislados, en los que el modelo genera una respuesta basada únicamente en la entrada del usuario actual sin tener en cuenta el contexto previo. Cada muestra de conjunto de datos utiliza una matriz de mensajes, con los roles alternos user y assistant.
Formato
{"system": "<system message>","messages":[{"role": "user", "content": "<user query>"},{"role": "assistant", "content": "<expected generated text>"}]}
Ejemplo
{"system": "You are an helpful assistant.","messages":[{"role": "user", "content": "what is AWS"},{"role": "assistant", "content": "it's Amazon Web Services."}]}
Solo para Anthropic Claude 3 Haiku: conversaciones de varios turnos
Las tareas conversacionales de varios turnos implican diálogos prolongados en los que el modelo debe generar respuestas y, al mismo tiempo, preservar el contexto de los intercambios anteriores. Este formato captura la naturaleza dinámica de las tareas interactivas, como la atención al cliente o las conversaciones complejas.
Formato
{"system": "<system message>","messages":[{"role": "user", "content": "<user query 1>"},{"role": "assistant", "content": "<expected generated text 1>"}, {"role": "user", "content": "<user query 2>"},{"role": "assistant", "content": "<expected generated text 2>"}]}
Ejemplo
{"system": "system message","messages":[{"role": "user", "content": "Hello there."},{"role": "assistant", "content": "Hi, how can I help you?"},{"role": "user", "content": "what are LLMs?"},{"role": "assistant", "content": "LLM means large language model."},]}