

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Preparar os conjuntos de dados de treinamento para destilação
<a name="distillation-prepare-datasets"></a>

Antes de começar um trabalho de personalização de modelo, é necessário preparar no mínimo um conjunto de dados de treinamento. Para preparar os conjuntos de dados de entrada para o modelo personalizado, crie arquivos `.jsonl`, em que cada linha é um objeto JSON correspondente a um registro. Os arquivos criados devem estar em conformidade com o formato de destilação de modelos e o modelo escolhido. Os registros internos também devem estar em conformidade com os requisitos de tamanho.

Forneça os dados de entrada como prompts. O Amazon Bedrock usa os dados de entrada para gerar respostas do modelo instrutor e usa as respostas geradas para ajustar o modelo aprendiz. Para ter mais informações sobre as entradas que o Amazon Bedrock usa e escolher uma opção que funcione melhor para seu caso de uso, consulte [Como funciona a Destilação de Modelos do Amazon Bedrock](model-distillation.md#how-md-works). Há algumas opções para preparar seu conjunto de dados de entrada.

**nota**  
Os modelos do Amazon Nova têm requisitos diferentes para destilação. Para ter mais informações, consulte [Destilar modelos do Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-distill.html).

## Modalidades permitidas para destilação
<a name="distillation-supported-modalities"></a>

Os modelos listados em [Modelos e regiões em que é possível usar a Destilação de Modelos do Amazon Bedrock](prequisites-model-distillation.md#model-distillation-supported) suportam somente a text-to-text modalidade.

## Otimizar os prompts de entrada para geração de dados sintéticos
<a name="distillation-data-prep-prompt-optimization"></a>

Durante a destilação de modelos, o Amazon Bedrock gera um conjunto de dados sintético que ele usa para ajustar o modelo aprendiz para seu caso de uso específico. Para obter mais informações, consulte [Como funciona a Destilação de Modelos do Amazon Bedrock](model-distillation.md#how-md-works).

Você pode otimizar o processo de geração de dados sintéticos formatando os prompts de entrada para o caso de uso desejado. Por exemplo, se o caso de uso do modelo destilado fosse geração aumentada via recuperação (RAG), você formataria os prompts de forma diferente do que se quisesse que o modelo se concentrasse nos casos de uso do agente.

Veja a seguir exemplos de como é possível formatar os prompts de entrada para casos de uso de RAG ou agente.

------
#### [ RAG prompt example ]

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a financial analyst charged with answering questions about 10K and 10Q SEC filings. Given the context below, answer the following question."
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "text": "<context>\nDocument 1: Multiple legal actions have been filed against us as a result of the October 29, 2018 accident of Lion Air Flight 610 and the March 10, 2019 accident of Ethiopian Airlines Flight 302.\n</context>\n\n<question>Has Boeing reported any materially important ongoing legal battles from FY2022?</question>"
        }
      ]
    }
  ]
}
```

------
#### [ Agent prompt example ]

```
{
    "schemaVersion": "bedrock-conversation-2024",
    "system": [
        {
            "text": 'You are an expert in composing functions. You are given a question and a set of possible functions. Based on the question, you will need to make one or more function/tool calls to achieve the purpose.
                    Here is a list of functions in JSON format that you can invoke.
                    [
                        {
                            "name": "lookup_weather",
                            "description: "Lookup weather to a specific location",
                            "parameters": {
                                "type": "dict",
                                "required": [
                                    "city"
                                ],
                                "properties": {
                                    "location": {
                                        "type": "string",
                                    },
                                    "date": {
                                        "type": "string",
                                    }
                                }
                            }
                        }
                    ]'
        }
    ],
    "messages": [
        {
            "role": "user",
            "content": [
                {
                    "text": "What's the weather tomorrow?"
                }
            ]
        },
        {
            "role": "assistant",
            "content": [
               {
                   "text": "[lookup_weather(location=\"san francisco\", date=\"tomorrow\")]"
               }
            ]
        }
    ]
}
```

------