As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Preparar conjuntos de dados de treinamento para ajuste fino e pré-treinamento contínuo
Para preparar os conjuntos de dados de treinamento e de validação para o modelo personalizado, crie arquivos .jsonl, em que cada linha é um objeto JSON correspondente a um registro. Antes de iniciar um trabalho de personalização de modelo, no mínimo é necessário preparar um conjunto de dados de treinamento. Os arquivos criados devem estar em conformidade com o formato do método de personalização e o modelo escolhido. Os registros internos devem estar de acordo com os requisitos de tamanho, dependendo do modelo.
Para ter informações sobre requisitos de modelo, consulte Requisitos do modelo para conjuntos de dados de treinamento e validação. Para ver as cotas padrão que se aplicam aos conjuntos de dados de treinamento e de validação usados para personalizar diferentes modelos, consulte as cotas de Sum of training and validation records em Amazon Bedrock endpoints and quotas no Referência geral da AWS.
Se um conjunto de dados de validação for compatível e o formato do seu conjunto de dados de treinamento e validação dependerem dos fatores a seguir.
-
O tipo de trabalho de personalização de ajuste fino (ajuste fino ou pré-treinamento contínuo).
-
As modalidades de entrada e saída dos dados.
Para ter informações sobre como ajustar modelos do Amazon Nova, consulte Ajuste dos modelos do Amazon Nova.
Tópicos
Modalidades compatíveis para ajuste fino e pré-treinamento contínuo
Requisitos do modelo para conjuntos de dados de treinamento e validação
Preparar dados para ajustar modelos de conversão de texto em texto
Preparar os dados para ajustar modelos de processamento de imagem e texto
Preparar dados para ajustar modelos de geração e incorporação de imagens
Modalidades compatíveis para ajuste fino e pré-treinamento contínuo
As seções a seguir descrevem os diferentes recursos de ajuste fino e pré-treinamento oferecidos por cada modelo, organizados de acordo com as respectivas modalidades de entrada e saída. Para ter informações sobre como ajustar modelos do Amazon Nova, consulte Ajuste dos modelos do Amazon Nova.
Modelos de conversão de texto em texto
Os modelos de conversão texto em texto podem ser ajustados para várias tarefas baseadas em texto, como aplicações conversacionais e não conversacionais. Para ter informações sobre como preparar dados para ajustar modelos de conversão de texto em texto, consulte Preparar dados para ajustar modelos de conversão de texto em texto.
Os seguintes modelos não conversacionais são otimizados para determinadas tarefas, como resumo, tradução e resposta a perguntas:
Amazon Titan Text G1 - Express
Amazon Titan Text G1 - Lite
Amazon Titan Text Premier
Cohere Command
Cohere Command Light
Meta Llama 3.1 8B Instruct
Meta Llama 3.1 70B Instruct
Os modelos conversacionais a seguir foram projetados para interações de um único turno e de vários turnos. Caso um modelo use a API Converse, seu conjunto de dados de ajuste fino deve seguir o formato de mensagem da API Converse e incluir mensagens do sistema, do usuário e do assistente. Para obter exemplos, consulte Preparar dados para ajustar modelos de conversão de texto em texto. Para ter mais informações sobre as operações da API Converse, consulte Realizar uma conversa com as operações de API Converse.
Claude 3 Haiku da Anthropic
Llama 3.2 1B Instruct da Meta (formato API Converse)
Llama 3.2 3B Instruct da Meta (formato API Converse)
Llama 3.2 11B Instruct Vision da Meta (formato API Converse)
Llama 3.2 90B Instruct Vision da Meta (formato API Converse)
Llama 3.3 70B Vision Instruct da Meta (formato API Converse)
Modelos de conversão de imagem de texto em texto e de texto em imagem
Os modelos a seguir permitem o uso de ajuste fino para geração de imagens e processamento de imagens de texto. Esses modelos processam ou geram imagens com base na entrada de texto ou geram texto com base nas entradas de texto e de imagem. Para ter informações sobre como preparar dados para ajustar modelos de conversão de imagem de texto em texto e de texto em imagem, consulte Preparar os dados para ajustar modelos de processamento de imagem e texto.
Amazon Titan Image Generator G1 V1
Llama 3.2 11B Instruct Vision da Meta
Llama 3.2 90B Instruct Vision da Meta
Llama 3.3 70B Vision Instruct da Meta
Conversão de imagem em incorporações
Os modelos a seguir permitem o uso de ajuste fino para tarefas como classificação e recuperação. Esses modelos geram representações numéricas (incorporações) das entradas de imagem. Para ter informações sobre como preparar os dados para ajustar modelos de conversão de imagem em incorporações, consulte Preparar dados para ajustar modelos de geração e incorporação de imagens.
Amazon Titan Multimodal Embeddings G1
Amazon Titan Image Generator G1 V1
Pré-treinamento contínuo: texto em texto
Os modelos a seguir podem ser usados para o pré-treinamento contínuo. Esses modelos permitem o uso do pré-treinamento contínuo em dados específicos ao domínio para aprimorar o conhecimento básico do próprio modelo. Para ter informações sobre como preparar os dados para o pré-treinamento contínuo em modelos de conversão de texto em texto, consulte Preparar conjuntos de dados para pré-treinamento contínuo.
Amazon Titan Text G1 - Express
Amazon Titan Text G1 - Lite