Crie uma tarefa do AutoML para ajustar os modelos de geração de texto usando a API - Amazon SageMaker AI

Crie uma tarefa do AutoML para ajustar os modelos de geração de texto usando a API

Grandes modelos de linguagem (LLMs) se destacam em várias tarefas generativas, incluindo geração de texto, sumarização, conclusão, resposta a perguntas e muito mais. Seu performance pode ser atribuído ao tamanho significativo e ao treinamento extensivo em diversos conjuntos de dados e várias tarefas. No entanto, domínios específicos, como serviços financeiros e de saúde, podem exigir ajustes personalizados para se adaptarem a dados e casos de uso exclusivos. Ao adaptar seu treinamento ao seu domínio específico, os LLMs podem melhorar seu performance e fornecer resultados mais precisos para aplicações específicas.

O Autopilot oferece a capacidade de ajustar uma seleção de modelos de texto generativo pré-treinados. Em particular, o Autopilot é compatível com o ajuste de acordo com as instruções de uma seleção de grandes modelos de linguagem (LLMs) de uso geral desenvolvidos pelo JumpStart.

nota

Os modelos de geração de texto que oferecem apoio ao ajuste no Autopilot estão acessíveis exclusivamente nas Regiões compatíveis com o SageMaker Canvas. Consulte a documentação do SageMaker Canvas para ver a lista completa das Regiões compatíveis.

O ajuste fino de um modelo pré-treinado requer um conjunto de dados específico de instruções claras que orientem o modelo sobre como gerar resultados ou se comportar para essa tarefa. O modelo aprende com o conjunto de dados, ajustando seus parâmetros de acordo com as instruções fornecidas. O ajuste de acordo com as instruções envolve o uso de exemplos rotulados formatados como pares de resposta a prompt e expressos como instruções. Para obter mais informações sobre o ajuste, consulte Ajuste de um modelo de base.

As diretrizes a seguir descrevem o processo de criação de um trabalho do Amazon SageMaker Autopilot como um experimento piloto para ajustar LLMs de geração de texto usando a Referência da API do SageMaker.

nota

Tarefas como classificação de texto e imagem, previsão de séries temporais e ajuste de grandes modelos de linguagem estão disponíveis exclusivamente na versão 2 da API REST do AutoML. Se sua linguagem preferida for Python, você pode consultar diretamente o AWS SDK para Python (Boto3) ou o objeto AutoMLV2 do Amazon SageMaker Python SDK.

Os usuários que preferem a conveniência de uma interface de usuário podem usar o Amazon SageMaker Canvas para acessar modelos pré-treinados, modelos de base de IA generativa ou criar modelos personalizados para necessidades específicas de texto, classificação de imagens, previsão ou de IA generativa.

Para criar um experimento do Autopilot programaticamente para ajustar um grande modelo de linguagem, você pode chamar a API CreateAutoMLJobV2 em qualquer linguagem compatível com o Amazon SageMaker Autopilot ou a AWS CLI.

Para obter informações sobre como essa ação da API se traduz em uma função no idioma de sua escolha, consulte a seção Ver também de CreateAutoMLJobV2 e escolha um SDK. Como exemplo, para usuários do Python, veja a sintaxe completa da solicitação de create_auto_ml_job_v2 em AWS SDK para Python (Boto3).

nota

O Autopilot ajusta grandes modelos de linguagem sem exigir que vários candidatos sejam treinados e avaliados. Em vez disso, usando seu conjunto de dados, o Autopilot ajusta diretamente seu modelo de destino para aprimorar uma métrica objetiva padrão, a perda de entropia cruzada. O ajuste fino dos modelos de linguagem no Autopilot não requer a configuração do campo AutoMLJobObjective.

Depois que seu LLM estiver ajustado, você poderá avaliar o seu desempenhado acessando várias pontuações ROUGE por meio do BestCandidate ao fazer uma chamada de API DescribeAutoMLJobV2. O modelo também fornece informações sobre seu treinamento e perda de validação, bem como sobre sua perplexidade. Para obter uma lista abrangente de métricas para avaliar a qualidade do texto gerado pelos modelos ajustados, consulte Métricas para ajustar modelos de linguagem grandes no Autopilot.

Pré-requisitos

Antes de usar o Autopilot para criar um experimento de ajuste no SageMaker AI, siga as etapas abaixo:

  • (Opcional) Escolha o modelo pré-treinado que você deseja ajustar.

    Para ver a lista de modelos pré-treinados disponíveis para ajuste fino no Amazon SageMaker Autopilot, consulte Modelos de linguagem de grande porte compatíveis para ajuste fino. A seleção de um modelo não é obrigatória; se nenhum modelo for especificado, o Autopilot automaticamente assume como padrão o modelo Falcon7BInstruct.

  • Criar um conjunto de dados de instruções. Consulte Tipos de arquivo de conjunto de dados e formato de dados de entrada para saber mais sobre os requisitos de formato do seu conjunto de dados de acordo com as instruções.

  • Coloque seus conjuntos de dados em um bucket do Amazon S3.

  • Conceder acesso total ao bucket do Amazon S3 que contém seus dados de entrada ao perfil de execução do SageMaker AI usado para executar seu experimento.

    • Para ter informações sobre como recuperar seu perfil de execução do SageMaker AI, consulte Obtenha um perfil de execução.

    • Para ter informações sobre como conceder permissões de perfil de execução do SageMaker AI para acessar um ou mais buckets específicos no Amazon S3, consulte Adicionar outras permissões do Amazon S3 a um perfil de execução do SageMaker AI em Criar perfil de execução.

  • Além disso, você deve fornecer ao seu perfil de execução as permissões necessárias para acessar o bucket Amazon S3 de armazenamento padrão usado pelo JumpStart. Esse acesso é necessário para armazenar e recuperar artefatos pré-treinados do modelo no JumpStart. Para conceder acesso a esse bucket do Amazon S3, você deve criar uma nova política personalizada em linha em seu perfil de execução.

    Aqui está uma política de exemplo que você pode usar em seu editor JSON ao configurar trabalhos de ajuste do AutoML em us-west-2:

    Os nomes dos buckets do JumpStart seguem um padrão predeterminado que depende da Regiões da AWS. Você deve ajustar o nome do bucket adequadamente.

    { "Sid": "Statement1", "Effect": "Allow", "Action": [ "s3:GetObject", "s3:PutObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::jumpstart-cache-prod-us-west-2", "arn:aws:s3:::jumpstart-cache-prod-us-west-2/*" ] }

Feito isso, você pode usar o ARN desse perfil de execução nas solicitações da API do Autopilot.

Parâmetros necessários

Ao chamar CreateAutoMLJobV2 para criar um experimento de Autopilot para ajuste de LLM, você deve fornecer os seguintes valores:

  • Um AutoMLJobName para especificar o nome do seu trabalho. O nome deve ser do tipo string e ter um comprimento mínimo de 1 caractere e um comprimento máximo de 32.

  • Pelo menos um AutoMLJobChannel do training tipo dentro do AutoMLJobInputDataConfig. Esse canal especifica o nome do bucket do Amazon S3 onde seu conjunto de dados de ajuste fino está localizado. Você tem a opção de definir um canal validation. Se nenhum canal de validação for fornecido e um ValidationFraction estiver configurado no AutoMLDataSplitConfig, essa fração será utilizada para dividir aleatoriamente o conjunto de dados de treinamento em conjuntos de treinamento e validação. Além disso, você pode especificar o tipo de conteúdo (arquivos CSV ou Parquet) para o conjunto de dados.

  • Um AutoMLProblemTypeConfig do tipo TextGenerationJobConfig para definir as configurações do seu trabalho de treinamento.

    Em particular, você pode especificar o nome do modelo de base a ser ajustado no campo BaseModelName. Para ver a lista de modelos pré-treinados disponíveis para ajuste fino no Amazon SageMaker Autopilot, consulte Modelos de linguagem de grande porte compatíveis para ajuste fino.

  • Um OutputDataConfig para especificar o caminho de saída do Amazon S3 para armazenar os artefatos do seu trabalho do AutoML.

  • Um RoleArn para especificar o ARN do perfil usada para acessar seus dados.

Veja a seguir um exemplo do formato de solicitação completo usado ao fazer uma chamada de API para CreateAutoMLJobV2 para ajustar um modelo (Falcon7BInstruct).

{ "AutoMLJobName": "<job_name>", "AutoMLJobInputDataConfig": [ { "ChannelType": "training", "CompressionType": "None", "ContentType": "text/csv", "DataSource": { "S3DataSource": { "S3DataType": "S3Prefix", "S3Uri": "s3://<bucket_name>/<input_data>.csv" } } } ], "OutputDataConfig": { "S3OutputPath": "s3://<bucket_name>/output", "KmsKeyId": "arn:aws:kms:<region>:<account_id>:key/<key_value>" }, "RoleArn":"arn:aws:iam::<account_id>:role/<sagemaker_execution_role_name>", "AutoMLProblemTypeConfig": { "TextGenerationJobConfig": { "BaseModelName": "Falcon7BInstruct" } } }

Todos os outros parâmetros são opcionais.

Parâmetros opcionais

As seções a seguir fornecem detalhes de alguns parâmetros opcionais que você pode passar para o seu trabalho AutoML de ajuste.

Você pode fornecer seu próprio conjunto de dados da validação e taxa de divisão de dados personalizada, ou deixar o Autopilot dividir o conjunto de dados automaticamente.

Cada objeto AutoMLJobChannel (consulte o parâmetro obrigatório AutoMLJobInputDataConfig) tem um ChannelType, que pode ser definido como um training ou validation valores que especificam como os dados devem ser usados ao criar um modelo de machine learning.

Pelo menos uma fonte de dados deve ser fornecida e no máximo duas fontes de dados são permitidas: uma para dados de treinamento e outra para dados de validação. A forma como você divide os dados em conjuntos de dados de treinamento e validação depende de você ter uma ou duas fontes de dados.

  • Se você tiver apenas uma fonte de dados, a será ChannelType definida como training padrão e deverá ter esse valor.

    • Se o valor ValidationFraction em AutoMLDataSplitConfig não estiver definido, 0,2 (20%) dos dados dessa fonte serão usados para a validação por padrão.

    • Se ValidationFraction for definido como um valor entre 0 e 1, o conjunto de dados será dividido com base no valor especificado, em que o valor especifica a fração do conjunto de dados usada para validação.

  • Se você tiver duas fontes de dados, a ChannelType de um dos objetos AutoMLJobChannel deverá ser definida como training, o valor padrão. A ChannelType da outra fonte de dados deve ser definida como validation. As duas fontes de dados devem ter o mesmo formato, CSV ou Parquet, e o mesmo esquema. Nesse caso, você não deve definir o valor para o ValidationFraction porque todos os dados de cada fonte são usados para treinamento ou validação. Definir esse valor causa um erro.

O Autopilot permite que você implante automaticamente seu modelo ajustado em um endpoint. Para habilitar a implantação automática para seu modelo ajustado, inclua um ModelDeployConfig na solicitação de trabalho do AutoML. Isso permitirá a implantação do modelo ajustado em um endpoint do SageMaker AI. Abaixo estão as configurações disponíveis para personalização.

Para modelos que exigem a aceitação de um contrato de licença de usuário final antes do ajuste, você pode aceitar o EULA definindo o atributo AcceptEula do ModelAccessConfig a True em TextGenerationJobConfig ao configurar seu AutoMLProblemTypeConfig.

Você pode otimizar o processo de aprendizado do seu modelo de geração de texto definindo valores de hiperparâmetros no atributo TextGenerationHyperParameters de TextGenerationJobConfig ao configurar seu AutoMLProblemTypeConfig.

O Autopilot permite a configuração de quatro hiperparâmetros comuns em todos os modelos.

  • epochCount: Seu valor deve ser uma string contendo um valor inteiro dentro do intervalo de 1 até 10.

  • batchSize: Seu valor deve ser uma string contendo um valor inteiro dentro do intervalo de 1 até 64.

  • learningRate: Seu valor deve ser uma string contendo um valor de ponto flutuante dentro do intervalo de 0 até 1.

  • learningRateWarmupSteps: Seu valor deve ser uma string contendo um valor inteiro dentro do intervalo de 0 até 250.

Para obter mais detalhes sobre cada hiperparâmetro, consulte Hiperparâmetros para otimizar o processo de aprendizado de seus modelos de geração de texto.

O exemplo de JSON a seguir mostra um campo TextGenerationHyperParameters passado para o TextGenerationJobConfig no qual todos os quatro hiperparâmetros estão configurados.

"AutoMLProblemTypeConfig": { "TextGenerationJobConfig": { "BaseModelName": "Falcon7B", "TextGenerationHyperParameters": {"epochCount":"5", "learningRate":"0.000001", "batchSize": "32", "learningRateWarmupSteps": "10"} } }