Como o Amazon SageMaker AI executa uma imagem de treinamento - SageMaker IA da Amazon

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Como o Amazon SageMaker AI executa uma imagem de treinamento

Você pode usar um script de ponto de entrada personalizado para automatizar a infraestrutura para treinar em um ambiente de produção. Se você passar o script de ponto de entrada para o contêiner do Docker, também poderá executá-lo como um script independente sem reconstruir as imagens. O SageMaker AI processa sua imagem de treinamento usando um script de ponto de entrada do contêiner do Docker.

Esta seção mostra como usar um ponto de entrada personalizado sem o uso do kit de ferramentas de treinamento. Se você quiser usar um ponto de entrada personalizado, mas não estiver familiarizado com a configuração manual de um contêiner do Docker, recomendamos que você use a biblioteca do kit de ferramentas de Treinamento do SageMaker. Para mais informações sobre como utilizar o kit de ferramentas de treino, consulte Como adaptar o próprio contêiner de treinamento.

Por padrão, o SageMaker AI procura um script chamado train dentro do contêiner. Você também pode fornecer manualmente seu próprio ponto de entrada personalizado usando os parâmetros ContainerArguments e ContainerEntrypoint da API AlgorithmSpecification.

Você tem as duas opções a seguir para configurar manualmente o contêiner do Docker para executar sua imagem.

  • Use a API CreateTrainingJob e um contêiner do Docker com uma instrução de ponto de entrada contida nele.

  • Use a API CreateTrainingJob e aprove o script de treinamento de fora do contêiner do Docker.

Se você aprovar o script de treinamento de fora do contêiner do Docker, não precisará reconstruir o contêiner do Docker ao atualizar o script. Você também pode usar vários scripts diferentes para serem executados no mesmo contêiner.

Seu script de ponto de entrada deve conter o código de treinamento para sua imagem. Se você usar o parâmetro opcional source_dir dentro de um estimador, ele deverá referenciar o caminho relativo do Amazon S3 para a pasta que contém o script de ponto de entrada. Você pode referenciar vários arquivos usando o parâmetro source_dir. Se você não usar o source_dir, poderá especificar o ponto de entrada usando o parâmetro entry_point. Para ver um exemplo de um script de ponto de entrada personalizado que contém um estimador, consulte Traga seu próprio modelo com o modo de script do SageMaker AI.

É possível usar buckets de diretório do S3 Express One Zone de alto desempenho como um local de entrada de dados para o modo de arquivo, modo de arquivo rápido e modo pipe no treinamento de modelo do SageMaker AI. Você também pode usar buckets de diretório da classe S3 Express One Zone para armazenar os resultados do treinamento. Para usar o S3 Express One Zone, forneça o URI de um bucket de diretório do S3 Express One Zone em vez de um bucket de uso geral do Amazon S3. Só é possível criptografar os dados de saída do SageMaker AI em buckets de diretório com criptografia do lado do servidor com chaves gerenciadas pelo Amazon S3 (SSE-S3). No momento, a criptografia do lado do servidor com chaves do AWS KMS (SSE-KMS) não é compatível com o armazenamento de dados de saída do SageMaker AI nos buckets de diretório. Para obter mais informações, consulte S3 Express One Zone.

Execute um trabalho de treinamento com um script de ponto de entrada incluído no contêiner do Docker

O SageMaker AI pode executar um script de ponto de entrada empacotado dentro do contêiner do Docker.

  • Por padrão, o Amazon SageMaker AI executa o contêiner a seguir.

    docker run image train
  • O SageMaker AI substitui as instruções de CMD por padrão em um contêiner especificando o argumento train após o nome da imagem. No arquivo do contêiner do Docker, use o formulário exec da instrução ENTRYPOINT.

    ENTRYPOINT ["executable", "param1", "param2", ...]

    O exemplo a seguir mostra como especificar uma instrução de ponto de entrada do python chamada k-means-algorithm.py.

    ENTRYPOINT ["python", "k-means-algorithm.py"]

    A forma exec da instrução ENTRYPOINT inicia o executável diretamente, não como elemento filho de /bin/sh. Isso permite que ele receba sinais, como SIGTERM e SIGKILL, das APIs do SageMaker. O SageMaker copia esses dados como um único objeto no formato TAR compactado, no local do S3 especificado na solicitação .

    • A API CreateTrainingJob tem uma condição de interrupção que direciona o SageMaker AI a interromper o treinamento do modelo após um tempo específico.

    • A seguir, a API do StopTrainingJob. Esta API emite o equivalente do docker stop, com um comando de tempo limite de 2 minutos, para interromper tranquilamente o contêiner especificado.

      docker stop -t 120

      Para tentar interromper o contêiner em execução, o comando envia um sinal SIGTERM. Após o tempo limite de 2 minutos, a API envia SIGKILL e interrompe os contêineres à força. Se o contêiner manipula o sinal SIGTERM com tranquilidade e sai dentro de 120 segundos após recebê-lo, nenhum sinal SIGKILL é enviado.

    Se você quiser acesso aos artefatos intermediários do modelo depois que o SageMaker AI interromper o treinamento, adicione código para lidar com o salvamento de artefatos no manipulador SIGTERM.

  • Se você planeja usar dispositivos de GPU para treinamento de modelos, os contêineres devem ser compatíveis com nvidia-docker. Somente o kit de ferramentas CUDA deve ser incluído em contêineres. Não empacote drivers NVIDIA com a imagem. Para obter mais informações sobre o nvidia-docker, consulte NVIDIA/nvidia-docker.

  • Não é possível utilizar o inicializador tini como script de ponto de entrada nos contêineres do SageMaker AI porque ele confunde argumentos train e serve.

  • /opt/ml e todos os seus subdiretórios são reservados pelo treinamento do SageMaker. Ao criar a imagem do Docker do seu algoritmo, certifique-se de não colocar nenhum dado exigido pelo seu algoritmo nesse diretório. Porque se você fizer isso, os dados podem não estar mais visíveis durante o treinamento.

Para agrupar os scripts de shell ou Python na imagem do Docker, ou para fornecer o script em um bucket do Amazon S3 ou usando a (CLI) AWS Command Line Interface, continue na seção a seguir.

Agrupe o script de shell em um contêiner do Docker

Se você quiser agrupar um script de shell personalizado em sua imagem do Docker, use as etapas a seguir.

  1. Copie o script de shell do diretório de trabalho para dentro do contêiner do Docker. O trecho de código a seguir copia um script de ponto de entrada personalizado custom_entrypoint.sh do diretório de trabalho atual para um contêiner do Docker localizado em mydir. O exemplo a seguir pressupõe que a imagem do Docker de base tem o Python instalado.

    FROM <base-docker-image>:<tag> # Copy custom entrypoint from current dir to /mydir on container COPY ./custom_entrypoint.sh /mydir/
  2. Crie e envie um contêiner do Docker para o Amazon Elastic Container Registry (Amazon ECR) seguindo as instruções em Enviar uma imagem do Docker no Guia do usuário do Amazon ECR.

  3. Inicie o trabalho de treinamento executando o comando da AWS CLI a seguir.

    aws --region <your-region> sagemaker create-training-job \ --training-job-name <your-training-job-name> \ --role-arn <your-execution-role-arn> \ --algorithm-specification '{ \ "TrainingInputMode": "File", \ "TrainingImage": "<your-ecr-image>", \ "ContainerEntrypoint": ["/bin/sh"], \ "ContainerArguments": ["/mydir/custom_entrypoint.sh"]}' \ --output-data-config '{"S3OutputPath": "s3://custom-entrypoint-output-bucket/"}' \ --resource-config '{"VolumeSizeInGB":10,"InstanceCount":1,"InstanceType":"ml.m5.2xlarge"}' \ --stopping-condition '{"MaxRuntimeInSeconds": 180}'

Agrupe o script do Python em um contêiner do Docker

Para agrupar um script Python personalizado na imagem do Docker, use as etapas a seguir.

  1. Copie o script do Python do diretório de trabalho para dentro do contêiner do Docker. O trecho de código a seguir copia um script de ponto de entrada personalizado custom_entrypoint.py do diretório de trabalho atual para um contêiner do Docker localizado em mydir.

    FROM <base-docker-image>:<tag> # Copy custom entrypoint from current dir to /mydir on container COPY ./custom_entrypoint.py /mydir/
  2. Inicie o trabalho de treinamento executando o comando da AWS CLI a seguir.

    --algorithm-specification '{ \ "TrainingInputMode": "File", \ "TrainingImage": "<your-ecr-image>", \ "ContainerEntrypoint": ["python"], \ "ContainerArguments": ["/mydir/custom_entrypoint.py"]}' \

Execute um trabalho de treinamento com um script de ponto de entrada fora do contêiner do Docker

Você pode usar seu próprio contêiner do Docker para treinamento e transmitir um script de ponto de entrada de fora do contêiner do Docker. Há alguns benefícios em estruturar seu script de ponto de entrada fora do contêiner. Se você atualizar o script do ponto de entrada, você não precisará reconstruir o contêiner do Docker. Você também pode usar vários scripts diferentes para serem executados no mesmo contêiner.

Especifique a localização do seu script de treinamento usando os parâmetros ContainerEntrypoint e ContainerArguments da API AlgorithmSpecification. Esses pontos de entrada e argumentos se comportam da mesma maneira que os pontos de entrada e argumentos do Docker. Os valores nesses parâmetros substituem os correspondentes ENTRYPOINT ou CMD fornecidos como parte do contêiner do Docker.

Quando você passa o script de ponto de entrada personalizado para o contêiner de treinamento do Docker, as entradas que você fornece determinam o comportamento do contêiner.

  • Por exemplo, se você fornecer apenas ContainerEntrypoint, a sintaxe da solicitação usando a API CreateTrainingJob é a seguinte:

    { "AlgorithmSpecification": { "ContainerEntrypoint": ["string"], ... } }

    Em seguida, o backend de treinamento do SageMaker executa o ponto de entrada personalizado da seguinte maneira:

    docker run --entrypoint <ContainerEntrypoint> image
    nota

    Se o ContainerEntrypoint for fornecido, o backend de treinamento do SageMaker executa a imagem com o ponto de entrada especificado e substitui o padrão na imagem ENTRYPOINT.

  • Se você fornecer apenas ContainerArguments, o SageMaker AI presumirá que o contêiner do Docker contém um script de ponto de entrada. A sintaxe da solicitação usando a API CreateTrainingJob é a seguinte:

    { "AlgorithmSpecification": { "ContainerArguments": ["arg1", "arg2"], ... } }

    O backend de treinamento do SageMaker executa o ponto de entrada personalizado da seguinte maneira:

    docker run image <ContainerArguments>
  • Se você fornecer o ContainerEntrypoint e ContainerArguments, a sintaxe da solicitação usando a API CreateTrainingJob será a seguinte:

    { "AlgorithmSpecification": { "ContainerEntrypoint": ["string"], "ContainerArguments": ["arg1", "arg2"], ... } }

    O backend de treinamento do SageMaker executa o ponto de entrada personalizado da seguinte maneira:

    docker run --entrypoint <ContainerEntrypoint> image <ContainerArguments>

Você pode usar qualquer fonte InputDataConfig compatível na API CreateTrainingJob para fornecer um script de ponto de entrada para executar a imagem de treinamento.

Forneça o script de ponto de entrada em um bucket do Amazon S3

Para fornecer um script de ponto de entrada personalizado usando um bucket do S3, use o parâmetro S3DataSource da API DataSource para especificar a localização do script. Se você usar o parâmetro S3DataSource, os itens a seguir serão obrigatórios:

O exemplo a seguir tem um script chamado custom_entrypoint.sh colocado em um caminho para um bucket s3://<bucket-name>/<bucket prefix>/custom_entrypoint.sh do S3.

#!/bin/bash echo "Running custom_entrypoint.sh" echo "Hello you have provided the following arguments: " "$@"

Em seguida, você deve definir a configuração do canal de dados de entrada para executar um trabalho de treinamento. Faça isso usando a AWS CLI diretamente ou com um arquivo JSON.

Configure o canal de dados de entrada usando AWS CLI com um arquivo JSON

Para configurar seu canal de dados de entrada com um arquivo JSON, use o AWS CLI conforme mostrado na estrutura de código a seguir. Certifique-se de que todos os campos a seguir usem a sintaxe de solicitação definida na API CreateTrainingJob.

// run-my-training-job.json { "AlgorithmSpecification": { "ContainerEntrypoint": ["/bin/sh"], "ContainerArguments": ["/opt/ml/input/data/<your_channel_name>/custom_entrypoint.sh"], ... }, "InputDataConfig": [ { "ChannelName": "<your_channel_name>", "DataSource": { "S3DataSource": { "S3DataDistributionType": "FullyReplicated", "S3DataType": "S3Prefix", "S3Uri": "s3://<bucket-name>/<bucket_prefix>" } }, "InputMode": "File", }, ...] }

Em seguida, execute o comando da AWS CLI para iniciar o trabalho de treinamento a partir do arquivo JSON da seguinte maneira:

aws sagemaker create-training-job --cli-input-json file://run-my-training-job.json

Configure o canal de dados de entrada usando a AWS CLI diretamente

Para configurar o canal de dados de entrada com um arquivo JSON, use a estrutura de código AWS CLI a seguir:

aws --region <your-region> sagemaker create-training-job \ --training-job-name <your-training-job-name> \ --role-arn <your-execution-role-arn> \ --algorithm-specification '{ \ "TrainingInputMode": "File", \ "TrainingImage": "<your-ecr-image>", \ "ContainerEntrypoint": ["/bin/sh"], \ "ContainerArguments": ["/opt/ml/input/data/<your_channel_name>/custom_entrypoint.sh"]}' \ --input-data-config '[{ \ "ChannelName":"<your_channel_name>", \ "DataSource":{ \ "S3DataSource":{ \ "S3DataType":"S3Prefix", \ "S3Uri":"s3://<bucket-name>/<bucket_prefix>", \ "S3DataDistributionType":"FullyReplicated"}}}]' \ --output-data-config '{"S3OutputPath": "s3://custom-entrypoint-output-bucket/"}' \ --resource-config '{"VolumeSizeInGB":10,"InstanceCount":1,"InstanceType":"ml.m5.2xlarge"}' \ --stopping-condition '{"MaxRuntimeInSeconds": 180}'