Exemplos e mais informações: use seu próprio algoritmo ou modelo - SageMaker IA da Amazon

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Exemplos e mais informações: use seu próprio algoritmo ou modelo

Os cadernos Jupyter e informações adicionadas a seguir mostram como usar seus próprios algoritmos ou modelos pré-treinados de uma instância de caderno do Amazon SageMaker. Para links aos repositórios do GitHub com arquivos Dockerfile predefinidos dos frameworks TensorFlow, MXNet, Chainer e PyTorch e instruções sobre como usar os estimadores do AWS SDK para Python (Boto3) para executar seus próprios algoritmos de treinamento no SageMaker AI Learner e seus próprios modelos na hospedagem do SageMaker AI, consulte Imagens do Docker predefinidas do SageMaker AI para aprendizado profundo.

Configuração

  1. Criar uma instância do caderno do SageMaker. Para obter instruções sobre como criar e acessar instâncias do caderno Jupyter, consulte Instâncias de SageMaker notebook da Amazon.

  2. Abra a instância de caderno.

  3. Escolha a guia Exemplos do SageMaker AI para obter uma lista de todos os cadernos de exemplo do SageMaker AI.

  4. Você pode abrir os exemplos de cadernos na seção Funcionalidade avançada em sua instância de caderno ou a partir do GitHub usando os links fornecidos. Para abrir um caderno, escolha a guia Uso e depois escolha Criar cópia.

Modelos hospedeiros treinados no Scikit-learn

Para saber como hospedar modelos treinados em Scikit-learn para fazer predições no SageMaker, injetando contêineres k-means e XGBoost originais neles, consulte os exemplos de caderno a seguir.

Empacotar modelos do TensorFlow e do Scikit-learn para uso no SageMaker AI

Para saber como empacotar os algoritmos desenvolvidos nos frameworks TensorFlow e scikit-learn para treinamento e implantação no ambiente do SageMaker AI, consulte os cadernos a seguir. Eles mostram como criar, registrar e implantar seus próprios contêineres do Docker usando Dockerfiles.

Treinar e implantar uma rede neural no SageMaker AI

Para saber como treinar uma rede neural localmente usando o MXNet ou o TensorFlow e criar um endpoint no modelo treinado e implantá-lo no SageMaker AI, consulte os cadernos a seguir. O modelo do MXNet é treinado para reconhecer números manuscritos do conjunto de dados MNIST. O modelo do TensorFlow é treinado para classificar as íris.

Treinamento usando o Modo Pipe

Para saber como usar um Dockerfile para criar um contêiner que chame o train.py script e use o modo de pipe para treinar um algoritmo personalizado, consulte o caderno a seguir. No modo de pipe, os dados de entrada são transferidos para o algoritmo durante o treinamento. Isso pode diminuir o tempo de treinamento em comparação ao uso do modo de arquivo.

Traga seus próprios modelos em R

Para saber como adicionar uma imagem no R personalizada para criar e treinar um modelo em um caderno do AWS SMS, consulte a publicação do blog a seguir. Esta postagem de blog usa um Dockerfile R de amostra de uma biblioteca de amostras de imagens personalizadas do SageMaker AI Studio Classic.

Estenda uma imagem de contêiner PyTorch predefinida

Para saber como estender uma imagem de contêiner predefinida do PyTorch do SageMaker AI quando você tiver outros requisitos funcionais para o seu algoritmo ou modelo aos quais a imagem do Docker predefinida não atende, consulte o caderno a seguir.

Para obter mais informações sobre como estender um contêiner, consulte Estenda uma imagem de contêiner predefinida.

Treine e depure trabalhos de treinamento em um contêiner personalizado

Para saber como treinar e depurar trabalhos de treinamento usando o SageMaker Debugger, consulte o caderno a seguir. Um script de treinamento fornecido por meio deste exemplo usa o modelo TensorFlow Keras ResNet 50 e o conjunto de dados CIFAR10. Um contêiner personalizado do Docker é criado com o script de treinamento e enviado para o Amazon ECR. Enquanto o trabalho de treinamento está em execução, o Debugger coleta as saídas do tensor e identifica problemas de depuração. Com as ferramentas da biblioteca de clientes smdebug, você pode definir um objeto de teste smdebug que chama o trabalho de treinamento e as informações de depuração, verificar o status da regra de treinamento e do Debugger e recuperar tensores salvos em um bucket do Amazon S3 para analisar problemas de treinamento.