

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Exemplos da biblioteca de paralelismo de modelos Amazon SageMaker AI v1
<a name="distributed-model-parallel-examples"></a>

Esta página fornece uma lista de blogs e notebooks Jupyter que apresentam exemplos práticos da implementação da biblioteca de paralelismo de SageMaker modelos (SMP) v1 para executar trabalhos de treinamento distribuídos em IA. SageMaker 

## Blogs e estudos de caso
<a name="distributed-model-parallel-examples-blog"></a>

Os blogs a seguir debatem estudos de caso sobre o uso do SMP v1.
+ [Novas melhorias de desempenho na biblioteca de paralelismo de modelos de SageMaker IA da Amazon](https://aws.amazon.com/blogs/machine-learning/new-performance-improvements-in-amazon-sagemaker-model-parallel-library/), *AWS Machine Learning Blog* (16 de dezembro de 2022)
+ [Treine modelos gigantescos com escalabilidade quase linear usando paralelismo de dados fragmentados no Amazon AI, SageMaker Machine](https://aws.amazon.com/blogs/machine-learning/train-gigantic-models-with-near-linear-scaling-using-sharded-data-parallelism-on-amazon-sagemaker/) *Learning AWS Blog (31 de outubro de 2022)*

## Cadernos de exemplo
<a name="distributed-model-parallel-examples-pytorch"></a>

Os notebooks de exemplo são fornecidos no [ GitHub repositório de exemplos de SageMaker IA](https://github.com/aws/amazon-sagemaker-examples/tree/master/training/distributed_training/). Para baixar os exemplos, execute o seguinte comando para clonar o repositório e acesse `training/distributed_training/pytorch/model_parallel`:

**nota**  
Clone e execute os notebooks de exemplo no SageMaker AI ML a seguir. IDEs  
[SageMaker JupyterLab](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated-jl.html)(disponível no [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) criado após dezembro de 2023)
[SageMaker Editor de código](https://docs.aws.amazon.com/sagemaker/latest/dg/code-editor.html) (disponível no [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) criado após dezembro de 2023)
[Studio Classic](https://docs.aws.amazon.com/sagemaker/latest/dg/studio.html) (disponível como uma aplicação no [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) e criado após dezembro de 2023)
[SageMaker Instâncias de notebook](https://docs.aws.amazon.com/sagemaker/latest/dg/nbi.html)

```
git clone https://github.com/aws/amazon-sagemaker-examples.git
cd amazon-sagemaker-examples/training/distributed_training/pytorch/model_parallel
```

**Exemplos de notebooks SMP v1 para PyTorch**
+ [Treine o GPT-2 com escala quase linear usando a técnica de paralelismo de dados fragmentados na biblioteca de paralelismo de modelos SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/gpt2/smp-train-gpt-sharded-data-parallel.ipynb)
+ [Ajuste o GPT-2 com escala quase linear usando a técnica de paralelismo de dados fragmentados na biblioteca de paralelismo de modelos SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/gpt2/smp-fine-tune-gpt-sharded-data-parallel.ipynb)
+ [Treine o GPT-Neox-20b com escala quase linear usando a técnica de paralelismo de dados fragmentados na biblioteca de paralelismo de modelos SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/gpt-neox/smp-train-gpt-neox-sharded-data-parallel.ipynb)
+ [Treine o GPT-J 6B usando as técnicas de paralelismo de dados fragmentados e paralelismo de tensores na biblioteca de paralelismo de modelos SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/gpt-j/smp-train-gptj-sharded-data-parallel-tp.ipynb)
+ [Treine o FLAN-T5 com escala quase linear usando a técnica de paralelismo de dados fragmentados na biblioteca de paralelismo de modelos SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/flan-t5/smp-train-t5-sharded-data-parallel.ipynb)
+ [Treine o Falcon com escala quase linear usando a técnica de paralelismo de dados fragmentados na biblioteca de paralelismo de modelos SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/falcon/smp-train-falcon-sharded-data-parallel.ipynb)

**Exemplos de notebooks SMP v1 para TensorFlow**
+ [CNN com TensorFlow 2.3.1 e a biblioteca de paralelismo de SageMaker modelos](https://sagemaker-examples.readthedocs.io/en/latest/training/distributed_training/tensorflow/model_parallel/mnist/tensorflow_smmodelparallel_mnist.html)
+ [HuggingFace com a biblioteca de paralelismo de modelos TensorFlow distribuídos Treinamento em IA SageMaker ](https://github.com/huggingface/notebooks/blob/master/sagemaker/04_distributed_training_model_parallelism/sagemaker-notebook.ipynb)