

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Exemplos da biblioteca de paralelismo de modelos de SageMaker IA da Amazon v2
<a name="distributed-model-parallel-v2-examples"></a>

Esta página fornece uma lista de blogs e notebooks Jupyter que apresentam exemplos práticos da implementação da biblioteca v2 de paralelismo de SageMaker modelos (SMP) para executar trabalhos de treinamento distribuídos em IA. SageMaker 

## Blogs e estudos de caso
<a name="distributed-model-parallel-v2-examples-blog"></a>

Os blogs a seguir debatem estudos de caso sobre o uso do SMP v2.
+ [A biblioteca paralela do modelo Amazon SageMaker AI agora acelera as cargas de trabalho PyTorch do FSDP em até 20%](https://aws.amazon.com/blogs/machine-learning/amazon-sagemaker-model-parallel-library-now-accelerates-pytorch-fsdp-workloads-by-up-to-20/)

## PyTorch exemplos de cadernos
<a name="distributed-model-parallel-examples-v2-pytorch"></a>

Os notebooks de exemplo são fornecidos no [ GitHub repositório de exemplos de SageMaker IA](https://github.com/aws/amazon-sagemaker-examples/tree/master/training/distributed_training/). Para baixar os exemplos, execute o seguinte comando para clonar o repositório e acesse `training/distributed_training/pytorch/model_parallel_v2`:

**nota**  
Clone e execute os notebooks de exemplo no SageMaker AI ML a seguir. IDEs  
[SageMaker JupyterLab](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated-jl.html)(disponível no [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) criado após dezembro de 2023)
[SageMaker Editor de código](https://docs.aws.amazon.com/sagemaker/latest/dg/code-editor.html) (disponível no [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) criado após dezembro de 2023)
[Studio Classic](https://docs.aws.amazon.com/sagemaker/latest/dg/studio.html) (disponível como uma aplicação no [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) e criado após dezembro de 2023)
[SageMaker Instâncias de notebook](https://docs.aws.amazon.com/sagemaker/latest/dg/nbi.html)

```
git clone https://github.com/aws/amazon-sagemaker-examples.git
cd amazon-sagemaker-examples/training/distributed_training/pytorch/model_parallel_v2
```

**Cadernos de exemplos do SMP v2**
+ [Acelere o treinamento do Llama v2 com SMP v2, PyTorch FSDP e Transformer Engine executando o treinamento em instâncias P5 FP8 ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel_v2/llama_v2/smp-train-llama-fsdp-tp-fp8.ipynb)
+ [Ajuste o Llama v2 com SMP v2 e PyTorch FSDP em grande escala usando paralelismo de tensores, fragmentação híbrida e descarregamento de ativação](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel_v2/llama_v2/smp-finetuning-llama-fsdp-tp.ipynb)
+ [Treine GPT-Neox com SMP v2 e FSDP em grande escala PyTorch ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel_v2/gpt-neox/smp-train-gpt-neox-fsdp-tp.ipynb)
+ [Ajuste o GPT-Neox com SMP v2 e PyTorch FSDP em grande escala usando paralelismo de tensores, fragmentação híbrida e descarregamento de ativação](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel_v2/gpt-neox/smp-finetuning-gpt-neox-fsdp-tp.ipynb)