

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Ejemplos de la biblioteca de paralelismo de modelos Amazon SageMaker AI v2
<a name="distributed-model-parallel-v2-examples"></a>

Esta página proporciona una lista de blogs y cuadernos de Jupyter que presentan ejemplos prácticos de la implementación de la biblioteca de paralelismo de SageMaker modelos (SMP) v2 para realizar trabajos de formación distribuidos sobre IA. SageMaker 

## Blogs y casos prácticos
<a name="distributed-model-parallel-v2-examples-blog"></a>

En los siguientes blogs se analizan casos prácticos sobre el uso de SMP v2.
+ [La biblioteca paralela de modelos Amazon SageMaker AI ahora acelera las cargas de trabajo de PyTorch FSDP hasta en un 20%](https://aws.amazon.com/blogs/machine-learning/amazon-sagemaker-model-parallel-library-now-accelerates-pytorch-fsdp-workloads-by-up-to-20/)

## PyTorch cuadernos de ejemplo
<a name="distributed-model-parallel-examples-v2-pytorch"></a>

En el repositorio de ejemplos de [SageMaker IA se proporcionan cuadernos de ejemplo GitHub ](https://github.com/aws/amazon-sagemaker-examples/tree/master/training/distributed_training/). Para descargar los ejemplos, ejecute el siguiente comando para clonar el repositorio e ir a `training/distributed_training/pytorch/model_parallel_v2`.

**nota**  
Clona y ejecuta los cuadernos de ejemplo en el siguiente SageMaker AI ML. IDEs  
[SageMaker JupyterLab](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated-jl.html)(disponible en [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) creado después de diciembre de 2023)
[SageMaker Editor de código](https://docs.aws.amazon.com/sagemaker/latest/dg/code-editor.html) (disponible en [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) creado después de diciembre de 2023)
[Studio Classic](https://docs.aws.amazon.com/sagemaker/latest/dg/studio.html) (disponible como aplicación en [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) creado después de diciembre de 2023)
[SageMaker Instancias de cuadernos](https://docs.aws.amazon.com/sagemaker/latest/dg/nbi.html)

```
git clone https://github.com/aws/amazon-sagemaker-examples.git
cd amazon-sagemaker-examples/training/distributed_training/pytorch/model_parallel_v2
```

**Cuadernos de ejemplo de SMP v2**
+ [Acelere el entrenamiento de Llama v2 con SMP v2, PyTorch FSDP y Transformer Engine realizando el FP8 entrenamiento en instancias P5](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel_v2/llama_v2/smp-train-llama-fsdp-tp-fp8.ipynb)
+ [Ajuste Llama v2 con SMP v2 y PyTorch FSDP a gran escala mediante el paralelismo tensorial, la fragmentación híbrida y la descarga de activaciones](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel_v2/llama_v2/smp-finetuning-llama-fsdp-tp.ipynb)
+ [Entrene GPT-Neox con SMP v2 PyTorch y FSDP a gran escala](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel_v2/gpt-neox/smp-train-gpt-neox-fsdp-tp.ipynb)
+ [Perfeccione GPT-Neox con SMP v2 y FSDP a gran escala mediante el paralelismo tensorial, la fragmentación híbrida y la descarga de PyTorch activaciones](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel_v2/gpt-neox/smp-finetuning-gpt-neox-fsdp-tp.ipynb)