

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Ejemplos de la biblioteca de paralelismo de modelos Amazon SageMaker AI v1
<a name="distributed-model-parallel-examples"></a>

En esta página encontrará una lista de blogs y cuadernos de Jupyter que presentan ejemplos prácticos de la implementación de la biblioteca de paralelismo de SageMaker modelos (SMP), versión 1, para realizar trabajos de formación distribuidos sobre IA. SageMaker 

## Blogs y casos prácticos
<a name="distributed-model-parallel-examples-blog"></a>

En los siguientes blogs se analizan casos prácticos sobre el uso de SMP v1.
+ [Nuevas mejoras de rendimiento en la biblioteca de paralelismo de modelos de Amazon SageMaker AI](https://aws.amazon.com/blogs/machine-learning/new-performance-improvements-in-amazon-sagemaker-model-parallel-library/), *AWS Machine Learning Blog* (16 de diciembre de 2022)
+ [Entrene modelos gigantescos con escalado casi lineal mediante el paralelismo de datos fragmentados en Amazon AI SageMaker ,](https://aws.amazon.com/blogs/machine-learning/train-gigantic-models-with-near-linear-scaling-using-sharded-data-parallelism-on-amazon-sagemaker/) Machine *AWS Learning Blog (31* de octubre de 2022)

## Cuadernos de ejemplo
<a name="distributed-model-parallel-examples-pytorch"></a>

[En el repositorio de ejemplos de IA se proporcionan cuadernos de ejemplo. SageMaker GitHub ](https://github.com/aws/amazon-sagemaker-examples/tree/master/training/distributed_training/) Para descargar los ejemplos, ejecute el siguiente comando para clonar el repositorio e ir a `training/distributed_training/pytorch/model_parallel`.

**nota**  
Clona y ejecuta los cuadernos de ejemplo en el siguiente SageMaker AI ML. IDEs  
[SageMaker JupyterLab](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated-jl.html)(disponible en [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) creado después de diciembre de 2023)
[SageMaker Editor de código](https://docs.aws.amazon.com/sagemaker/latest/dg/code-editor.html) (disponible en [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) creado después de diciembre de 2023)
[Studio Classic](https://docs.aws.amazon.com/sagemaker/latest/dg/studio.html) (disponible como aplicación en [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) creado después de diciembre de 2023)
[SageMaker Instancias de cuadernos](https://docs.aws.amazon.com/sagemaker/latest/dg/nbi.html)

```
git clone https://github.com/aws/amazon-sagemaker-examples.git
cd amazon-sagemaker-examples/training/distributed_training/pytorch/model_parallel
```

**Ejemplos de cuadernos SMP v1 para PyTorch**
+ [Entrene el GPT-2 con un escalado casi lineal utilizando la técnica de paralelismo de datos fragmentados de la biblioteca de paralelismo de modelos SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/gpt2/smp-train-gpt-sharded-data-parallel.ipynb)
+ [Ajuste el GPT-2 con un escalado casi lineal mediante la técnica de paralelismo de datos fragmentados de la biblioteca de paralelismo de modelos SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/gpt2/smp-fine-tune-gpt-sharded-data-parallel.ipynb)
+ [Entrene el GPT-NeoX-20B con un escalado casi lineal mediante la técnica de paralelismo de datos fragmentados de la biblioteca de paralelismo de modelos SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/gpt-neox/smp-train-gpt-neox-sharded-data-parallel.ipynb)
+ [Entrene el GPT-J 6B con las técnicas de paralelismo de datos fragmentados y paralelismo tensorial de la biblioteca de paralelismo de modelos SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/gpt-j/smp-train-gptj-sharded-data-parallel-tp.ipynb)
+ [Entrene el FLAN-T5 con un escalado casi lineal utilizando la técnica de paralelismo de datos fragmentados de la biblioteca de paralelismo de modelos SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/flan-t5/smp-train-t5-sharded-data-parallel.ipynb)
+ [Entrene a Falcon con un escalado casi lineal utilizando la técnica de paralelismo de datos fragmentados de la biblioteca de paralelismo de modelos SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/falcon/smp-train-falcon-sharded-data-parallel.ipynb)

**Ejemplos de cuadernos SMP v1 para TensorFlow**
+ [CNN con la TensorFlow versión 2.3.1 y la biblioteca de modelos de SageMaker paralelismo](https://sagemaker-examples.readthedocs.io/en/latest/training/distributed_training/tensorflow/model_parallel/mnist/tensorflow_smmodelparallel_mnist.html)
+ [HuggingFace con la biblioteca de paralelismo de modelos TensorFlow distribuidos Training on AI SageMaker ](https://github.com/huggingface/notebooks/blob/master/sagemaker/04_distributed_training_model_parallelism/sagemaker-notebook.ipynb)