

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Ejemplos de bibliotecas de paralelismo de datos de Amazon SageMaker AI
<a name="distributed-data-parallel-v2-examples"></a>

Esta página incluye cuadernos de Jupyter con ejemplos de implementación de la biblioteca de paralelismo de datos distribuidos de SageMaker IA (SMDDP) para realizar trabajos de formación distribuidos sobre IA. SageMaker 

## Blogs y casos prácticos
<a name="distributed-data-parallel-v2-examples-blog"></a>

En los siguientes blogs se analizan casos prácticos sobre el uso de la biblioteca de SMDDP.

**Blogs sobre SMDDP v2**
+ [Realice un entrenamiento más rápido con la biblioteca paralela de datos Amazon SageMaker AI](https://aws.amazon.com/blogs/machine-learning/enable-faster-training-with-amazon-sagemaker-data-parallel-library/), *AWS Machine Learning Blog* (5 de diciembre de 2023)

**Blogs sobre SMDDP v1**
+ [Cómo entrené 10 TB para Stable Diffusion con SageMaker IA en](https://medium.com/@emilywebber/how-i-trained-10tb-for-stable-diffusion-on-sagemaker-39dcea49ce32) *Medium* (29 de noviembre de 2022)
+ [Ejecute PyTorch Lightning y el PyTorch DDP nativo en Amazon SageMaker Training, que incluye Amazon Search](https://aws.amazon.com/blogs/machine-learning/run-pytorch-lightning-and-native-pytorch-ddp-on-amazon-sagemaker-training-featuring-amazon-search/), *AWS Machine Learning Blog* (18 de agosto de 2022)
+ [Capacitación YOLOv5 sobre la biblioteca paralela de datos distribuidos AWS con PyTorch SageMaker IA](https://medium.com/@sitecao/training-yolov5-on-aws-with-pytorch-and-sagemaker-distributed-data-parallel-library-a196ab01409b), *Medium* (6 de mayo de 2022)
+ [Acelere el entrenamiento de EfficientNet modelos sobre SageMaker IA con PyTorch la biblioteca paralela de datos distribuidos de SageMaker IA](https://medium.com/@dangmz/speed-up-efficientnet-model-training-on-amazon-sagemaker-with-pytorch-and-sagemaker-distributed-dae4b048c01a), *Medium* (21 de marzo de 2022)
+ [Acelere el EfficientNet entrenamiento AWS con la biblioteca paralela de datos distribuidos de SageMaker IA](https://towardsdatascience.com/speed-up-efficientnet-training-on-aws-by-up-to-30-with-sagemaker-distributed-data-parallel-library-2dbf6d1e18e8), *Towards Data Science* (12 de enero de 2022)
+ [Hyundai reduce el tiempo de entrenamiento de los modelos de aprendizaje automático para modelos de conducción autónoma mediante Amazon SageMaker AI](https://aws.amazon.com/blogs/machine-learning/hyundai-reduces-training-time-for-autonomous-driving-models-using-amazon-sagemaker/), *AWS Machine Learning Blog* (25 de junio de 2021)
+ [Capacitación distribuida: entrena a BART/T5 para resumir con Transformers y Amazon AI, SageMaker el](https://huggingface.co/blog/sagemaker-distributed-training-seq2seq) sitio web de Hugging Face (8 de *abril de 2021*)

## Cuadernos de ejemplo
<a name="distributed-data-parallel-v2-examples-pytorch"></a>

[En el repositorio de ejemplos de IA se proporcionan cuadernos de ejemplo. SageMaker GitHub ](https://github.com/aws/amazon-sagemaker-examples/tree/master/training/distributed_training/) Para descargar los ejemplos, ejecute el siguiente comando para clonar el repositorio e ir a `training/distributed_training/pytorch/data_parallel`.

**nota**  
Clona y ejecuta los cuadernos de ejemplo en el siguiente SageMaker AI ML. IDEs  
[SageMaker IA JupyterLab](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated-jl.html) (disponible en [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) creado después de diciembre de 2023)
[SageMaker Editor de código AI](https://docs.aws.amazon.com/sagemaker/latest/dg/code-editor.html) (disponible en [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) creado después de diciembre de 2023)
[Studio Classic](https://docs.aws.amazon.com/sagemaker/latest/dg/studio.html) (disponible como aplicación en [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) creado después de diciembre de 2023)
[SageMaker Instancias de cuadernos](https://docs.aws.amazon.com/sagemaker/latest/dg/nbi.html)

```
git clone https://github.com/aws/amazon-sagemaker-examples.git
cd amazon-sagemaker-examples/training/distributed_training/pytorch/data_parallel
```

**Ejemplos de SMDDP v2**
+ [Entrene a Llama 2 con la biblioteca paralela de datos distribuidos de SageMaker IA (SMDDP) y DeepSpeed](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/data_parallel/deepspeed/llama2/smddp_deepspeed_example.ipynb)
+ [Entrene a Falcon con la biblioteca paralela de datos distribuidos de SageMaker IA (SMDDP) y el paralelismo de datos PyTorch totalmente fragmentado (FSDP)](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/data_parallel/fully_sharded_data_parallel/falcon/smddp_fsdp_example.ipynb)

**Ejemplos de SMDDP v1**
+ [CNN PyTorch con la biblioteca de paralelismo de datos de SageMaker IA](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/data_parallel/mnist/pytorch_smdataparallel_mnist_demo.ipynb)
+ [BERT con PyTorch y la biblioteca de paralelismo de datos de SageMaker IA](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/data_parallel/bert/pytorch_smdataparallel_bert_demo.ipynb)
+ [CNN con la TensorFlow versión 2.3.1 y la biblioteca de paralelismo de datos de IA SageMaker ](https://sagemaker-examples.readthedocs.io/en/latest/training/distributed_training/tensorflow/data_parallel/mnist/tensorflow2_smdataparallel_mnist_demo.html)
+ [BERT con TensorFlow 2.3.1 y la biblioteca de paralelismo de datos de IA SageMaker ](https://sagemaker-examples.readthedocs.io/en/latest/training/distributed_training/tensorflow/data_parallel/bert/tensorflow2_smdataparallel_bert_demo.html)
+ [HuggingFace Formación paralela sobre datos distribuidos PyTorch sobre SageMaker IA: respuestas a preguntas distribuidas](https://github.com/huggingface/notebooks/blob/master/sagemaker/03_distributed_training_data_parallelism/sagemaker-notebook.ipynb)
+ [HuggingFace Formación paralela sobre datos distribuidos PyTorch sobre la SageMaker IA: resumen de textos distribuidos](https://github.com/huggingface/notebooks/blob/master/sagemaker/08_distributed_summarization_bart_t5/sagemaker-notebook.ipynb)
+ [HuggingFace Formación paralela sobre datos distribuidos TensorFlow sobre la IA SageMaker ](https://github.com/huggingface/notebooks/blob/master/sagemaker/07_tensorflow_distributed_training_data_parallelism/sagemaker-notebook.ipynb)