

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Exemples de bibliothèque de parallélisme de modèles Amazon SageMaker AI v1
<a name="distributed-model-parallel-examples"></a>

Cette page fournit une liste de blogs et de blocs-notes Jupyter présentant des exemples pratiques d'implémentation de la bibliothèque de parallélisme des SageMaker modèles (SMP) v1 pour exécuter des tâches de formation distribuées sur l'IA. SageMaker 

## Blogs et études de cas
<a name="distributed-model-parallel-examples-blog"></a>

Les blogs suivants traitent d’études de cas sur l’utilisation de SMP v1.
+ [Nouvelles améliorations des performances de la bibliothèque de parallélisme de modèles Amazon SageMaker AI](https://aws.amazon.com/blogs/machine-learning/new-performance-improvements-in-amazon-sagemaker-model-parallel-library/), *AWS Machine Learning Blog* (16 décembre 2022)
+ [Entraînez des modèles gigantesques avec une mise à l'échelle quasi linéaire à l'aide du parallélisme de données fragmenté sur SageMaker Amazon](https://aws.amazon.com/blogs/machine-learning/train-gigantic-models-with-near-linear-scaling-using-sharded-data-parallelism-on-amazon-sagemaker/) AI, *Machine AWS Learning* Blog (31 octobre 2022)

## Exemples de blocs-notes
<a name="distributed-model-parallel-examples-pytorch"></a>

Des carnets d'exemples sont fournis dans le [ GitHub référentiel d'exemples d'SageMaker IA](https://github.com/aws/amazon-sagemaker-examples/tree/master/training/distributed_training/). Pour les télécharger, exécutez la commande suivante afin de cloner le référentiel et d’accéder à `training/distributed_training/pytorch/model_parallel`.

**Note**  
Clonez et exécutez les exemples de blocs-notes dans l' SageMaker AI ML IDEs suivant.  
[SageMaker JupyterLab](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated-jl.html)(disponible dans [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) créé après décembre 2023)
[SageMaker Éditeur de code](https://docs.aws.amazon.com/sagemaker/latest/dg/code-editor.html) (disponible dans [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) créé après décembre 2023)
[Studio Classic](https://docs.aws.amazon.com/sagemaker/latest/dg/studio.html) (disponible sous forme d’application dans [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html), créé après décembre 2023)
[SageMaker Instances d'ordinateurs portables](https://docs.aws.amazon.com/sagemaker/latest/dg/nbi.html)

```
git clone https://github.com/aws/amazon-sagemaker-examples.git
cd amazon-sagemaker-examples/training/distributed_training/pytorch/model_parallel
```

**Exemples de blocs-notes SMP v1 pour PyTorch**
+ [Entraînez le GPT-2 avec une mise à l'échelle quasi linéaire à l'aide de la technique de parallélisme de données fragmentée de la bibliothèque de parallélisme du modèle SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/gpt2/smp-train-gpt-sharded-data-parallel.ipynb)
+ [Ajustez le GPT-2 avec une mise à l'échelle quasi linéaire à l'aide de la technique de parallélisme des données fragmentée dans la bibliothèque de parallélisme des modèles SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/gpt2/smp-fine-tune-gpt-sharded-data-parallel.ipynb)
+ [Entraînez le GPT-NeoX-20b avec une mise à l'échelle quasi linéaire à l'aide de la technique de parallélisme de données fragmentée de la bibliothèque de parallélisme de modèles SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/gpt-neox/smp-train-gpt-neox-sharded-data-parallel.ipynb)
+ [Entraînez le GPT-J 6B en utilisant les techniques de parallélisme des données fragmentées et de parallélisme des tenseurs de la bibliothèque de parallélisme des modèles SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/gpt-j/smp-train-gptj-sharded-data-parallel-tp.ipynb)
+ [Entraînez le FLAN-T5 avec une mise à l'échelle quasi linéaire à l'aide de la technique de parallélisme de données fragmenté dans la bibliothèque de parallélisme du modèle SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/flan-t5/smp-train-t5-sharded-data-parallel.ipynb)
+ [Entraînez Falçon avec une mise à l'échelle quasi linéaire à l'aide de la technique de parallélisme de données fragmenté dans la bibliothèque de parallélisme des modèles SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/falcon/smp-train-falcon-sharded-data-parallel.ipynb)

**Exemples de blocs-notes SMP v1 pour TensorFlow**
+ [CNN avec TensorFlow 2.3.1 et la bibliothèque de parallélisme des SageMaker modèles](https://sagemaker-examples.readthedocs.io/en/latest/training/distributed_training/tensorflow/model_parallel/mnist/tensorflow_smmodelparallel_mnist.html)
+ [HuggingFace avec bibliothèque de parallélisme de modèles TensorFlow distribués Formation sur l'IA SageMaker ](https://github.com/huggingface/notebooks/blob/master/sagemaker/04_distributed_training_model_parallelism/sagemaker-notebook.ipynb)