

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Beispiele für die Amazon SageMaker AI-Modellparallelismusbibliothek v2
<a name="distributed-model-parallel-v2-examples"></a>

Diese Seite enthält eine Liste von Blogs und Jupyter-Notebooks, die praktische Beispiele für die Implementierung der SageMaker Model Parallelism (SMP) -Bibliothek v2 zur Durchführung verteilter Trainingsaufgaben auf KI präsentieren. SageMaker 

## Blogs und Fallstudien
<a name="distributed-model-parallel-v2-examples-blog"></a>

In den folgenden Blogs werden Fallbeispiele zur Verwendung von SMP v2 behandelt.
+ [Die Amazon SageMaker AI Model Parallel Library beschleunigt PyTorch FSDP-Workloads jetzt um bis zu 20%](https://aws.amazon.com/blogs/machine-learning/amazon-sagemaker-model-parallel-library-now-accelerates-pytorch-fsdp-workloads-by-up-to-20/)

## PyTorch Beispiele für Notizbücher
<a name="distributed-model-parallel-examples-v2-pytorch"></a>

Beispiel-Notebooks finden Sie im [SageMaker AI Examples GitHub Repository](https://github.com/aws/amazon-sagemaker-examples/tree/master/training/distributed_training/). Führen Sie zum Herunterladen der Beispiele den folgenden Befehl aus, um das Repository zu klonen, und gehen Sie zu `training/distributed_training/pytorch/model_parallel_v2`.

**Anmerkung**  
Klonen Sie die Beispiel-Notebooks und führen Sie sie in der folgenden SageMaker AI ML aus IDEs.  
[SageMaker JupyterLab](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated-jl.html)(verfügbar in [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html), das nach Dezember 2023 erstellt wurde)
[SageMaker Code-Editor](https://docs.aws.amazon.com/sagemaker/latest/dg/code-editor.html) (verfügbar in [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html), das nach Dezember 2023 erstellt wurde)
[Studio Classic](https://docs.aws.amazon.com/sagemaker/latest/dg/studio.html) (verfügbar als Anwendung in [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html), das nach Dezember 2023 erstellt wurde)
[SageMaker Notebook-Instanzen](https://docs.aws.amazon.com/sagemaker/latest/dg/nbi.html)

```
git clone https://github.com/aws/amazon-sagemaker-examples.git
cd amazon-sagemaker-examples/training/distributed_training/pytorch/model_parallel_v2
```

**Beispiel-Notebooks zu SMP v2**
+ [Beschleunigen Sie das Training von Llama v2 mit SMP v2, PyTorch FSDP und Transformer Engine, indem Sie FP8 Schulungen auf P5-Instanzen durchführen](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel_v2/llama_v2/smp-train-llama-fsdp-tp-fp8.ipynb)
+ [Optimieren Sie Llama v2 mit SMP v2 und PyTorch FSDP im großen Maßstab mithilfe von Tensorparallelität, Hybrid-Sharding und Aktivierungs-Offloading](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel_v2/llama_v2/smp-finetuning-llama-fsdp-tp.ipynb)
+ [Trainieren Sie GPT-Neox mit SMP v2 und FSDP in großem Maßstab PyTorch ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel_v2/gpt-neox/smp-train-gpt-neox-fsdp-tp.ipynb)
+ [Optimieren Sie GPT-Neox mit SMP v2 und PyTorch FSDP im großen Maßstab mithilfe von Tensorparallelität, Hybrid-Sharding und Aktivierungs-Offloading](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel_v2/gpt-neox/smp-finetuning-gpt-neox-fsdp-tp.ipynb)