

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Esempi di Amazon SageMaker AI Model Parallelism Library v2
<a name="distributed-model-parallel-v2-examples"></a>

Questa pagina fornisce un elenco di blog e notebook Jupyter che presentano esempi pratici di implementazione della libreria SageMaker Model Parallelism (SMP) v2 per eseguire lavori di formazione distribuiti sull'intelligenza artificiale. SageMaker 

## Blog e casi di studio
<a name="distributed-model-parallel-v2-examples-blog"></a>

I seguenti blog illustrano casi di studio relativi all’utilizzo di SMP v2.
+ [La libreria parallela di modelli Amazon SageMaker AI ora accelera i carichi di lavoro PyTorch FSDP fino al 20%](https://aws.amazon.com/blogs/machine-learning/amazon-sagemaker-model-parallel-library-now-accelerates-pytorch-fsdp-workloads-by-up-to-20/)

## PyTorch taccuini di esempio
<a name="distributed-model-parallel-examples-v2-pytorch"></a>

[I taccuini di esempio sono disponibili nell'archivio degli esempi AI. SageMaker GitHub ](https://github.com/aws/amazon-sagemaker-examples/tree/master/training/distributed_training/) Per scaricare gli esempi, esegui il comando seguente per clonare il repository e accedere a `training/distributed_training/pytorch/model_parallel_v2`.

**Nota**  
Clona ed esegui i notebook di esempio nel seguente AI ML. SageMaker IDEs  
[SageMaker JupyterLab](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated-jl.html)(disponibile in [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) creato dopo dicembre 2023)
[SageMaker Code Editor](https://docs.aws.amazon.com/sagemaker/latest/dg/code-editor.html) (disponibile in [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) creato dopo dicembre 2023)
[Studio Classic](https://docs.aws.amazon.com/sagemaker/latest/dg/studio.html) (disponibile come applicazione in [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) creata dopo dicembre 2023)
[SageMaker Istanze Notebook](https://docs.aws.amazon.com/sagemaker/latest/dg/nbi.html)

```
git clone https://github.com/aws/amazon-sagemaker-examples.git
cd amazon-sagemaker-examples/training/distributed_training/pytorch/model_parallel_v2
```

**Notebook di esempio SMP v2**
+ [Accelera l'addestramento di Llama v2 con SMP v2, PyTorch FSDP e Transformer Engine eseguendo la formazione su istanze P5 FP8 ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel_v2/llama_v2/smp-train-llama-fsdp-tp-fp8.ipynb)
+ [Ottimizza Llama v2 con SMP v2 e FSDP su larga scala utilizzando il parallelismo tensoriale, lo sharding ibrido e l'offload di attivazione PyTorch ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel_v2/llama_v2/smp-finetuning-llama-fsdp-tp.ipynb)
+ [Addestra GPT-Neox con SMP v2 PyTorch e FSDP su larga scala](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel_v2/gpt-neox/smp-train-gpt-neox-fsdp-tp.ipynb)
+ [Ottimizza GPT-Neox con SMP v2 e FSDP su larga scala utilizzando il parallelismo tensoriale, lo sharding ibrido e l'offload di attivazione PyTorch ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel_v2/gpt-neox/smp-finetuning-gpt-neox-fsdp-tp.ipynb)