

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Framework supportati e Regioni AWS
<a name="distributed-model-parallel-support-v2"></a>

Prima di utilizzare la SageMaker model parallelism library v2 (SMP v2), controlla i framework e i tipi di istanza supportati e determina se ci sono quote sufficienti nel tuo account e. AWS Regione AWS

**Nota**  
Per controllare gli ultimi aggiornamenti e le note di rilascio della libreria, consulta [Note di rilascio per la libreria di parallelismo dei SageMaker modelli](model-parallel-release-notes.md).

## Framework supportati
<a name="distributed-model-parallel-supported-frameworks-v2"></a>

SMP v2 supporta i seguenti framework di deep learning ed è disponibile tramite i container Docker SMP e un canale Conda di SMP. Quando si utilizzano le classi di stima del framework in SageMaker Python SDK e si specifica la configurazione di distribuzione per utilizzare SMP v2 SageMaker , AI preleva automaticamente i contenitori SMP Docker. Per usare SMP v2, ti consigliamo di mantenere sempre aggiornato l'SDK SageMaker Python nel tuo ambiente di sviluppo.

**PyTorch versioni supportate dalla libreria Model SageMaker Parallelism**

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/distributed-model-parallel-support-v2.html)

**Canale Conda di SMP**

Il seguente bucket Amazon S3 è un canale Conda pubblico ospitato dal team di assistenza SMP. Se desideri installare la libreria SMP v2 in un ambiente come SageMaker HyperPod i cluster, usa questo canale Conda per installare correttamente la libreria SMP.

```
https://sagemaker-distributed-model-parallel.s3.us-west-2.amazonaws.com/smp-v2/
```

Per ulteriori informazioni sui canali Conda in generale, consulta [Canali](https://docs.conda.io/projects/conda/en/latest/user-guide/concepts/channels.html) nella *documentazione di Conda*.

**Nota**  
*Per trovare le versioni precedenti della libreria SMP v1.x e quelle DLCs preconfezionate, consultate la documentazione SMP v1. [Framework supportati](distributed-model-parallel-support.md#distributed-model-parallel-supported-frameworks)*

### Utilizzo di SMP v2 con librerie open source
<a name="distributed-model-parallel-supported-frameworks-v2-open-source"></a>

La libreria SMP v2 funziona con altre PyTorch librerie open source come PyTorch Lightning, Hugging Face Transformers e Hugging Face Accelerate, poiché SMP v2 è compatibile con FSDP. PyTorch APIs Se hai ulteriori domande sull’utilizzo della libreria SMP con altre librerie di terze parti, contatta il team di assistenza SMP all’indirizzo `sm-model-parallel-feedback@amazon.com`.

## Regioni AWS
<a name="distributed-model-parallel-availablity-zone-v2"></a>

SMP v2 è disponibile nelle versioni seguenti. Regioni AWS Se desideri utilizzare l'immagine SMP Docker URIs o il canale SMP Conda, controlla il seguente elenco e scegli quello Regione AWS che corrisponde al tuo e aggiorna l'URI dell'immagine o l'URL del canale di conseguenza.
+ ap-northeast-1
+ ap-northeast-2
+ ap-northeast-3
+ ap-south-1
+ ap-southeast-1
+ ap-southeast-2
+ ca-central-1
+ eu-central-1
+ eu-north-1
+ eu-west-1
+ eu-west-2
+ eu-west-3
+ sa-east-1
+ us-east-1
+ us-east-2
+ us-west-1
+ us-west-2

## Tipi di istanze supportati
<a name="distributed-model-parallel-supported-instance-types-v2"></a>

SMP v2 richiede uno dei seguenti tipi di istanza ML.


| Tipo di istanza | 
| --- | 
| ml.p4d.24xlarge | 
| ml.p4de.24xlarge | 
| ml.p5.48xlarge | 
| ml.p5e.48xlarge | 

**Suggerimento**  
A partire da SMP v2.2.0, è disponibile il supporto PyTorch per la versione 2.2.0 e successive. [Addestramento di precisione misto con nessuna istanza P5 utilizzando Transformer Engine FP8](model-parallel-core-features-v2-mixed-precision.md#model-parallel-core-features-v2-mixed-precision-fp8-training-on-p5)

Per le specifiche dei tipi di istanze di SageMaker machine learning in generale, consulta la sezione **Accelerated Computing** nella pagina Tipi di [istanze Amazon EC2](https://aws.amazon.com/ec2/instance-types/). Per informazioni sui prezzi delle istanze, consulta la pagina [dei prezzi di Amazon SageMaker AI](https://aws.amazon.com/sagemaker/pricing/).

Se hai ricevuto un messaggio di errore simile al seguente, applica le istruzioni fornite nella sezione [Richiesta di aumento delle quote](https://docs.aws.amazon.com/servicequotas/latest/userguide/request-quota-increase.html) nella *Guida per l’utente di AWS Service Quotas*.

```
ResourceLimitExceeded: An error occurred (ResourceLimitExceeded) when calling
    the CreateTrainingJob operation: The account-level service limit 'ml.p3dn.24xlarge
    for training job usage' is 0 Instances, with current utilization of 0 Instances
    and a request delta of 1 Instances.
    Please contact AWS support to request an increase for this limit.
```