Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
PyTorch
Implementa il tuo PyTorch modello all' SageMaker intelligenza artificiale ed esegui il processo di formazione con Training Compiler SageMaker .
PyTorch Modelli con Hugging Face Transformers
PyTorch i modelli con Hugging Face TransformersPyTorch o lo HuggingFace stimatore con la configurazione SageMaker Training Compiler quando passerai all'argomento successivo all'indirizzo. Abilita SageMaker Training Compiler
Suggerimento
Quando si crea un tokenizzatore per un modello NLP utilizzando Transformers nello script di addestramento, assicurarsi di utilizzare una forma di tensore di input statica specificando padding='max_length'. Non utilizzare padding='longest', in quanto il padding sulla sequenza più lunga del batch può modificare la forma del tensore per ogni batch di addestramento. La forma di input dinamica può attivare la ricompilazione del modello e aumentare il tempo totale di addestramento. Per ulteriori informazioni sulle opzioni di riempimento dei tokenizzatori Transformers, vedere Padding and troncation
Argomenti
Modelli linguistici di grandi dimensioni che utilizzano la classe Trainer Hugging Face Transformers
Se utilizzi la classe Trainer della libreria transformers, non devi apportare ulteriori modifiche allo script di allenamento. SageMaker Training Compiler compila automaticamente il modello Trainer se lo abiliti tramite la classe estimator. Il codice seguente mostra la forma base di uno script di PyTorch formazione con l'API Hugging Face Trainer.
from transformers import Trainer, TrainingArguments training_args=TrainingArguments(**kwargs) trainer=Trainer(args=training_args, **kwargs)
Argomenti
Per l’addestramento su una singola GPU
Non è necessario modificare il codice quando utilizzi la classe transformers.Trainer
Per l’addestramento distribuito
PyTorch v1.11.0 e versioni successive
Per eseguire un addestramento distribuito con SageMaker Training Compiler, è necessario aggiungere la seguente _mp_fn() funzione nello script di allenamento e completare la funzione. main() Reindirizza le chiamate di _mp_fn(index) funzione dal runtime distribuito SageMaker AI for PyTorch (pytorchxla) alla main() funzione dello script di addestramento.
def _mp_fn(index): main()
Questa funzione accetta l'argomento index per indicare la classe della GPU corrente nel cluster per l'addestramento distribuito. Per trovare altri script di esempio, vedi gli script di esempio di modellazione del linguaggio Hugging Face Transformers
Per Transformers v4.17 e precedenti con v1.10.2 e precedenti PyTorch
SageMaker Training Compiler utilizza un meccanismo alternativo per avviare un processo di formazione distribuito e non è necessario apportare alcuna modifica allo script di formazione. SageMaker Training Compiler richiede invece di passare uno script di avvio del training distribuito basato sull' SageMaker intelligenza artificiale all'entry_pointargomento e di passare lo script di addestramento all'hyperparametersargomento nello stimatore SageMaker AI Hugging Face.
Migliori pratiche per utilizzare Training Compiler con SageMaker Trainer
-
Assicurati di utilizzare gli SyncFree ottimizzatori impostando l'
optimargomento suadamw_torch_xladurante la configurazione dei trasformatori. TrainingArgument. Vedi anche Ottimizzatore nella documentazione di Hugging Face Transformers. -
Assicurati che il throughput della pipeline di elaborazione dei dati sia superiore al throughput di addestramento. Puoi modificare gli
preprocessing_num_workersargomentidataloader_num_workerse dei trasformatori. TrainingArgumentclasse per raggiungere questo obiettivo. In genere, questi devono essere maggiori o uguali al numero di GPUs ma inferiore al numero di CPUs.
Dopo aver completato l'adattamento dello script di addestramento, procedi con Esecuzione PyTorch di lavori di formazione con SageMaker Training Compiler.
Modelli linguistici di grandi dimensioni utilizzati PyTorch direttamente (senza l'API Hugging Face Transformers Trainer)
Se si dispone di uno script di formazione che utilizza PyTorch direttamente, è necessario apportare ulteriori modifiche allo script di formazione per implementare /XLA. PyTorch PyTorch Segui le istruzioni per modificare lo script in modo da configurare correttamente le primative /XLA. PyTorch
Argomenti
Per l’addestramento su una singola GPU
-
Importa le librerie di ottimizzazione.
import torch_xla import torch_xla.core.xla_model as xm -
Cambia il dispositivo di destinazione in XLA anziché
torch.device("cuda")device=xm.xla_device() -
Se utilizzi Automatic PyTorch Mixed Precision
(AMP), procedi come segue: -
Sostituisci
torch.cuda.ampcon i seguenti:import torch_xla.amp -
Sostituisci
torch.optim.SGDetorch.optim.Adamcon una delle seguenti opzioni:import torch_xla.amp.syncfree.Adam as adam import torch_xla.amp.syncfree.SGD as SGD -
Sostituisci
torch.cuda.amp.GradScalercon i seguenti:import torch_xla.amp.GradScaler as grad_scaler
-
-
Se non utilizzi AMP, sostituisci
optimizer.step()con quanto segue:xm.optimizer_step(optimizer) -
Se stai usando un dataloader distribuito, inserisci il tuo dataloader nella classe /XLA PyTorch:
ParallelLoaderimport torch_xla.distributed.parallel_loader as pl parallel_loader=pl.ParallelLoader(dataloader, [device]).per_device_loader(device) -
Aggiungi
mark_stepalla fine del ciclo di addestramento quando non utilizziparallel_loader:xm.mark_step() -
Per verificare la tua formazione, usa il metodo di checkpoint del modello /XLA: PyTorch
xm.save(model.state_dict(), path_to_save)
Dopo aver completato l'adattamento dello script di addestramento, procedi con Esecuzione PyTorch di lavori di formazione con SageMaker Training Compiler.
Per l’addestramento distribuito
Oltre alle modifiche elencate nella Per l’addestramento su una singola GPU sezione precedente, aggiungi le seguenti modifiche per distribuire correttamente il carico di lavoro. GPUs
-
Se utilizzi AMP, aggiungi
all_reducedoposcaler.scale(loss).backward():gradients=xm._fetch_gradients(optimizer) xm.all_reduce('sum', gradients, scale=1.0/xm.xrt_world_size()) -
Se devi impostare variabili per
local_rankseworld_size, usa un codice simile al seguente:local_rank=xm.get_local_ordinal() world_size=xm.xrt_world_size() -
Per qualsiasi valore
world_size(num_gpus_per_node*num_nodes) maggiore di1, devi definire un campionatore di addestramento che dovrebbe essere simile al seguente:import torch_xla.core.xla_model as xm if xm.xrt_world_size() > 1: train_sampler=torch.utils.data.distributed.DistributedSampler( train_dataset, num_replicas=xm.xrt_world_size(), rank=xm.get_ordinal(), shuffle=True ) train_loader=torch.utils.data.DataLoader( train_dataset, batch_size=args.batch_size, sampler=train_sampler, drop_last=args.drop_last, shuffle=False if train_sampler else True, num_workers=args.num_workers ) -
Apporta le seguenti modifiche per assicurarti di utilizzare il
parallel_loaderfornito dal modulotorch_xla distributed.import torch_xla.distributed.parallel_loader as pl train_device_loader=pl.MpDeviceLoader(train_loader, device)Le
train_device_loaderfunzioni, come un normale PyTorch caricatore, sono le seguenti:for step, (data, target) in enumerate(train_device_loader): optimizer.zero_grad() output=model(data) loss=torch.nn.NLLLoss(output, target) loss.backward()Con tutte queste modifiche, dovresti essere in grado di avviare la formazione distribuita con qualsiasi PyTorch modello senza l'API Transformer Trainer. Tieni presente che queste istruzioni possono essere utilizzate sia per GPU multi-nodo che per GPU multi-nodo.
-
Per la versione 1.11.0 e PyTorch successive
Per eseguire un addestramento distribuito con SageMaker Training Compiler, è necessario aggiungere la seguente
_mp_fn()funzione nello script di allenamento e completare la funzione.main()Reindirizza le chiamate di_mp_fn(index)funzione dal runtime distribuito SageMaker AI for PyTorch (pytorchxla) allamain()funzione dello script di addestramento.def _mp_fn(index): main()Questa funzione accetta l'argomento
indexper indicare la classe della GPU corrente nel cluster per l'addestramento distribuito. Per trovare altri script di esempio, vedi gli script di esempio di modellazione del linguaggio Hugging Face Transformers. Per Transformers v4.17 e precedenti con v1.10.2 e precedenti PyTorch
SageMaker Training Compiler utilizza un meccanismo alternativo per avviare un processo di formazione distribuito e richiede di passare uno script di avvio del training distribuito SageMaker basato sull'intelligenza artificiale all'
entry_pointargomento e di passare lo script di formazione all'argomento nello stimatore AI SageMaker Hugging Face.hyperparameters
Dopo aver completato l'adattamento dello script di addestramento, procedi con Esecuzione PyTorch di lavori di formazione con SageMaker Training Compiler.
Procedure consigliate per utilizzare Training Compiler con /XLA SageMaker PyTorch
Se desideri sfruttare il SageMaker Training Compiler sul tuo script di PyTorch formazione nativo, potresti innanzitutto prendere confidenza con i dispositivi XLA. PyTorch
Nota
Questa sezione dedicata alle best practice presuppone l'utilizzo dei seguenti moduli PyTorch /XLA:
import torch_xla.core.xla_model as xm import torch_xla.distributed.parallel_loader as pl
Comprendi la modalità pigra in /XLA PyTorch
Una differenza significativa tra PyTorch /XLA e native PyTorch è che il sistema PyTorch /XLA funziona in modalità pigra mentre quella nativa funziona in modalità eager. PyTorch I tensori in modalità lazy sono segnaposto per la creazione del grafico di calcolo fino a quando non vengono materializzati dopo il completamento della compilazione e della valutazione. Il sistema PyTorch /XLA crea il grafico computazionale al volo quando si chiama per creare il calcolo utilizzando tensori e operatori. PyTorch APIs Il grafico di calcolo viene compilato ed eseguito quando xm.mark_step() viene chiamato esplicitamente o implicitamente da pl.MpDeviceLoader/pl.ParallelLoader, o quando richiedi esplicitamente il valore di un tensore, ad esempio chiamando loss.item() o print(loss).
pl.MpDeviceLoader/pl.ParallelLoaderRiduci compilation-and-executionsal minimo il numero di utilizzi e xm.step_closure
Per ottenere prestazioni ottimali, è necessario tenere presente i possibili modi di avvio compilation-and-executionsdescritti in Comprendi la modalità pigra in /XLA PyTorch e cercare di ridurre al minimo il numero di compilation-and-executions. Idealmente, ne compilation-and-execution è necessaria una sola per iterazione dell'allenamento e viene avviata automaticamente da. pl.MpDeviceLoader/pl.ParallelLoader MpDeviceLoader è ottimizzato per XLA e dovrebbe essere sempre utilizzato, se possibile, per ottenere le migliori prestazioni. Durante l'addestramento, potresti voler esaminare alcuni risultati intermedi come i valori di perdita. In tal caso, la stampa di tensori pigri dovrebbe essere avvolta utilizzando per evitare che non sia necessario. xm.add_step_closure() compilation-and-executions
Usa gli ottimizzatori AMP e syncfree
L'allenamento in modalità Automatic Mixed Precision (AMP) accelera notevolmente la velocità di allenamento sfruttando i core Tensor di NVIDIA. GPUs SageMaker Training Compiler fornisce syncfree ottimizzatori ottimizzati per XLA per migliorare le prestazioni AMP. Attualmente sono disponibili i seguenti tre ottimizzatori syncfree che dovrebbero essere utilizzati se possibile per ottenere le migliori prestazioni.
torch_xla.amp.syncfree.SGD torch_xla.amp.syncfree.Adam torch_xla.amp.syncfree.AdamW
Questi ottimizzatori syncfree devono essere abbinati con torch_xla.amp.GradScaler per il ridimensionamento del gradiente.
Suggerimento
A partire dalla PyTorch versione 1.13.1, SageMaker Training Compiler migliora le prestazioni consentendo a PyTorch /XLA di sovrascrivere automaticamente gli ottimizzatori (come SGD, Adam, AdamW) in torch.optim o transformers.optimization con le loro versioni prive di sincronizzazione (come,,). torch_xla.amp.syncfree torch_xla.amp.syncfree.SGD torch_xla.amp.syncfree.Adam torch_xla.amp.syncfree.AdamW Non è necessario modificare le righe di codice in cui si definiscono gli ottimizzatori nello script di addestramento.