Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Comience con la formación distribuida en Amazon SageMaker AI
En la siguiente página se proporciona información sobre los pasos necesarios para empezar con la formación distribuida en Amazon SageMaker AI. Si ya conoce el entrenamiento distribuido, seleccione una de las siguientes opciones que se adapte a su estrategia o marco preferido para empezar. Si desea obtener más información sobre el entrenamiento distribuido en general, consulte Conceptos de entrenamiento distribuido.
Las bibliotecas de formación distribuidas sobre SageMaker IA están optimizadas para el entorno de SageMaker formación, ayudan a adaptar sus tareas de formación distribuidas a la SageMaker IA y mejoran la velocidad y el rendimiento de la formación. Las bibliotecas ofrecen estrategias de entrenamiento de paralelismo de datos y paralelismo de modelos. Combinan tecnologías de software y hardware para mejorar las comunicaciones entre GPU y entre nodos, y amplían las capacidades de entrenamiento de la SageMaker IA con opciones integradas que requieren cambios mínimos de código en los guiones de entrenamiento.
Antes de empezar
SageMaker La formación admite la formación distribuida en una sola instancia y en varias instancias, por lo que puede impartir formación de cualquier tamaño a escala. Le recomendamos que utilice las clases estimadoras del marco, como PyTorchCreateTrainingJob API en el backend, encuentra la región en la que se está ejecutando la sesión actual y extrae uno de los contenedores de aprendizaje AWS profundo prediseñados y empaquetados con una serie de bibliotecas que incluyen marcos de aprendizaje profundo, marcos de entrenamiento distribuidos y el controlador EFA. Si desea montar un sistema de FSx archivos en las instancias de entrenamiento, debe pasar su ID de subred de VPC y grupo de seguridad al estimador. Antes de realizar tu trabajo de formación distribuida en SageMaker IA, lee las siguientes instrucciones generales sobre la configuración básica de la infraestructura.
Zonas de disponibilidad y plano posterior de red
Cuando se utilizan varias instancias (también denominadas nodos), es importante entender la red que conecta las instancias, cómo leen los datos de entrenamiento y cómo comparten la información entre sí. Por ejemplo, cuando ejecuta un trabajo de formación en paralelo con datos distribuidos, varios factores, como la comunicación entre los nodos de un clúster de procesamiento para ejecutar la AllReduce operación y la transferencia de datos entre los nodos y el almacenamiento de datos en Amazon Simple Storage Service o Amazon FSx for Lustre, desempeñan un papel crucial para lograr un uso óptimo de los recursos informáticos y una velocidad de entrenamiento más rápida. Para reducir la sobrecarga de comunicación, asegúrate de configurar las instancias, la subred de VPC y el almacenamiento de datos en la misma Región de AWS zona y en la zona de disponibilidad.
Instancias de GPU con una red más rápida y un almacenamiento de alto rendimiento
Técnicamente, puede utilizar cualquier instancia para un entrenamiento distribuido. En los casos en los que necesites realizar tareas de formación distribuidas en varios nodos para entrenar modelos grandes, como modelos lingüísticos de gran tamaño (LLMs) y modelos de difusión, que requieren una conmutación más rápida entre nodos, te recomendamos las instancias de GPU compatibles con EFA y compatibles con la IA. SageMaker
Utilice la biblioteca de paralelismo de datos distribuidos (SMDDP) de SageMaker IA
La biblioteca SMDDP mejora la comunicación entre los nodos con implementaciones AllReduce y operaciones de comunicación AllGather colectiva optimizadas para la infraestructura de AWS red y la topología de instancias de Amazon SageMaker AI ML. Puede utilizar la biblioteca SMDDP como backend de los paquetes de formación distribuidos PyTorch basados en PyTorch datos: distributed data parallel (DDP), PyTorch fully sharded data paralelism (PyTorch para inicializar un trabajo de entrenamiento distribuido en dos instancias de ml.p4d.24xlarge.
from sagemaker.pytorch import PyTorch estimator = PyTorch( ..., instance_count=2, instance_type="ml.p4d.24xlarge", # Activate distributed training with SMDDP distribution={ "pytorchddp": { "enabled": True } } # mpirun, activates SMDDP AllReduce OR AllGather # distribution={ "torch_distributed": { "enabled": True } } # torchrun, activates SMDDP AllGather # distribution={ "smdistributed": { "dataparallel": { "enabled": True } } } # mpirun, activates SMDDP AllReduce OR AllGather )
Para obtener información sobre cómo preparar su guion de formación y lanzar un trabajo de formación en paralelo con datos distribuidos sobre SageMaker IA, consulteRealice un entrenamiento distribuido con la biblioteca de paralelismo de datos distribuidos de SageMaker IA.
Utilice la biblioteca de paralelismo de modelos de SageMaker IA (SMP)
SageMaker La IA proporciona la biblioteca SMP y admite diversas técnicas de entrenamiento distribuidas, como el paralelismo de datos fragmentados, la canalización, el paralelismo tensorial, la fragmentación del estado del optimizador y más. Para obtener más información sobre lo que ofrece la biblioteca SMP, consulte Características principales de la biblioteca de paralelismo de SageMaker modelos.
Para utilizar la biblioteca de paralelismo de modelos de SageMaker AI, configure el parámetro de los estimadores del marco de IA. distribution SageMaker Los estimadores de marcos compatibles son y. PyTorchTensorFlowml.p4d.24xlarge.
from sagemaker.frameworkimportFrameworkdistribution={ "smdistributed": { "modelparallel": { "enabled":True, "parameters": { ... # enter parameter key-value pairs here } }, }, "mpi": { "enabled" : True, ... # enter parameter key-value pairs here } } estimator =Framework( ..., instance_count=2, instance_type="ml.p4d.24xlarge", distribution=distribution )
Para aprender a adaptar tu guion de entrenamiento, configurar los parámetros de distribución en la estimator clase y lanzar un trabajo de entrenamiento distribuido, consulta la biblioteca de paralelismo de modelos de SageMaker IA (consulta también Entrenamiento distribuido
Utilice marcos de entrenamiento distribuido de código abierto
SageMaker La IA también admite las siguientes opciones de funcionamiento mpirun y torchrun en el backend.
-
Para usar PyTorch DistributedDataParallel (DDP)
en SageMaker IA con el mpirunbackend, añádelodistribution={"pytorchddp": {"enabled": True}}a tu estimador. PyTorch Para obtener más información, consulta también eldistributionargumento de PyTorch Distributed Trainingy SageMaker AI PyTorch Estimator en la documentación del SDK de SageMaker Python. nota
Esta opción está disponible para la versión PyTorch 1.12.0 y versiones posteriores.
from sagemaker.pytorch import PyTorch estimator = PyTorch( ..., instance_count=2, instance_type="ml.p4d.24xlarge", distribution={"pytorchddp": {"enabled": True}} # runs mpirun in the backend ) -
SageMaker La IA es compatible con el PyTorch
torchrunlanzadorpara el entrenamiento distribuido en instancias Amazon EC2 basadas en GPU, como P3 y P4, así como en Trn1 con la tecnología del dispositivo Trainium.AWS Para usar PyTorch DistributedDataParallel (DDP) en IA con el backend, añádalo
al estimador. SageMaker torchrundistribution={"torch_distributed": {"enabled": True}}PyTorchnota
Esta opción está disponible para la versión 1.13.0 y versiones posteriores PyTorch .
En el siguiente fragmento de código se muestra un ejemplo de creación de un PyTorch estimador de SageMaker IA para ejecutar un entrenamiento distribuido en dos
ml.p4d.24xlargeinstancias con la opción de distribución.torch_distributedfrom sagemaker.pytorch import PyTorch estimator = PyTorch( ..., instance_count=2, instance_type="ml.p4d.24xlarge", distribution={"torch_distributed": {"enabled": True}} # runs torchrun in the backend )Para obtener más información, consulta el
distributionargumento de Distributed PyTorch Trainingy SageMaker AI PyTorch Estimator en la documentación del SDK de SageMaker Python. Notas para el entrenamiento distribuido en Trn1
Una instancia de Trn1 consta de un máximo de 16 dispositivos Trainium y cada dispositivo de Trainium consta de dos. NeuronCores
Para ver las especificaciones de los dispositivos Trainium, consulte la AWS arquitectura de Trainium en la documentación de Neuron.AWS Para aprender sobre las instancias con tecnología Trainium, solo necesita especificar el código de la instancia Trn1, en cadena con el argumento de la clase AI
ml.trn1.*estimator.instance_typeSageMaker PyTorch Para encontrar los tipos de instancias Trn1 disponibles, consulte AWS Arquitectura de Trn1en la documentación de Neuron de AWS . nota
SageMaker Actualmente, la formación sobre las instancias Trn1 de Amazon EC2 solo está disponible para el PyTorch marco en AWS Deep Learning Containers for Neuron a partir de la versión 1.11.0. PyTorch Para obtener una lista completa de las versiones compatibles de PyTorch Neuron, consulte Neuron Containers
en el repositorio de AWS Deep Learning Containers GitHub . Cuando lanzas un trabajo de formación en instancias Trn1 con el SDK de SageMaker Python, la SageMaker IA selecciona y ejecuta automáticamente el contenedor correcto de los contenedores Neuron
proporcionados por AWS Deep Learning Containers. Los contenedores Neuron vienen preempaquetados con la configuración y las dependencias del entorno de formación para facilitar la adaptación del trabajo de formación a la plataforma de formación y a las instancias SageMaker Trn1 de Amazon EC2. nota
Para ejecutar su trabajo de PyTorch entrenamiento en instancias Trn1 con SageMaker IA, debe modificar el script de entrenamiento para inicializar los grupos de procesos con el backend y usar /XLA.
xlaPyTorchPara respaldar el proceso de adopción de XLA, el SDK de Neuron incluye AWS PyTorch Neuron, que utiliza XLA para convertir las operaciones en instrucciones de Trainium. PyTorch Para obtener información sobre cómo modificar el guion de entrenamiento, consulte la Guía para desarrolladores sobre el entrenamiento con PyTorch Neuron () en la documentación de Neuron. torch-neuronxAWS Para obtener más información, consulta Entrenamiento distribuido con PyTorch Neuron en instancias Trn1
y el argumento de SageMaker AI PyTorch Estimator distributionen la documentación del SDK de Python. SageMaker -
Para usar MPI en SageMaker IA, agrégalo a tu estimador.
distribution={"mpi": {"enabled": True}}La opción de distribución de MPI está disponible para los siguientes marcos: MXNet, y. PyTorch TensorFlow -
Para usar un servidor de parámetros en SageMaker IA, agréguelo
distribution={"parameter_server": {"enabled": True}}a su estimador. La opción de servidor de parámetros está disponible para los siguientes marcos: MXNet PyTorch, y. TensorFlowsugerencia
Para obtener más información sobre el uso de las opciones de MPI y servidor de parámetros por marco, utilice los siguientes enlaces a la documentación del SDK de SageMaker Python.
-
MXNet El argumento de Distributed Training
y SageMaker AI MXNet Estimator distribution -
PyTorch El argumento de Distributed Training
y SageMaker AI PyTorch Estimator distribution -
TensorFlow El argumento de Distributed Training
y SageMaker AI TensorFlow Estimator . distribution
-