(Archivado) Biblioteca de paralelismo de modelos de SageMaker v1.x - Amazon SageMaker AI

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

(Archivado) Biblioteca de paralelismo de modelos de SageMaker v1.x

importante

El 19 de diciembre de 2023, se lanzó la biblioteca de paralelismo de modelos de SageMaker (SMP) v2. Las capacidades de SMP v1 no se admiten en futuras versiones, en favor de la biblioteca de SMP v2. La sección y los temas siguientes están archivados y son específicos del uso de la biblioteca de SMP v1. Para obtener información acerca del uso de la biblioteca de SMP v2, consulte Biblioteca de paralelismo de modelos de SageMaker v2.

Utilice la biblioteca de paralelismo de modelos de Amazon SageMaker AI para entrenar modelos de aprendizaje profundo (DL) de gran tamaño que son difíciles de entrenar debido a las limitaciones de memoria de la GPU. La biblioteca divide un modelo de forma automática y eficiente en varias GPU e instancias. Con la biblioteca, puede lograr una precisión de predicción objetivo más rápido mediante el entrenamiento eficiente de modelos DL más grandes con miles de millones o billones de parámetros.

Puede utilizar la biblioteca para dividir automáticamente sus propios modelos TensorFlow y PyTorch en varias GPU y varios nodos con cambios de código mínimos. Puede acceder a la API de la biblioteca a través del SageMaker Python SDK.

Utilice las siguientes secciones para obtener más información sobre el paralelismo de modelos y la biblioteca de paralelismo de modelos de SageMaker. La documentación de la API de esta biblioteca se encuentra en las API de entrenamiento distribuido de la documentación del SageMaker Python SDK v2.199.0.