Instancias en la nube - Amazon SageMaker AI

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Instancias en la nube

Amazon SageMaker Neo admite marcos de machine learning de uso generalizado, como TensorFlow, PyTorchy MXNet, entre otros. Puede implementar su modelo compilado en instancias de nube e instancias de Inferentia AWS. Para obtener una lista completa de los marcos y tipos de instancias compatibles, consulte Marcos y tipos de instancias compatibles.

Puede compilar el modelo de tres maneras: a través de AWS CLI, consola de SageMaker AI o el SDK de SageMaker AI para Python. Consulte Uso de Neo para compilar un modelo para obtener más información. Una vez compilados, los artefactos del modelo se almacenan en el URI del bucket de Amazon S3 que haya especificado durante el trabajo de compilación. Puede implementar su modelo compilado en instancias de nube e instancias de Inferentia AWS mediante el SDK de SageMaker AI para Python, AWS SDK para Python (Boto3), AWS CLI o la consola AWS.

Si implementa el modelo mediante AWS CLI, la consola o Boto3, debe seleccionar un URI de Amazon ECR de imagen de Docker para su contenedor principal. Consulte Imágenes de contenedor de inferencias de Neo para obtener una lista de URI de Amazon ECR.