本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
云实例
Amazon SageMaker Neo 为 TensorFlow、PyTorch、MXNet 等常用的机器学习框架提供编译支持。您可以将编译后的模型部署到云实例和 AWS Inferentia 实例。有关支持的框架和实例类型的完整列表,请参阅支持的实例类型和框架。
您可以通过以下三种方式之一编译模型:AWS CLI、SageMaker AI 控制台或适用于 Python 的 SageMaker AI SDK。有关更多信息,请参阅使用 Neo 编译模型。编译完成后,您的模型构件将存储在您在编译作业期间指定的 Amazon S3 桶 URI 中。您可以使用适用于 Python 的 SageMaker AI SDK、适用于 Python (Boto3) 的 AWS SDK、AWS CLI 或 AWS 管理控制台,将编译后的模型部署到云实例和 AWS Inferentia 实例。
如果您使用 AWS CLI、控制台或 Boto3 部署模型,则必须为主容器选择 Docker 映像 Amazon ECR URI。有关 Amazon ECR URI 的列表,请参阅 Neo 推理容器映像。