

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 雲端執行個體
<a name="neo-cloud-instances"></a>

Amazon SageMaker Neo 為熱門的機器學習架構提供編譯支援，例如 TensorFlow、PyTorch、MXNet 等。您可以將編譯好的模型部署到雲端執行個體和 AWS Inferentia 執行個體。如需完整的支援架構和執行個體類型清單，請參閱[支援的執行個體類型和架構](https://docs.aws.amazon.com/sagemaker/latest/dg/neo-supported-cloud.html)。

您可以使用以下三種方式之一來編譯模型：透過 AWS CLI、SageMaker AI 主控台，或適用於 Python 的 SageMaker AI SDK。如需更多資訊，請參閱[使用 Neo 編譯模型](https://docs.aws.amazon.com/sagemaker/latest/dg/neo-job-compilation.html)。編譯後，您的模型成品會存放在您在編譯任務期間指定的 Amazon S3 儲存貯體 URI 中。您可以使用適用於 Python 的 SageMaker AI SDK、適用於 Python (Boto3) 的 AWS SDK、AWS CLI 或 AWS 主控台，將編譯好的模型部署到雲端執行個體和 AWS Inferentia 執行個體。

如果使用 AWS CLI、主控台或 Boto3 部署模型，則必須為主要容器選取一個 Docker 映像 Amazon ECR URI。如需 Amazon ECR URI 的清單，請參閱 [Neo 推論容器映像](https://docs.aws.amazon.com/sagemaker/latest/dg/neo-deployment-hosting-services-container-images.html)。

**Topics**
+ [支援的執行個體類型和架構](neo-supported-cloud.md)
+ [部署模型](neo-deployment-hosting-services.md)
+ [具有所部署服務的推論請求](neo-requests.md)
+ [推論容器映像](neo-deployment-hosting-services-container-images.md)