

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# モデルのデプロイ
<a name="neo-deployment-hosting-services"></a>

Amazon SageMaker Neo コンパイルのモデルを HTTPS エンドポイントにデプロイするには、Amazon SageMaker AI ホスティングサービスを使ってモデルのエンドポイントを設定および作成する必要があります。現在、デベロッパーは Amazon SageMaker API を使って、モジュールを、ml.c5、ml.c4、ml.m5、ml.m4、ml.p3、ml.p2、ml.inf1 インスタンスにデプロイできます。

[Inferentia](https://aws.amazon.com/machine-learning/inferentia/) インスタンスと [Trainium](https://aws.amazon.com/machine-learning/trainium/) インスタンスの場合、モデルはそれらのインスタンス専用にコンパイルする必要があります。他のインスタンスタイプ用にコンパイルされたモデルは、Inferentia インスタンスまたは Trainium インスタンスでの動作は保証されません。

コンパイル済みモデルをデプロイするときは、コンパイルに使用したものと同じインスタンスをターゲットに使用する必要があります。これにより推論の実行に使用できる SageMaker AI エンドポイントが作成されます。Neo でコンパイルされたモデルは、[Amazon SageMaker AI SDK for Python](https://sagemaker.readthedocs.io/en/stable/)、[SDK for Python (Boto3)](https://boto3.amazonaws.com/v1/documentation/api/latest/index.html)、[AWS Command Line Interface](https://docs.aws.amazon.com/cli/latest/reference/)、[SageMaker AI コンソール](https://console.aws.amazon.com/sagemaker)のいずれかを使用してデプロイできます。

**注記**  
、コンソール AWS CLI、または Boto3 を使用してモデルをデプロイするには、[「Neo 推論コンテナイメージ](https://docs.aws.amazon.com/sagemaker/latest/dg/neo-deployment-hosting-services-container-images.html)」を参照して、プライマリコンテナの推論イメージ URI を選択します。

**Topics**
+ [前提条件](neo-deployment-hosting-services-prerequisites.md)
+ [SageMaker SDK を使ってコンパイル済みモデルをデプロイする](neo-deployment-hosting-services-sdk.md)
+ [Boto3 を使ってコンパイル済みモデルをデプロイする](neo-deployment-hosting-services-boto3.md)
+ [を使用してコンパイル済みモデルをデプロイする AWS CLI](neo-deployment-hosting-services-cli.md)
+ [コンソールを使ってコンパイル済みモデルをデプロイする](neo-deployment-hosting-services-console.md)