

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# サポートされるインスタンスタイプとフレームワーク
<a name="neo-supported-cloud"></a>

Amazon SageMaker Neo は、コンパイルとデプロイの両方でよく使われている深層学習フレームワークをサポートしています。モデルはクラウドインスタンスタイプまたは AWS Inferentia インスタンスタイプにデプロイできます。

以下では、SageMaker Neo がサポートするフレームワークと、コンパイルおよびデプロイのターゲットとなるクラウドインスタンスを説明します。コンパイル済みのモデルをクラウドまたは Inferentia インスタンスにデプロイする方法については、「[クラウドインスタンスにモデルをデプロイする](https://docs.aws.amazon.com/sagemaker/latest/dg/neo-deployment-hosting-services.html)」を参照してください。

## クラウドインスタンス
<a name="neo-supported-cloud-instances"></a>

SageMaker Neo は、CPU および GPU クラウドインスタンスについて、以下の深層学習フレームワークをサポートしています。


| フレームワーク | フレームワークのバージョン | モデルのバージョン | モデル | モデル形式 (\$1.tar.gz 内にパッケージ) | ツールキット | 
| --- | --- | --- | --- | --- | --- | 
| MXNet | 1.8.0 | 1.8.0 以前をサポート | イメージ分類、オブジェクト検出、セマンティックセグメンテーション、姿勢推定、行動認識 | シンボルファイル (.json) を 1 つ、パラメータファイル (.params) を 1 つ | GluonCV v0.8.0 | 
| ONNX | 1.7.0 | 1.7.0 以前をサポート | イメージ分類、SVM | モデルファイル (.onnx) を 1 つ |  | 
| Keras | 2.2.4 | 2.2.4 以前をサポート | イメージ分類 | モデル定義ファイル (.h5) を 1 つ |  | 
| PyTorch | 1.4、1.5、1.6、1.7、1.8、1.12、1.13、または 2.0 | 1.4、1.5、1.6、1.7、1.8、1.12、1.13、2.0 をサポート |  イメージ分類 バージョン 1.13 と 2.0 は、オブジェクト検出、Vision Transformer、HuggingFace をサポート  | 入力 dtype が float32 のモデル定義ファイル (.pt または .pth) を 1 つ |  | 
| TensorFlow | 1.15.3 または 2.9 | 1.15.3、2.9 をサポート | イメージ分類 | Saved モデルの場合、.pb ファイルを 1 つまたは .pbtxt ファイルを 1 つ、および変数を含む変数ディレクトリを想定します Frozen モデルの場合は、.pb または .pbtxt ファイルのいずれか 1 つのみ |  | 
| XGBoost | 1.3.3 | 1.3.3 以前をサポート | 決定木 | ノード数が 2^31 個未満のツリーの XGBoost モデルファイル (.model) を 1 つ |  | 

**注記**  
「モデルのバージョン」は、モデルのトレーニングとエクスポートに使われるフレームワークのバージョンです。

## インスタンスタイプ
<a name="neo-supported-cloud-instances-types"></a>

 SageMaker AI のコンパイル済みモデルは、以下のいずれかのクラウドインスタンスにデプロイできます。


| インスタンス | コンピューティングタイプ | 
| --- | --- | 
| `ml_c4` | 規格 | 
| `ml_c5` | 規格 | 
| `ml_m4` | 規格 | 
| `ml_m5` | 規格 | 
| `ml_p2` | 高速コンピューティング | 
| `ml_p3` | 高速コンピューティング | 
| `ml_g4dn` | 高速コンピューティング | 

 各インスタンスタイプの利用可能な vCPU、メモリ、時間あたりの料金については、「[Amazon SageMaker の料金](https://aws.amazon.com/sagemaker/pricing/)」を参照してください。

**注記**  
PyTorch フレームワークを使って `ml_*` インスタンスをコンパイルする場合は、**[Output Configuration]** (出力設定) の **[Compiler options]** (コンパイラオプション) フィールドを使って、モデルの入力の正しいデータ型 (`dtype`) を指定します。  
デフォルトでは `"float32"` に設定されています。

## AWS Inferentia
<a name="neo-supported-inferentia"></a>

 SageMaker Neo は、Inf1 について、次の深層学習フレームワークをサポートしています。


| フレームワーク | フレームワークのバージョン | モデルのバージョン | モデル | モデル形式 (\$1.tar.gz 内にパッケージ) | ツールキット | 
| --- | --- | --- | --- | --- | --- | 
| MXNet | 1.5 または 1.8  | 1.8、1.5 以前をサポート | イメージ分類、オブジェクト検出、セマンティックセグメンテーション、姿勢推定、行動認識 | シンボルファイル (.json) を 1 つ、パラメータファイル (.params) を 1 つ | GluonCV v0.8.0 | 
| PyTorch | 1.7、1.8 または 1.9 | 1.9 以前をサポート | イメージ分類 | 入力 dtype が float32 のモデル定義ファイル (.pt または .pth) を 1 つ |  | 
| TensorFlow | 1.15 または 2.5 | 2.5、1.15 以前をサポート | イメージ分類 | Saved モデルの場合、.pb ファイルを 1 つまたは .pbtxt ファイルを 1 つ、および変数を含む変数ディレクトリを想定します Frozen モデルの場合は、.pb または .pbtxt ファイルのいずれか 1 つのみ |  | 

**注記**  
「モデルのバージョン」は、モデルのトレーニングとエクスポートに使われるフレームワークのバージョンです。

SageMaker Neo コンパイルのモデルは、AWS Inferentia ベースの Amazon EC2 inf1 インスタンスにデプロイできます。AWSInferentia は、深層学習の高速化のために設計された Amazon 初のカスタムシリコンチップです。現在、`ml_inf1` インスタンスを使ってコンパイル済みモデルをデプロイできます。

### AWS Inferentia2 と AWS Trainium
<a name="neo-supported-inferentia-trainium"></a>

現在、SageMaker NEO でコンパイルしたモデルを AWS Inferentia2 ベースの Amazon EC2 Inf2 インスタンス (米国東部 (オハイオ) リージョン) と AWS Trainium ベースの Amazon EC2 Trn1 インスタンス (米国東部 (バージニア北部) リージョン) にデプロイできます。これらのインスタンスでサポートされているモデルの詳細については、『AWS Neuron ドキュメント』の「[Model Architecture Fit Guidelines](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/general/arch/model-architecture-fit.html)」と「[Neuron Github repository](https://github.com/aws-neuron/aws-neuron-sagemaker-samples)」にある例を参照してください。