

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# AWS Neuron での DLAMI の使用
<a name="tutorial-inferentia-using"></a>

 AWS Neuron SDK の一般的なワークフローは、以前にトレーニングされた機械学習モデルをコンパイルサーバーでコンパイルすることです。その後、実行のためにアーティファクトを Inf1 インスタンスに配布します。 AWS Deep Learning AMIs (DLAMI) には、Inferentia を使用する Inf1 インスタンスで推論をコンパイルして実行するために必要なものがすべてプリインストールされています。

 以下のセクションでは、Inferentia とともに DLAMI を使用する方法について説明します。

**Topics**
+ [TensorFlow-Neuron と AWS Neuron Compiler の使用](tutorial-inferentia-tf-neuron.md)
+ [AWS Neuron TensorFlow Serving の使用](tutorial-inferentia-tf-neuron-serving.md)
+ [MXNet-Neuron と AWS Neuron Compiler の使用](tutorial-inferentia-mxnet-neuron.md)
+ [MXNet-Neuron モデルサービングの使用](tutorial-inferentia-mxnet-neuron-serving.md)
+ [PyTorch-Neuron と AWS Neuron Compiler の使用](tutorial-inferentia-pytorch-neuron.md)