AWS Neuron とともに DLAMI を使用する
AWS Neuron SDK の一般的なワークフローは、以前にトレーニングを受けた機械学習モデルをコンパイルサーバー上でコンパイルすることです。その後、実行のために Inf1 インスタンスにアーティファクトを配布します。AWS Deep Learning AMIs(DLAMI) には、Inferentia を使用する Inf1 インスタンスで推論をコンパイルして実行するために必要なものがすべてプリインストールされています。
以下のセクションでは、Inferentia とともに DLAMI を使用する方法について説明します。