

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Utilisation du DLAMI avec Neuron AWS
<a name="tutorial-inferentia-using"></a>

 Un flux de travail typique avec le SDK AWS Neuron consiste à compiler un modèle d'apprentissage automatique préalablement entraîné sur un serveur de compilation. Ensuite, distribuez les artefacts aux instances Inf1 pour exécution. AWS Apprentissage profond (deep learning) AMIs (DLAMI) est préinstallé avec tout ce dont vous avez besoin pour compiler et exécuter l'inférence dans une instance Inf1 qui utilise Inferentia. 

 Les sections suivantes décrivent comment utiliser le DLAMI avec Inferentia. 

**Topics**
+ [Utilisation de TensorFlow -Neuron et du compilateur Neuron AWS](tutorial-inferentia-tf-neuron.md)
+ [Utilisation de AWS Neuron Serving TensorFlow](tutorial-inferentia-tf-neuron-serving.md)
+ [Utilisation de MXNet -Neuron et du compilateur Neuron AWS](tutorial-inferentia-mxnet-neuron.md)
+ [Utilisation de MXNet -Neuron Model Serving](tutorial-inferentia-mxnet-neuron-serving.md)
+ [Utilisation de PyTorch -Neuron et du compilateur Neuron AWS](tutorial-inferentia-pytorch-neuron.md)