

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Qu'est-ce que c'est AWS Apprentissage profond (deep learning) AMIs ?
<a name="what-is-dlami"></a>

AWS Apprentissage profond (deep learning) AMIs (DLAMI) fournit des images de machine personnalisées que vous pouvez utiliser pour le deep learning dans le cloud. Elles DLAMIs sont disponibles dans la plupart des cas Régions AWS pour différents types d'instances Amazon Elastic Compute Cloud (Amazon EC2), qu'il s'agisse d'une petite instance utilisant uniquement un processeur ou des instances multi-GPU très puissantes les plus récentes. Ils DLAMIs sont préconfigurés avec [NVIDIA CUDA](https://developer.nvidia.com/cuda-zone) et NVIDIA [cuDNN](https://developer.nvidia.com/cudnn) ainsi que les dernières versions des frameworks d'apprentissage profond les plus populaires.

## A propos de ce manuel
<a name="guide-contents"></a>

Le contenu du peut vous aider à lancer et à utiliser le DLAMIs. Le guide couvre plusieurs cas d'utilisation courants du deep learning, à la fois pour la formation et pour l'inférence. Il explique également comment choisir l'AMI adaptée à vos besoins et le type d'instances que vous pourriez préférer.

En outre, ils DLAMIs incluent plusieurs didacticiels fournis par leurs frameworks pris en charge. Ce guide peut vous montrer comment activer chaque framework et trouver les didacticiels appropriés pour commencer. Il propose également des didacticiels sur la formation distribuée, le débogage, l'utilisation d' AWS Inferentia et de AWS Trainium, ainsi que sur d'autres concepts clés. Pour savoir comment configurer un serveur de bloc-notes Jupyter pour exécuter les didacticiels dans votre navigateur, consultez. [Configuration d'un serveur Jupyter Notebook sur une instance DLAMI](setup-jupyter.md)

## Prérequis
<a name="prerequisites"></a>

Pour exécuter correctement le DLAMIs, nous vous recommandons de vous familiariser avec les outils de ligne de commande et les bases de Python.

# Exemples de cas d'utilisation du DLAMI
<a name="use-cases"></a>

Vous trouverez ci-dessous des exemples de cas d'utilisation courants pour AWS Apprentissage profond (deep learning) AMIs (DLAMI).

**En savoir plus sur l'apprentissage profond** — Le DLAMI est un excellent choix pour l'apprentissage ou l'enseignement de cadres d'apprentissage automatique et d'apprentissage profond. Cela DLAMIs vous évitera le casse-tête lié au dépannage des installations de chaque framework et à leur capacité à jouer sur le même ordinateur. Ils DLAMIs incluent un bloc-notes Jupyter et facilitent l'exécution des didacticiels proposés par les frameworks aux personnes novices en apprentissage automatique et en apprentissage profond.

**Développement d'applications** — Si vous êtes un développeur d'applications qui souhaite utiliser le deep learning pour que vos applications utilisent les dernières avancées en matière d'IA, le DLAMI est le banc d'essai idéal pour vous. Chaque infrastructure est fournie avec des didacticiels pour vous aider à faire vos premiers pas avec l'apprentissage profond, et nombre d'entre elles ont des zoos modèles qui facilite l'adoption de l'apprentissage profond sans avoir à créer les réseaux neuronaux vous-même ou pour effectuer la formation du modèle. Certains exemples vous montrent comment construire une application de détection d'image en seulement quelques minutes ou comment construire une application de reconnaissance vocale pour votre propre chatbot.

**Apprentissage automatique et analyse des** données — Si vous êtes un scientifique des données ou si vous souhaitez traiter vos données par le biais du deep learning, vous constaterez que de nombreux frameworks prennent en charge R et Spark. Vous trouverez des didacticiels sur la manière de faire des régressions simples, jusqu'à la création évolutive de systèmes de traitement de données évolutifs pour les systèmes de personnalisation et de prévisions.

**Recherche** — Si vous êtes un chercheur qui souhaite tester un nouveau framework, tester un nouveau modèle ou former de nouveaux modèles, le DLAMI AWS et ses capacités d'évolutivité peuvent atténuer les difficultés liées aux installations fastidieuses et à la gestion de plusieurs nœuds d'entraînement.

**Note**  
Bien que votre choix initial soit de mettre à niveau votre type d'instance vers une instance plus grande GPUs (jusqu'à 8), vous pouvez également effectuer une mise à l'échelle horizontale en créant un cluster d'instances DLAMI. Consultez [Informations connexes sur DLAMI](resources.md) pour plus d'informations sur les builds de cluster.

# Caractéristiques du DLAMI
<a name="features"></a>

Les fonctionnalités de AWS Apprentissage profond (deep learning) AMIs (DLAMI) incluent des frameworks d'apprentissage profond préinstallés, des logiciels GPU, des serveurs de modèles et des outils de visualisation de modèles.

## Frameworks préinstallés
<a name="features-frameworks"></a>

Il existe actuellement deux versions principales de DLAMI, avec d'autres variantes liées au système d'exploitation (OS) et aux versions logicielles : 
+ [AMI d'apprentissage profond avec Conda](overview-conda.md)— Frameworks installés séparément à l'aide de `conda` packages et d'environnements Python distincts.
+ [AMI de base de Deep Learning](overview-base.md)— Aucun framework n'est installé ; uniquement [NVIDIA CUDA](https://developer.nvidia.com/cuda-zone) et autres dépendances.

L'AMI Deep Learning avec Conda utilise des `conda` environnements pour isoler chaque framework, afin que vous puissiez passer de l'un à l'autre à votre guise sans vous soucier des conflits de dépendances entre eux. L'AMI Deep Learning avec Conda prend en charge les frameworks suivants :
+ PyTorch
+ TensorFlow 2

**Note**  
DLAMI ne prend plus en charge les frameworks d'apprentissage profond suivants : Apache MXNet, Microsoft Cognitive Toolkit (CNTK), Caffe, Caffe2, Theano, Chainer et Keras.

## Logiciel GPU préinstallé
<a name="features-gpu"></a>

[Même si vous utilisez une instance utilisant uniquement le processeur, elle DLAMIs disposera de NVIDIA CUDA [et de NVIDIA cuDNN](https://developer.nvidia.com/cuda-zone).](https://developer.nvidia.com/cudnn) Le logiciel installé est le même, quel que soit le type d'instance. N'oubliez pas que les outils spécifiques au GPU ne fonctionnent que sur une instance dotée d'au moins un GPU. Pour plus d'informations sur les types d'instances, consultez[Choix d'un type d'instance DLAMI](instance-select.md).

Pour plus d'informations sur CUDA, consultez[Installations de CUDA et liaisons d'infrastructures](overview-cuda.md).

## Service et visualisation de modèles
<a name="features-gpu"></a>

L'AMI Deep Learning avec Conda est préinstallée avec des serveurs de modèles pour TensorFlow, ainsi que TensorBoard pour les visualisations de modèles. Pour de plus amples informations, veuillez consulter [TensorFlow Servir](tutorial-tfserving.md).