

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Verwenden des Deep Learning Base AMI
<a name="tutorial-base"></a>

## Verwenden des Deep Learning Base AMI
<a name="tutorial-base-overview"></a>

Das Basis-AMI wird mit einer grundlegenden Plattform von GPU-Treibern und Beschleunigungsbibliotheken geliefert, um Ihre eigene, angepasste Deep-Learning-Umgebung zu implementieren. Standardmäßig ist das AMI mit einer beliebigen NVIDIA CUDA-Versionsumgebung konfiguriert. Sie können auch zwischen verschiedenen Versionen von CUDA wechseln. Weitere Informationen zur Vorgehensweise finden Sie in den folgenden Anweisungen.

## CUDA-Versionen konfigurieren
<a name="tutorial-base-cuda"></a>

Sie können die CUDA-Version überprüfen, indem Sie das NVIDIA-Programm ausführen. `nvcc`

```
nvcc --version
```

Sie können eine bestimmte CUDA-Version mit dem folgenden Bash-Befehl auswählen und überprüfen:

```
sudo rm /usr/local/cuda
sudo ln -s /usr/local/cuda-12.0 /usr/local/cuda
```

Weitere Informationen finden Sie in den [Versionshinweisen zu Base DLAMI](https://docs.aws.amazon.com/dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-base).