

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Einrichten Ihres -Geräts
<a name="neo-getting-started-edge-step2"></a>

Sie müssen Pakete auf Ihrem Edge-Gerät installieren, damit Ihr Gerät Rückschlüsse ziehen kann. Sie müssen außerdem entweder [AWS IoT Greengrass](https://docs.aws.amazon.com/greengrass/latest/developerguide/what-is-gg.html) Core oder [Deep Learning Runtime (DLR](https://github.com/neo-ai/neo-ai-dlr)) installieren. In diesem Beispiel installieren Sie Pakete, die erforderlich sind, um Rückschlüsse für den `coco_ssd_mobilenet` Objekterkennungsalgorithmus zu ziehen, und Sie verwenden DLR.

1. **Installieren Sie zusätzliche Pakete**

   Zusätzlich zu Boto3 müssen Sie bestimmte Bibliotheken auf Ihrem Edge-Gerät installieren. Welche Bibliotheken Sie installieren, hängt von Ihrem Anwendungsfall ab. 

   Für den `coco_ssd_mobilenet` Objekterkennungsalgorithmus, den Sie zuvor heruntergeladen haben, müssen Sie beispielsweise [NumPy](https://numpy.org/)für Datenmanipulation und Statistik, [PIL](https://pillow.readthedocs.io/en/stable/) zum Laden von Bildern und [Matplotlib](https://matplotlib.org/) zum Generieren von Diagrammen installieren. Sie benötigen außerdem eine Kopie von, TensorFlow wenn Sie die Auswirkungen der Kompilierung mit Neo im Vergleich zu einer Baseline abschätzen möchten. 

   ```
   !pip3 install numpy pillow tensorflow matplotlib 
   ```

1. **Installieren Sie die Inference Engine auf Ihrem Gerät**

   Um Ihr NEO-kompiliertes Modell auszuführen, installieren Sie die [Deep Learning Runtime (DLR)](https://github.com/neo-ai/neo-ai-dlr) auf Ihrem Gerät. DLR ist eine kompakte, gemeinsame Runtime für Deep-Learning-Modelle und Entscheidungsbaummodelle. Auf x86\$164-CPU-Zielen, auf denen Linux ausgeführt wird, können Sie die neueste Version des DLR-Pakets mit dem folgenden `pip` Befehl installieren.

   ```
   !pip install dlr
   ```

   Informationen zur Installation von DLR auf GPU-Zielen oder Nicht-x86-Edge-Geräten finden Sie unter [Versionen](https://github.com/neo-ai/neo-ai-dlr/releases) für vorgefertigte Binärdateien oder [DLR installieren](https://neo-ai-dlr.readthedocs.io/en/latest/install.html), um DLR aus der Quelle zu erstellen. Um beispielsweise DLR für Raspberry Pi 3 zu installieren, können Sie Folgendes verwenden: 

   ```
   !pip install https://neo-ai-dlr-release.s3-us-west-2.amazonaws.com/v1.3.0/pi-armv7l-raspbian4.14.71-glibc2_24-libstdcpp3_4/dlr-1.3.0-py3-none-any.whl
   ```