

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 设置您的 设备
<a name="neo-getting-started-edge-step2"></a>

您需要在边缘设备上安装软件包，使设备可以进行推理。还需要安装 [AWS IoT Greengrass](https://docs.aws.amazon.com/greengrass/latest/developerguide/what-is-gg.html) 核心或[深度学习运行时系统 (DLR)](https://github.com/neo-ai/neo-ai-dlr)。在本示例中，您将安装对 `coco_ssd_mobilenet` 对象检测算法进行推理所需的软件包，并将使用 DLR。

1. **安装其他软件包**

   除 Boto3 之外，您还必须在边缘设备上安装某些库。安装哪些库因使用案例而定。

   例如，对于之前下载的`coco_ssd_mobilenet`物体检测算法，需要安装 PIL 来[NumPy](https://numpy.org/)进行数据操作和统计，需要安装 [PIL](https://pillow.readthedocs.io/en/stable/) 来加载图像，需要安装 [Matplotlib 来生成绘图](https://matplotlib.org/)。 TensorFlow 如果您想衡量使用 Neo 进行编译对比基准的影响，则还需要一份副本。

   ```
   !pip3 install numpy pillow tensorflow matplotlib 
   ```

1. **在设备上安装推理引擎**

   要运行 Neo 编译的模型，请在设备上安装[深度学习运行时系统 (DLR)](https://github.com/neo-ai/neo-ai-dlr)。DLR 是用于深度学习模型和决策树模型的紧凑型通用运行时系统。在运行 Linux 的 x86\$164 CPU 目标上，您可以使用以下 `pip` 命令安装最新版本的 DLR 软件包：

   ```
   !pip install dlr
   ```

   要在 GPU 目标或非 x86 边缘设备上安装 DLR，请参阅[版本](https://github.com/neo-ai/neo-ai-dlr/releases)以获取预构建的二进制文件，或参阅[安装 DLR](https://neo-ai-dlr.readthedocs.io/en/latest/install.html) 以根据源代码构建 DLR。例如，要为 Raspberry Pi 3 安装 DLR，可以使用：

   ```
   !pip install https://neo-ai-dlr-release.s3-us-west-2.amazonaws.com/v1.3.0/pi-armv7l-raspbian4.14.71-glibc2_24-libstdcpp3_4/dlr-1.3.0-py3-none-any.whl
   ```