

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Implementación de modelos
<a name="neo-deployment-edge"></a>

Puede implementar el módulo de cálculo en dispositivos periféricos con recursos limitados: descargando el modelo compilado de Amazon S3 a su dispositivo y utilizando [DLR](https://github.com/neo-ai/neo-ai-dlr), o puede usar [IoT Greengrass AWS](https://docs.aws.amazon.com/greengrass/latest/developerguide/what-is-gg.html).

Antes de continuar, asegúrate de que tu dispositivo edge sea compatible con SageMaker Neo. Consulte [Marcos, dispositivos, sistemas y arquitecturas compatibles](https://docs.aws.amazon.com/sagemaker/latest/dg/neo-supported-devices-edge.html) para averiguar qué dispositivos periféricos lo son. Asegúrese de haber especificado el dispositivo periférico de destino al enviar el trabajo de compilación, consulte [Uso de Neo para compilar un modelo](https://docs.aws.amazon.com/sagemaker/latest/dg/neo-job-compilation.html).

## Implementación de un modelo compilado (DLR)
<a name="neo-deployment-dlr"></a>

[DLR](https://github.com/neo-ai/neo-ai-dlr) es un tiempo de ejecución compacto y común para modelos de aprendizaje profundo y modelos de árboles de decisiones. El DLR utiliza el tiempo de ejecución [TVM](https://github.com/neo-ai/tvm), el tiempo de ejecución [Treelite](https://treelite.readthedocs.io/en/latest/install.html) y NVIDIA TensorRT™ y puede incluir otros tiempos de ejecución específicos del hardware. DLR proporciona Python/C\$1\$1 unificado APIs para cargar y ejecutar modelos compilados en varios dispositivos.

Puede instalar la última versión del paquete DLR mediante el siguiente comando pip:

```
pip install dlr
```

Para instalar DLR en destinos de GPU o dispositivos periféricos que no sean x86, consulte [Versiones](https://github.com/neo-ai/neo-ai-dlr/releases) para ver los binarios prediseñados o [Instalación de DLR](https://neo-ai-dlr.readthedocs.io/en/latest/install.html) para compilar DLR desde el origen. Por ejemplo, para instalar DLR para Raspberry Pi 3, puede usar: 

```
pip install https://neo-ai-dlr-release.s3-us-west-2.amazonaws.com/v1.3.0/pi-armv7l-raspbian4.14.71-glibc2_24-libstdcpp3_4/dlr-1.3.0-py3-none-any.whl
```

## Implemente un modelo (AWS IoT Greengrass)
<a name="neo-deployment-greengrass"></a>

[AWS IoT Greengrass](https://docs.aws.amazon.com/greengrass/latest/developerguide/what-is-gg.html) extiende las capacidades de la nube a los dispositivos locales. Permite que los dispositivos recopilen y analicen datos más cerca del origen de la información, reaccionen de forma autónoma a eventos locales y se comuniquen de forma segura entre sí en las redes locales. Con AWS IoT Greengrass, puede realizar inferencias de aprendizaje automático en el borde de los datos generados localmente mediante modelos entrenados en la nube. Actualmente, puede implementar modelos en todos los dispositivos AWS IoT Greengrass basados en los procesadores de las series ARM Cortex-A, Intel Atom y Nvidia Jetson. Para obtener más información sobre la implementación de una aplicación de inferencia Lambda para realizar inferencias de aprendizaje automático con AWS IoT Greengrass, [consulte Cómo configurar la inferencia de aprendizaje automático optimizada](https://docs.aws.amazon.com/greengrass/latest/developerguide/ml-dlc-console.html) mediante la consola de administración. AWS 