

Aviso de fin de soporte: el 7 de octubre de 2026, AWS suspenderemos el soporte para AWS IoT Greengrass Version 1. Después del 7 de octubre de 2026, ya no podrá acceder a los AWS IoT Greengrass V1 recursos. Para obtener más información, visita [Migrar desde AWS IoT Greengrass Version 1](https://docs.aws.amazon.com/greengrass/v2/developerguide/migrate-from-v1.html).

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Conector de detección de objetos de ML
<a name="obj-detection-connector"></a>

**aviso**  <a name="connectors-extended-life-phase-warning"></a>
Este conector ha pasado a la *fase de vida útil prolongada* y AWS IoT Greengrass no lanzará actualizaciones que proporcionen características, mejoras de las características existentes, parches de seguridad o correcciones de errores. Para obtener más información, consulte [AWS IoT Greengrass Version 1 política de mantenimiento](maintenance-policy.md).

Los [conectores](connectors.md) ML Object Detection proporcionan un servicio de inferencia de aprendizaje automático (ML) que se ejecuta en el AWS IoT Greengrass núcleo. Este servicio de inferencia local realiza la detección de objetos mediante un modelo de detección de objetos compilado por el compilador de aprendizaje profundo SageMaker AI Neo. Se admiten dos tipos de modelos de detección de objetos: Single Shot Multibox Detector (SSD) y You Only Look Once (YOLO) v3. Para obtener más información, consulte [Requisitos del modelo de detección de objetos](#obj-detection-connector-req-model).

 Las funciones Lambda definidas por el usuario utilizan el AWS IoT Greengrass SDK de Machine Learning para enviar solicitudes de inferencia al servicio de inferencia local. El servicio realiza la inferencia local en una imagen de entrada y devuelve una lista de predicciones para cada objeto detectado en la imagen. Cada predicción contiene una categoría de objeto, una puntuación de confianza de predicción y coordenadas de píxeles que especifican un cuadro delimitador alrededor del objeto previsto. 

AWS IoT Greengrass proporciona conectores de detección de objetos ML para múltiples plataformas:


| Connector | Descripción y ARN | 
| --- | --- | 
| Detección de objetos ML: Aarch64 JTX2 |  Servicio de inferencia y detección de objetos para NVIDIA Jetson. TX2 Admite aceleración de GPU.  **ARN**: `arn:aws:greengrass:region::/connectors/ObjectDetectionAarch64JTX2/versions/1`   | 
| Detección de objetos de ML x86\$164 |  Servicio de inferencia de detección de objetos para plataformas x86\$164.  **ARN**: `arn:aws:greengrass:region::/connectors/ObjectDetectionx86-64/versions/1`   | 
| Detección de objetos ML ARMv7 |   Servicio de inferencia y detección de objetos para ARMv7 plataformas.   **ARN**: `arn:aws:greengrass:region::/connectors/ObjectDetectionARMv7/versions/1`   | 

## Requisitos
<a name="obj-detection-connector-req"></a>

Estos conectores tienen los siguientes requisitos:
+ AWS IoT Greengrass Core Software v1.9.3 o posterior.
+ <a name="conn-req-py-3.7-and-3.8"></a>Se necesita tener la versión 3.7 o 3.8 de [Python](https://www.python.org/) instalada en el dispositivo principal y añadido a la variable de entorno PATH.
**nota**  <a name="use-runtime-py3.8"></a>
Para usar Python 3.8, ejecute el siguiente comando para crear un enlace simbólico desde la carpeta de instalación predeterminada de Python 3.7 a los binarios de Python 3.8 instalados.  

  ```
  sudo ln -s path-to-python-3.8/python3.8 /usr/bin/python3.7
  ```
Esto configura su dispositivo para que cumpla con el requisito de Python para AWS IoT Greengrass.
+ Dependencias del entorno de ejecución de aprendizaje profundo SageMaker AI Neo instalado en el dispositivo principal. Para obtener más información, consulte [Instalación de las dependencias del tiempo de ejecución de Neo Deep Learning en el núcleo AWS IoT Greengrass](#obj-detection-connector-config).
+ Un [recurso de ML](ml-inference.md#ml-resources) en el grupo de Greengrass. El recurso de ML debe hacer referencia a un bucket de Amazon S3 que contenga un modelo de detección de objetos. Para obtener más información, consulte [Orígenes del modelo de Amazon S3](ml-inference.md#s3-ml-resources).
**nota**  
El modelo debe ser un tipo de modelo de detección de objetos Single Shot Multibox Detector o You Only Look Once v3. Debe compilarse con el compilador de aprendizaje profundo SageMaker AI Neo. Para obtener más información, consulte [Requisitos del modelo de detección de objetos](#obj-detection-connector-req-model).
+ <a name="req-image-classification-feedback"></a>El [conector de Feedback de ML ](ml-feedback-connector.md) añadido al grupo de Greengrass y configurado. Solo es necesario si desea utilizar el conector para cargar datos de entrada del modelo y publicar predicciones en un tema de MQTT.
+ AWS IoT Greengrass Se requiere [Machine Learning SDK](lambda-functions.md#lambda-sdks-ml) v1.1.0 para interactuar con este conector.

### Requisitos del modelo de detección de objetos
<a name="obj-detection-connector-req-model"></a>

Los conectores de detección de objetos de ML admiten los tipos de modelos de detección de objetos Single Shot multibox Detector (SSD) y You Only Look Once (YOLO) v3. Puede utilizar los componentes de detección de objetos proporcionados por [GluonCV](https://gluon-cv.mxnet.io) para entrenar el modelo con su propio conjunto de datos. También puede utilizar modelos entrenados previamente de GluonCV Model Zoo:
+ [Modelo SSD entrenado previamente](https://gluon-cv.mxnet.io/build/examples_detection/demo_ssd.html)
+ [Modelo YOLO v3 entrenado previamente](https://gluon-cv.mxnet.io/build/examples_detection/demo_yolo.html)

El modelo de detección de objetos debe entrenarse con imágenes de entrada de 512 x 512. Los modelos entrenados previamente de GluonCV Model Zoo ya cumplen este requisito.

Los modelos de detección de objetos entrenados deben compilarse con el compilador de aprendizaje profundo SageMaker AI Neo. Al compilar, asegúrese de que el hardware de destino coincida con el hardware del dispositivo de Greengrass Core. Para obtener más información, consulte [ SageMaker AI Neo](https://docs.aws.amazon.com/sagemaker/latest/dg/neo.html) en la *Guía para desarrolladores de Amazon SageMaker AI*.

El modelo compilado debe añadirse como un recurso de ML ([origen del modelo de Amazon S3](ml-inference.md#s3-ml-resources)) al mismo grupo de Greengrass que el conector.

## Parámetros de conector
<a name="obj-detection-connector-param"></a>

Estos conectores proporcionan los siguientes parámetros.

`MLModelDestinationPath`  
La ruta absoluta al bucket de Amazon S3 que contiene el modelo de ML compatible con Neo. Esta es la ruta de destino que se ha especificado para el recurso del modelo de aprendizaje automático.  
Mostrar nombre en la AWS IoT consola: **ruta de destino del modelo**  
Obligatorio: `true`  
Tipo: `string`  
Patrón válido: `.+`

`MLModelResourceId`  
El ID del recurso de aprendizaje automático que hace referencia al modelo de origen.  
Nombre para mostrar en la AWS IoT consola: recurso **ML del grupo Greengrass**  
Obligatorio: `true`  
Tipo: `S3MachineLearningModelResource`  
Patrón válido: `^[a-zA-Z0-9:_-]+$`

`LocalInferenceServiceName`  
El nombre del servicio de inferencia local. Las funciones Lambda definidas por el usuario invocan el servicio pasando el nombre a la función `invoke_inference_service` del SDK de Machine AWS IoT Greengrass Learning. Para ver un ejemplo, consulta [Ejemplo de uso](#obj-detection-connector-usage).  
Nombre para mostrar en la AWS IoT consola: nombre del servicio de **inferencia local**  
Obligatorio: `true`  
Tipo: `string`  
Patrón válido: `^[a-zA-Z0-9][a-zA-Z0-9-]{1,62}$`

`LocalInferenceServiceTimeoutSeconds`  
El tiempo (en segundos) antes de que se termine la solicitud de inferencia. El valor mínimo es 1. El valor predeterminado es 10.  
Nombre para mostrar en la AWS IoT consola: **Tiempo de espera (segundo)**  
Obligatorio: `true`  
Tipo: `string`  
Patrón válido: `^[1-9][0-9]*$`

`LocalInferenceServiceMemoryLimitKB`  
La cantidad de memoria (en KB) a la que el servicio tiene acceso. El valor mínimo es 1.  
Nombre para mostrar en la AWS IoT consola: límite de **memoria**  
Obligatorio: `true`  
Tipo: `string`  
Patrón válido: `^[1-9][0-9]*$`

`GPUAcceleration`  <a name="param-image-classification-gpuacceleration"></a>
El contexto de informática de la CPU o GPU (acelerada). Esta propiedad se aplica únicamente al JTX2 conector Aarch64 de clasificación de imágenes ML.  
**Nombre para mostrar en la AWS IoT consola: aceleración de GPU**  
Obligatorio: `true`  
Tipo: `string`  
Valores válidos: `CPU` o `GPU`

`MLFeedbackConnectorConfigId`  <a name="param-image-classification-feedbackconfigid"></a>
El ID de la configuración de retroalimentación que se va a utilizar para cargar los datos de entrada del modelo. Debe coincidir con el ID de una configuración de comentarios definida para el [conector de comentarios de aprendizaje automático](ml-feedback-connector.md).  
Este parámetro solo es necesario si desea utilizar el conector de comentarios de aprendizaje automático para cargar datos de entrada del modelo y publicar predicciones en un tema de MQTT.  
Nombre para mostrar en la AWS IoT consola: **ID de configuración del conector ML Feedback**  
Obligatorio: `false`  
Tipo: `string`  
Patrón válido: `^$|^[a-zA-Z0-9][a-zA-Z0-9-]{1,62}$`

### Ejemplo de creación de conector (AWS CLI)
<a name="obj-detection-connector-create"></a>

El siguiente comando de la CLI crea una `ConnectorDefinition` con una versión inicial que contiene un conector detección de objetos de ML. En este ejemplo, se crea una instancia del ARMv7l conector ML Object Detection.

```
aws greengrass create-connector-definition --name MyGreengrassConnectors --initial-version '{
    "Connectors": [
        {
            "Id": "MyObjectDetectionConnector",
            "ConnectorArn": "arn:aws:greengrass:region::/connectors/ObjectDetectionARMv7/versions/1",
            "Parameters": {
                "MLModelDestinationPath": "/path-to-model",
                "MLModelResourceId": "my-ml-resource",
                "LocalInferenceServiceName": "objectDetection",
                "LocalInferenceServiceTimeoutSeconds": "10",
                "LocalInferenceServiceMemoryLimitKB": "500000",
                "MLFeedbackConnectorConfigId" : "object-detector-random-sampling"
            }
        }
    ]
}'
```

**nota**  
La función de Lambda de estos conectores tiene un ciclo de vida [prolongado](lambda-functions.md#lambda-lifecycle).

En la AWS IoT Greengrass consola, puede añadir un conector desde la página de **conectores** del grupo. Para obtener más información, consulte [Introducción a los conectores de Greengrass (consola)](connectors-console.md).

## Datos de entrada
<a name="obj-detection-connector-data-input"></a>

 Estos conectores aceptan un archivo de imagen como entrada. Los archivos de imagen de entrada deben tener el formato `jpeg` o `png`. Para obtener más información, consulte [Ejemplo de uso](#obj-detection-connector-usage). 

Estos conectores no aceptan mensajes MQTT como datos de entrada.

## Datos de salida
<a name="obj-detection-connector-data-output"></a>

 Estos conectores devuelven una lista con formato de resultados de predicciones para los objetos identificados en la imagen de entrada: 

```
     {
         "prediction": [
             [
                 14,
                 0.9384938478469849,
                 0.37763649225234985,
                 0.5110225081443787,
                 0.6697432398796082,
                 0.8544386029243469
             ],
             [
                 14,
                 0.8859519958496094,
                 0,
                 0.43536216020584106,
                 0.3314110040664673,
                 0.9538808465003967
             ],
             [
                 12,
                 0.04128098487854004,
                 0.5976729989051819,
                 0.5747185945510864,
                 0.704264223575592,
                 0.857937216758728
             ],
             ...
         ]
     }
```

Cada predicción de la lista está incluida entre corchetes y contiene seis valores:
+  El primer valor representa la categoría de objeto prevista para el objeto identificado. Las categorías de objetos y sus valores correspondientes se determinan al entrenar el modelo de machine learning de detección de objetos en el compilador de aprendizaje profundo Neo.
+ El segundo valor es la puntuación de confianza para la predicción de categorías de objetos. Esto representa la probabilidad de que la predicción sea correcta. 
+ Los cuatro últimos valores se corresponden con dimensiones de píxeles que representan un cuadro delimitador alrededor del objeto previsto en la imagen.

Estos conectores no publican mensajes MQTT como datos de salida.

## Ejemplo de uso
<a name="obj-detection-connector-usage"></a>

El siguiente ejemplo de función de Lambda utiliza el [SDK de Machine Learning AWS IoT Greengrass](lambda-functions.md#lambda-sdks-ml) para interactuar con un conector de detección de objetos de ML.

**nota**  
 Puede descargar el SDK desde la página de descargas del [SDK de machine learning de AWS IoT Greengrass](what-is-gg.md#gg-ml-sdk-download). 

En el ejemplo se inicializa un cliente SDK y de forma sincrónica llama a la función `invoke_inference_service` del SDK para invocar el servicio de inferencia local. Pasa el tipo de algoritmo, el nombre del servicio, el tipo de imagen y contenido de imágenes. A continuación, el ejemplo analiza la respuesta del servicio para obtener los resultados de probabilidad (predicciones).

```
import logging
from threading import Timer

import numpy as np

import greengrass_machine_learning_sdk as ml

# We assume the inference input image is provided as a local file
# to this inference client Lambda function.
with open('/test_img/test.jpg', 'rb') as f:
    content = bytearray(f.read())

client = ml.client('inference')

def infer():
    logging.info('invoking Greengrass ML Inference service')

    try:
        resp = client.invoke_inference_service(
            AlgoType='object-detection',
            ServiceName='objectDetection',
            ContentType='image/jpeg',
            Body=content
        )
    except ml.GreengrassInferenceException as e:
        logging.info('inference exception {}("{}")'.format(e.__class__.__name__, e))
        return
    except ml.GreengrassDependencyException as e:
        logging.info('dependency exception {}("{}")'.format(e.__class__.__name__, e))
        return

    logging.info('resp: {}'.format(resp))
    predictions = resp['Body'].read().decode("utf-8")
    logging.info('predictions: {}'.format(predictions))
    predictions = eval(predictions) 

    # Perform business logic that relies on the predictions.
    
    # Schedule the infer() function to run again in ten second.
    Timer(10, infer).start()
    return

infer()

def function_handler(event, context):
    return
```

La `invoke_inference_service` función del AWS IoT Greengrass Machine Learning SDK acepta los siguientes argumentos.


| Argumento | Descripción | 
| --- | --- | 
| `AlgoType` | El nombre del tipo de algoritmo que usar para la interferencia. En la actualidad, solo se admite `object-detection`. Obligatorio: `true` Tipo: `string` Valores válidos: `object-detection` | 
| `ServiceName` | El nombre del servicio de inferencia local. Utilice el nombre que especificó para el parámetro `LocalInferenceServiceName` al configurar el conector. Obligatorio: `true` Tipo: `string` | 
| `ContentType` | El tipo mime de la imagen de entrada. Obligatorio: `true` Tipo: `string` Valores válidos: `image/jpeg, image/png` | 
| `Body` | El contenido del archivo de la imagen de entrada. Obligatorio: `true` Tipo: `binary` | 

## Instalación de las dependencias del tiempo de ejecución de Neo Deep Learning en el núcleo AWS IoT Greengrass
<a name="obj-detection-connector-config"></a>

Los conectores de detección de objetos ML vienen incluidos en el motor de ejecución de aprendizaje profundo (DLR) de SageMaker AI Neo. Los conectores utilizan el tiempo de ejecución para ofrecer el modelo de ML. Para utilizar estos conectores, debe instalar las dependencias para el DLR en su dispositivo principal. 

Antes de instalar las dependencias de DLR, asegúrese de que las [bibliotecas del sistema](#obj-detection-connector-logging) requeridas (con la versiones mínimas especificadas) están presentes en el dispositivo.

------
#### [ NVIDIA Jetson TX2 ]

1. Instalación del conjunto de herramientas CUDA 9.0 y cuDNN 7.0. Puede seguir las instrucciones en [Configuración de otros dispositivos](setup-filter.other.md) en el tutorial de Introducción.

1. Habilitar repositorios universales para que el conector pueda instalar software abierto mantenido por la comunidad. Para obtener más información, consulte [Repositories/Ubuntu](https://help.ubuntu.com/community/Repositories/Ubuntu) en la documentación de Ubuntu.

   1. Abra el archivo `/etc/apt/sources.list`.

   1. Asegúrese de que las siguientes líneas no tienen comentarios.

      ```
      deb http://ports.ubuntu.com/ubuntu-ports/ xenial universe
      deb-src http://ports.ubuntu.com/ubuntu-ports/ xenial universe
      deb http://ports.ubuntu.com/ubuntu-ports/ xenial-updates universe
      deb-src http://ports.ubuntu.com/ubuntu-ports/ xenial-updates universe
      ```

1. Guarde una copia del siguiente script de instalación en un archivo llamado `nvidiajtx2.sh` en el dispositivo del núcleo.

   ```
   #!/bin/bash
   set -e
   
   echo "Installing dependencies on the system..."
   echo 'Assuming that universe repos are enabled and checking dependencies...'
   apt-get -y update
   apt-get -y dist-upgrade
   apt-get install -y liblapack3 libopenblas-dev liblapack-dev libatlas-base-dev
   apt-get install -y python3.7 python3.7-dev
   
   python3.7 -m pip install --upgrade pip
   python3.7 -m pip install numpy==1.15.0
   python3.7 -m pip install opencv-python || echo 'Error: Unable to install OpenCV with pip on this platform. Try building the latest OpenCV from source (https://github.com/opencv/opencv).'
   
   echo 'Dependency installation/upgrade complete.'
   ```
**nota**  
<a name="opencv-build-from-source"></a>Si [OpenCV](https://github.com/opencv/opencv) no se instala correctamente con este script, puede intentar realizar la compilación desde el código fuente. Para obtener más información, consulte [Instalación en Linux](https://docs.opencv.org/4.1.0/d7/d9f/tutorial_linux_install.html) en la documentación de OpenCV o vea otros recursos online para su plataforma.

1. En el directorio en el que guardó el archivo, ejecute el siguiente comando:

   ```
   sudo nvidiajtx2.sh
   ```

------
#### [ x86\$164 (Ubuntu or Amazon Linux)  ]

1. Guarde una copia del siguiente script de instalación en un archivo llamado `x86_64.sh` en el dispositivo del núcleo.

   ```
   #!/bin/bash
   set -e
   
   echo "Installing dependencies on the system..."
   
   release=$(awk -F= '/^NAME/{print $2}' /etc/os-release)
   
   if [ "$release" == '"Ubuntu"' ]; then
     # Ubuntu. Supports EC2 and DeepLens. DeepLens has all the dependencies installed, so
     # this is mostly to prepare dependencies on Ubuntu EC2 instance.
     apt-get -y update
     apt-get -y dist-upgrade
   
     apt-get install -y libgfortran3 libsm6 libxext6 libxrender1
     apt-get install -y python3.7 python3.7-dev
   elif [ "$release" == '"Amazon Linux"' ]; then
     # Amazon Linux. Expect python to be installed already
     yum -y update
     yum -y upgrade
   
     yum install -y compat-gcc-48-libgfortran libSM libXrender libXext
   else
     echo "OS Release not supported: $release"
     exit 1
   fi
   
   python3.7 -m pip install --upgrade pip
   python3.7 -m pip install numpy==1.15.0
   python3.7 -m pip install opencv-python || echo 'Error: Unable to install OpenCV with pip on this platform. Try building the latest OpenCV from source (https://github.com/opencv/opencv).'
   
   echo 'Dependency installation/upgrade complete.'
   ```
**nota**  
<a name="opencv-build-from-source"></a>Si [OpenCV](https://github.com/opencv/opencv) no se instala correctamente con este script, puede intentar realizar la compilación desde el código fuente. Para obtener más información, consulte [Instalación en Linux](https://docs.opencv.org/4.1.0/d7/d9f/tutorial_linux_install.html) en la documentación de OpenCV o vea otros recursos online para su plataforma.

1. En el directorio en el que guardó el archivo, ejecute el siguiente comando:

   ```
   sudo x86_64.sh
   ```

------
#### [ ARMv7 (Raspberry Pi) ]

1. Guarde una copia del siguiente script de instalación en un archivo llamado `armv7l.sh` en el dispositivo del núcleo.

   ```
   #!/bin/bash
   set -e
   
   echo "Installing dependencies on the system..."
   
   apt-get update
   apt-get -y upgrade
   
   apt-get install -y liblapack3 libopenblas-dev liblapack-dev
   apt-get install -y python3.7 python3.7-dev
   
   python3.7 -m pip install --upgrade pip
   python3.7 -m pip install numpy==1.15.0
   python3.7 -m pip install opencv-python || echo 'Error: Unable to install OpenCV with pip on this platform. Try building the latest OpenCV from source (https://github.com/opencv/opencv).'
   
   echo 'Dependency installation/upgrade complete.'
   ```
**nota**  
<a name="opencv-build-from-source"></a>Si [OpenCV](https://github.com/opencv/opencv) no se instala correctamente con este script, puede intentar realizar la compilación desde el código fuente. Para obtener más información, consulte [Instalación en Linux](https://docs.opencv.org/4.1.0/d7/d9f/tutorial_linux_install.html) en la documentación de OpenCV o vea otros recursos online para su plataforma.

1. En el directorio en el que guardó el archivo, ejecute el siguiente comando:

   ```
   sudo bash armv7l.sh
   ```
**nota**  
En una solución Raspberry Pi, el uso de `pip` para instalar dependencias de aprendizaje automático es una operación de uso intensivo de memoria que puede provocar que el dispositivo se quede sin memoria y deje de responder. Como alternativa, puede aumentar temporalmente el tamaño de intercambio. En `/etc/dphys-swapfile`, aumente el valor de la variable `CONF_SWAPSIZE` y, a continuación, ejecute el siguiente comando para reiniciar `dphys-swapfile`.  

   ```
   /etc/init.d/dphys-swapfile restart
   ```

------

## Registro y solución de problemas
<a name="obj-detection-connector-logging"></a>

Según la configuración del grupo, los registros de eventos y errores se escriben en los CloudWatch registros, en el sistema de archivos local o en ambos. Los registros de este conector utilizan el prefijo `LocalInferenceServiceName`. Si el conector se comporta de forma inesperada, compruebe los registros del conector. Estos suelen contener información de depuración útil, como, por ejemplo, que falta una dependencia de biblioteca de ML o la causa de un error de inicio del conector.

Si el AWS IoT Greengrass grupo está configurado para escribir registros locales, el conector escribe los archivos de registro en ellos`greengrass-root/ggc/var/log/user/region/aws/`. Para obtener más información sobre los registros de Greengrass, consulte [Supervisión con AWS IoT Greengrass registros](greengrass-logs-overview.md).

Utilice la siguiente información como ayuda para solucionar problemas con los conectores de la detección de objetos de ML.

**Bibliotecas del sistema obligatorias**

Las siguientes pestañas muestran las bibliotecas del sistema necesarias para cada conector detección de objetos de ML.

------
#### [ ML Object Detection Aarch64 JTX2 ]


| Library | Versión mínima | 
| --- | --- | 
| ld-linux-aarch64.so.1 | GLIBC\$12.17 | 
| libc.so.6 | GLIBC\$12.17 | 
| libcublas.so.9.0 | no aplicable | 
| libcudart.so.9.0 | no aplicable | 
| libcudnn.so.7 | no aplicable | 
| libcufft.so.9.0 | no aplicable | 
| libcurand.so.9.0 | no aplicable | 
| libcusolver.so.9.0 | no aplicable | 
| libgcc\$1s.so.1 | GCC\$14.2.0 | 
| libgomp.so.1 | GOMP\$14.0, OMP\$11.0 | 
| libm.so.6 | GLIBC\$12.23 | 
| libnvinfer.so.4 | no aplicable | 
| libnvrm\$1gpu.so | no aplicable | 
| libnvrm.so | no aplicable | 
| libnvidia-fatbinaryloader.so.28.2.1 | no aplicable | 
| libnvos.so | no aplicable | 
| libpthread.so.0 | GLIBC\$12.17 | 
| librt.so.1 | GLIBC\$12.17 | 
| libstdc\$1\$1.so.6 | GLIBCXX\$13.4.21, CXXABI\$11.3.8 | 

------
#### [ ML Object Detection x86\$164 ]


| Library | Versión mínima | 
| --- | --- | 
| ld-linux-x86-64.so.2 | GCC\$14.0.0 | 
| libc.so.6 | GLIBC\$12.4 | 
| libgfortran.so.3 | GFORTRAN\$11.0 | 
| libm.so.6 | GLIBC\$12.23 | 
| libpthread.so.0 | GLIBC\$12.2.5 | 
| librt.so.1 | GLIBC\$12.2.5 | 
| libstdc\$1\$1.so.6 | CXXABI\$11.3.8, GLIBCXX\$13.4.21 | 

------
#### [ ML Object Detection ARMv7 ]


| Library | Versión mínima | 
| --- | --- | 
| ld-linux-armhf.so.3 | GLIBC\$12.4 | 
| libc.so.6 | GLIBC\$12.7 | 
| libgcc\$1s.so.1 | GCC\$14.0.0 | 
| libgfortran.so.3 | GFORTRAN\$11.0 | 
| libm.so.6 | GLIBC\$12.4 | 
| libpthread.so.0 | GLIBC\$12.4 | 
| librt.so.1 | GLIBC\$12.4 | 
| libstdc\$1\$1.so.6 | CXXABI\$11.3.8, CXXABI\$1ARM\$11.3.3, GLIBCXX\$13.4.20 | 

------

**Problemas**


| Síntoma | Solución | 
| --- | --- | 
|  En una Raspberry Pi, se registra el siguiente mensaje de error y no está utilizando la cámara: `Failed to initialize libdc1394`   |  Ejecute el comando siguiente para deshabilitar el controlador: <pre>sudo ln /dev/null /dev/raw1394</pre> Esta operación es efímera. El enlace simbólico desaparece después de reiniciar. Consulte el manual de su distribución de SO para obtener información sobre cómo crear automáticamente el enlace al reiniciar.  | 

## Licencias
<a name="obj-detection-connector-license"></a>

Los conectores detección de objetos de ML incluyen las siguientes licencias y software de terceros:<a name="boto-3-licenses"></a>
+ [AWS SDK para Python (Boto3)](https://pypi.org/project/boto3/)/Apache License 2.0
+ [botocore](https://pypi.org/project/botocore/)/Apache License 2.0
+ [dateutil](https://pypi.org/project/python-dateutil/1.4/)/PSF License
+ [docutils](https://pypi.org/project/docutils/)/BSD License, GNU General Public License (GPL), Python Software Foundation License, Public Domain
+ [jmespath](https://pypi.org/project/jmespath/)/MIT License
+ [s3transfer](https://pypi.org/project/s3transfer/)/Apache License 2.0
+ [urllib3](https://pypi.org/project/urllib3/)/MIT License
+ [Tiempo de ejecución de aprendizaje profundo](https://github.com/neo-ai/neo-ai-dlr)/Licencia Apache 2.0
+ <a name="six-license"></a>[six](https://github.com/benjaminp/six)/MIT

Este conector se publica bajo el [contrato de licencia de software de Greengrass Core](https://greengrass-release-license.s3.us-west-2.amazonaws.com/greengrass-license-v1.pdf).

## Véase también
<a name="obj-detection-connector-see-also"></a>
+ [Integración con servicios y protocolos mediante conectores de Greengrass](connectors.md)
+ [Introducción a los conectores de Greengrass (consola)](connectors-console.md)
+ [Introducción a los conectores de Greengrass (CLI)](connectors-cli.md)
+ [Cómo realizar la inferencia de machine learning](ml-inference.md)
+ [Algoritmo de detección de objetos](https://docs.aws.amazon.com/sagemaker/latest/dg/object-detection.html) en la *Guía para desarrolladores de Amazon SageMaker AI*