

Avviso di fine del supporto: il 7 ottobre 2026, AWS il supporto per. AWS IoT Greengrass Version 1 Dopo il 7 ottobre 2026, non potrai più accedere alle risorse. AWS IoT Greengrass V1 Per ulteriori informazioni, visita [Migrate](https://docs.aws.amazon.com/greengrass/v2/developerguide/migrate-from-v1.html) from. AWS IoT Greengrass Version 1

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Connettore ML Object Detection
<a name="obj-detection-connector"></a>

**avvertimento**  <a name="connectors-extended-life-phase-warning"></a>
Questo connettore è entrato nella *fase di vita prolungata* e AWS IoT Greengrass non rilascerà aggiornamenti che forniscano funzionalità, miglioramenti alle funzionalità esistenti, patch di sicurezza o correzioni di bug. Per ulteriori informazioni, consulta [AWS IoT Greengrass Version 1 politica di manutenzione](maintenance-policy.md).

I [connettori](connectors.md) ML Object Detection forniscono un servizio di inferenza di machine learning (ML) che viene eseguito sul core. AWS IoT Greengrass Questo servizio di inferenza locale esegue il rilevamento degli oggetti utilizzando un modello di rilevamento degli oggetti compilato dal compilatore di deep learning SageMaker AI Neo. Sono supportati due tipi di modelli di rilevamento dell'oggetto: Single Shot Multibox Detector (SSD) e You Only Look Once (YOLO) v3. Per ulteriori informazioni, consulta la sezione relativa ai [requisiti del modello di rilevamento dell'oggetto](#obj-detection-connector-req-model).

 Le funzioni Lambda definite dall'utente utilizzano il Machine AWS IoT Greengrass Learning SDK per inviare richieste di inferenza al servizio di inferenza locale. Il servizio esegue l'inferenza locale su un'immagine di input e restituisce un elenco di previsioni per ogni oggetto rilevato nell'immagine. Ogni previsione contiene una categoria dell'oggetto, un punteggio di affidabilità della previsione e le coordinate dei pixel che specificano un riquadro di delimitazione intorno all'oggetto previsto. 

AWS IoT Greengrass fornisce connettori ML Object Detection per più piattaforme:


| Connector | Descrizione e ARN | 
| --- | --- | 
| ML Object Detection Aarch64 JTX2 |  Servizio di inferenza per il rilevamento di oggetti per NVIDIA Jetson. TX2 Supporta l'accelerazione GPU.  **ARN:** `arn:aws:greengrass:region::/connectors/ObjectDetectionAarch64JTX2/versions/1`   | 
| Rilevamento di oggetti ML x86\$164 |  Servizio di inferenza di rilevamento oggetti per piattaforme x86\$164.  **ARN:** `arn:aws:greengrass:region::/connectors/ObjectDetectionx86-64/versions/1`   | 
| Rilevamento di oggetti ML ARMv7 |   Servizio di inferenza per il rilevamento di oggetti per ARMv7 piattaforme.   **ARN:** `arn:aws:greengrass:region::/connectors/ObjectDetectionARMv7/versions/1`   | 

## Requisiti
<a name="obj-detection-connector-req"></a>

Questi connettori presentano i seguenti requisiti:
+ AWS IoT Greengrass Core Software v1.9.3 o versione successiva.
+ <a name="conn-req-py-3.7-and-3.8"></a>[Python](https://www.python.org/) versione 3.7 o 3.8 installata sul dispositivo principale e aggiunta alla variabile di ambiente PATH.
**Nota**  <a name="use-runtime-py3.8"></a>
Per usare Python 3.8, esegui il seguente comando per creare un collegamento simbolico dalla cartella di installazione predefinita di Python 3.7 ai binari Python 3.8 installati.  

  ```
  sudo ln -s path-to-python-3.8/python3.8 /usr/bin/python3.7
  ```
Questo configura il dispositivo in modo che soddisfi il requisito Python per AWS IoT Greengrass.
+ Dipendenze per il runtime di deep learning SageMaker AI Neo installato sul dispositivo principale. Per ulteriori informazioni, consulta [Installazione delle dipendenze del runtime di Neo Deep Learning sul core AWS IoT Greengrass](#obj-detection-connector-config).
+ Una [risorsa ML](ml-inference.md#ml-resources) nel gruppo Greengrass. La risorsa ML deve fare riferimento a un bucket Amazon S3 che contiene un modello di rilevamento degli oggetti. Per ulteriori informazioni, consulta i sorgenti dei [modelli Amazon S3](ml-inference.md#s3-ml-resources).
**Nota**  
Il modello deve essere un tipo di modello di rilevamento dell'oggetto Single Shot Multibox Detector o You Only Look Once v3. Deve essere compilato utilizzando il compilatore di deep learning SageMaker AI Neo. Per ulteriori informazioni, consulta la sezione relativa ai [requisiti del modello di rilevamento dell'oggetto](#obj-detection-connector-req-model).
+ <a name="req-image-classification-feedback"></a>Il [connettore ML Feedback](ml-feedback-connector.md) aggiunto al gruppo Greengrass e configurato. Questo è obbligatorio solo se desideri utilizzare il connettore per caricare i dati di input del modello e pubblicare le previsioni in un argomento MQTT.
+ AWS IoT Greengrass Per interagire con questo connettore è necessario [Machine Learning SDK](lambda-functions.md#lambda-sdks-ml) v1.1.0.

### Requisiti del modello di rilevamento dell'oggetto
<a name="obj-detection-connector-req-model"></a>

I connettori ML Object Detection supportano i modelli di rilevamento di oggetti Single Shot multibox Detector (SSD) e You Only Look Once (YOLO) v3. Puoi utilizzare i componenti di rilevamento dell'oggetto forniti da [GluonCV](https://gluon-cv.mxnet.io) per eseguire il training del modello con il tuo set di dati. In alternativa, puoi utilizzare modelli pre-formati da GluonCV Model Zoo:
+ [Modello SSD pre-formato](https://gluon-cv.mxnet.io/build/examples_detection/demo_ssd.html)
+ [Modello YOLO v3 pre-formato](https://gluon-cv.mxnet.io/build/examples_detection/demo_yolo.html)

Il training del modello di rilevamento dell'oggetto deve essere eseguito con immagini di input 512 x 512. I modelli pre-formati da GluonCV Model Zoo soddisfano già questo requisito.

I modelli di rilevamento di oggetti addestrati devono essere compilati con il compilatore di deep learning AI Neo. SageMaker Durante la compilazione, assicurati che l'hardware di destinazione corrisponda all'hardware del dispositivo core Greengrass. Per ulteriori informazioni, consulta [ SageMaker AI Neo](https://docs.aws.amazon.com/sagemaker/latest/dg/neo.html) nella *Amazon SageMaker AI Developer Guide*.

Il modello compilato deve essere aggiunto come risorsa ML ([origine del modello Amazon S3](ml-inference.md#s3-ml-resources)) allo stesso gruppo Greengrass del connettore.

## Parametri del connettore
<a name="obj-detection-connector-param"></a>

Questi connettori forniscono i seguenti parametri.

`MLModelDestinationPath`  
Il percorso assoluto verso il bucket Amazon S3 che contiene il modello ML compatibile con NEO. Si tratta del percorso di destinazione specificato per la risorsa del modello ML.  
**Nome visualizzato nella AWS IoT console: percorso di destinazione del modello**  
Obbligatorio: `true`  
Tipo: `string`  
Schema valido: `.+`

`MLModelResourceId`  
L'ID della risorsa ML che fa riferimento al modello di origine.  
Nome visualizzato nella AWS IoT console: risorsa ML del **gruppo Greengrass**  
Obbligatorio: `true`  
Tipo: `S3MachineLearningModelResource`  
Schema valido: `^[a-zA-Z0-9:_-]+$`

`LocalInferenceServiceName`  
Il nome del servizio di inferenza locale. Le funzioni Lambda definite dall'utente richiamano il servizio passando il nome alla funzione `invoke_inference_service` del Machine AWS IoT Greengrass Learning SDK. Per vedere un esempio, consulta [Esempio di utilizzo](#obj-detection-connector-usage).  
**Nome visualizzato nella AWS IoT console: nome del servizio di inferenza locale**  
Obbligatorio: `true`  
Tipo: `string`  
Schema valido: `^[a-zA-Z0-9][a-zA-Z0-9-]{1,62}$`

`LocalInferenceServiceTimeoutSeconds`  
Il tempo (in secondi) prima che la richiesta di inferenza venga terminata. Il valore minimo è 1. Il valore predefinito è 10.  
Nome visualizzato nella AWS IoT console: **Timeout (secondo)**  
Obbligatorio: `true`  
Tipo: `string`  
Schema valido: `^[1-9][0-9]*$`

`LocalInferenceServiceMemoryLimitKB`  
La quantità di memoria (in KB) a cui ha accesso il servizio. Il valore minimo è 1.  
Nome visualizzato nella AWS IoT console: **limite di memoria**  
Obbligatorio: `true`  
Tipo: `string`  
Schema valido: `^[1-9][0-9]*$`

`GPUAcceleration`  <a name="param-image-classification-gpuacceleration"></a>
Il contesto di calcolo della CPU o GPU (accelerata). Questa proprietà si applica solo al JTX2 connettore ML Image Classification Aarch64.  
**Nome visualizzato nella AWS IoT console: accelerazione GPU**  
Obbligatorio: `true`  
Tipo: `string`  
Valori validi: `CPU` o `GPU`

`MLFeedbackConnectorConfigId`  <a name="param-image-classification-feedbackconfigid"></a>
L'ID della configurazione di feedback da utilizzare per caricare i dati di input del modello. Deve corrispondere all'ID di una configurazione di feedback definita per il [connettore ML Feedback](ml-feedback-connector.md).  
Questo parametro è obbligatorio solo se desideri utilizzare il connettore ML Feedback per caricare i dati di input del modello e pubblicare le previsioni in un argomento MQTT.  
Nome visualizzato nella AWS IoT console: **ID di configurazione del connettore ML Feedback**  
Obbligatorio: `false`  
Tipo: `string`  
Schema valido: `^$|^[a-zA-Z0-9][a-zA-Z0-9-]{1,62}$`

### Esempio di creazione di un connettore (AWS CLI)
<a name="obj-detection-connector-create"></a>

Il seguente comando CLI crea una `ConnectorDefinition` versione iniziale che contiene un connettore ML Object Detection. Questo esempio crea un'istanza del ARMv7l connettore ML Object Detection.

```
aws greengrass create-connector-definition --name MyGreengrassConnectors --initial-version '{
    "Connectors": [
        {
            "Id": "MyObjectDetectionConnector",
            "ConnectorArn": "arn:aws:greengrass:region::/connectors/ObjectDetectionARMv7/versions/1",
            "Parameters": {
                "MLModelDestinationPath": "/path-to-model",
                "MLModelResourceId": "my-ml-resource",
                "LocalInferenceServiceName": "objectDetection",
                "LocalInferenceServiceTimeoutSeconds": "10",
                "LocalInferenceServiceMemoryLimitKB": "500000",
                "MLFeedbackConnectorConfigId" : "object-detector-random-sampling"
            }
        }
    ]
}'
```

**Nota**  
La funzione Lambda di questi connettori ha un ciclo di vita di [lunga durata](lambda-functions.md#lambda-lifecycle).

**Nella AWS IoT Greengrass console, puoi aggiungere un connettore dalla pagina Connettori del gruppo.** Per ulteriori informazioni, consulta [Nozioni di base sui connettori Greengrass (console)](connectors-console.md).

## Dati di input
<a name="obj-detection-connector-data-input"></a>

 Questi connettori accettano un file di immagine come input. I file di immagine di input devono essere in formato `png` o `jpeg`. Per ulteriori informazioni, consulta [Esempio di utilizzo](#obj-detection-connector-usage). 

Questi connettori non accettano messaggi MQTT come dati di input.

## Dati di output
<a name="obj-detection-connector-data-output"></a>

 Questi connettori restituiscono un elenco formattato di risultati delle previsioni per gli oggetti identificati nell'immagine di input: 

```
     {
         "prediction": [
             [
                 14,
                 0.9384938478469849,
                 0.37763649225234985,
                 0.5110225081443787,
                 0.6697432398796082,
                 0.8544386029243469
             ],
             [
                 14,
                 0.8859519958496094,
                 0,
                 0.43536216020584106,
                 0.3314110040664673,
                 0.9538808465003967
             ],
             [
                 12,
                 0.04128098487854004,
                 0.5976729989051819,
                 0.5747185945510864,
                 0.704264223575592,
                 0.857937216758728
             ],
             ...
         ]
     }
```

Ogni previsione nell'elenco è contenuta tra parentesi quadre e contiene sei valori:
+  Il primo valore rappresenta la categoria di oggetto prevista per l'oggetto identificato. Le categorie di oggetti e i valori corrispondenti vengono determinati durante l'addestramento del modello di apprendimento automatico per il rilevamento di oggetti nel compilatore di deep learning Neo.
+ Il secondo valore è il punteggio di affidabilità per la previsione della categoria dell'oggetto. Questo rappresenta la probabilità che la previsione fosse corretta. 
+ Gli ultimi quattro valori corrispondono alle dimensioni in pixel che rappresentano un riquadro di delimitazione intorno all'oggetto previsto nell'immagine.

Questi connettori non pubblicano messaggi MQTT come dati di output.

## Esempio di utilizzo
<a name="obj-detection-connector-usage"></a>

L'esempio seguente della funzione Lambda utilizza il [AWS IoT Greengrass Machine Learning SDK](lambda-functions.md#lambda-sdks-ml) per interagire con un connettore ML Object Detection.

**Nota**  
 Puoi scaricare l'SDK dalla pagina dei download di [AWS IoT Greengrass Machine Learning SDK](what-is-gg.md#gg-ml-sdk-download). 

In questo esempio viene inizializzato un client SDK e viene chiamata in modo sincrono la funzione `invoke_inference_service` di SDK per richiamare il servizio di inferenza locale. Trasferisce il tipo di algoritmo, il nome del servizio, il tipo di immagine e il contenuto dell'immagine. Quindi, l'esempio analizza la risposta del servizio per ottenere i risultati di probabilità (previsioni).

```
import logging
from threading import Timer

import numpy as np

import greengrass_machine_learning_sdk as ml

# We assume the inference input image is provided as a local file
# to this inference client Lambda function.
with open('/test_img/test.jpg', 'rb') as f:
    content = bytearray(f.read())

client = ml.client('inference')

def infer():
    logging.info('invoking Greengrass ML Inference service')

    try:
        resp = client.invoke_inference_service(
            AlgoType='object-detection',
            ServiceName='objectDetection',
            ContentType='image/jpeg',
            Body=content
        )
    except ml.GreengrassInferenceException as e:
        logging.info('inference exception {}("{}")'.format(e.__class__.__name__, e))
        return
    except ml.GreengrassDependencyException as e:
        logging.info('dependency exception {}("{}")'.format(e.__class__.__name__, e))
        return

    logging.info('resp: {}'.format(resp))
    predictions = resp['Body'].read().decode("utf-8")
    logging.info('predictions: {}'.format(predictions))
    predictions = eval(predictions) 

    # Perform business logic that relies on the predictions.
    
    # Schedule the infer() function to run again in ten second.
    Timer(10, infer).start()
    return

infer()

def function_handler(event, context):
    return
```

La `invoke_inference_service` funzione nel AWS IoT Greengrass Machine Learning SDK accetta i seguenti argomenti.


| Argomento | Descrizione | 
| --- | --- | 
| `AlgoType` | Il nome del tipo di algoritmo da utilizzare per l'inferenza. Attualmente è supportato solo `object-detection`. Obbligatorio: `true` Tipo: `string` Valori validi: `object-detection` | 
| `ServiceName` | Il nome del servizio di inferenza locale. Utilizza il nome specificato per il parametro `LocalInferenceServiceName` al momento della configurazione del connettore. Richiesto: `true` Tipo: `string` | 
| `ContentType` | Il tipo mime dell'immagine di input. Richiesto: `true` Tipo: `string` Valori validi: `image/jpeg, image/png` | 
| `Body` | Il contenuto del file immagine di input. Richiesto: `true` Tipo: `binary` | 

## Installazione delle dipendenze del runtime di Neo Deep Learning sul core AWS IoT Greengrass
<a name="obj-detection-connector-config"></a>

I connettori ML Object Detection sono forniti in bundle con il deep learning runtime (DLR) SageMaker AI Neo. I connettori utilizzano il runtime per servire il modello ML. Per utilizzare questi connettori, devi installare le dipendenze per il DLR sul dispositivo core. 

Prima di installare le dipendenze DLR, assicurati che le [librerie di sistema](#obj-detection-connector-logging) richieste (nelle versioni minime specificate) siano presenti sul dispositivo.

------
#### [ NVIDIA Jetson TX2 ]

1. Installa CUDA Toolkit 9.0 e cuDNN 7.0. Puoi seguire le istruzioni di [Configurazione di altri dispositivi](setup-filter.other.md) nel tutorial Nozioni di base.

1. Abilita i repository universali in modo che il connettore sia in grado di installare l'open software gestito dalla community. Per ulteriori informazioni, consulta [Repository/Ubuntu](https://help.ubuntu.com/community/Repositories/Ubuntu) nella documentazione Ubuntu.

   1. Apri il file `/etc/apt/sources.list`.

   1. Assicurati che le seguenti righe non presentino commenti.

      ```
      deb http://ports.ubuntu.com/ubuntu-ports/ xenial universe
      deb-src http://ports.ubuntu.com/ubuntu-ports/ xenial universe
      deb http://ports.ubuntu.com/ubuntu-ports/ xenial-updates universe
      deb-src http://ports.ubuntu.com/ubuntu-ports/ xenial-updates universe
      ```

1. Salva una copia del seguente script di installazione nel file `nvidiajtx2.sh` del dispositivo core.

   ```
   #!/bin/bash
   set -e
   
   echo "Installing dependencies on the system..."
   echo 'Assuming that universe repos are enabled and checking dependencies...'
   apt-get -y update
   apt-get -y dist-upgrade
   apt-get install -y liblapack3 libopenblas-dev liblapack-dev libatlas-base-dev
   apt-get install -y python3.7 python3.7-dev
   
   python3.7 -m pip install --upgrade pip
   python3.7 -m pip install numpy==1.15.0
   python3.7 -m pip install opencv-python || echo 'Error: Unable to install OpenCV with pip on this platform. Try building the latest OpenCV from source (https://github.com/opencv/opencv).'
   
   echo 'Dependency installation/upgrade complete.'
   ```
**Nota**  
<a name="opencv-build-from-source"></a>Se [OpenCV](https://github.com/opencv/opencv) non viene installato correttamente utilizzando questo script, puoi provare a compilare dall'origine. Per ulteriori informazioni, consulta [ Installazione in Linux](https://docs.opencv.org/4.1.0/d7/d9f/tutorial_linux_install.html) nella documentazione di OpenCV o fai riferimento ad altre risorse online per la tua piattaforma.

1. Dalla directory in cui hai salvato il file, esegui il seguente comando:

   ```
   sudo nvidiajtx2.sh
   ```

------
#### [ x86\$164 (Ubuntu or Amazon Linux)  ]

1. Salva una copia del seguente script di installazione nel file `x86_64.sh` del dispositivo core.

   ```
   #!/bin/bash
   set -e
   
   echo "Installing dependencies on the system..."
   
   release=$(awk -F= '/^NAME/{print $2}' /etc/os-release)
   
   if [ "$release" == '"Ubuntu"' ]; then
     # Ubuntu. Supports EC2 and DeepLens. DeepLens has all the dependencies installed, so
     # this is mostly to prepare dependencies on Ubuntu EC2 instance.
     apt-get -y update
     apt-get -y dist-upgrade
   
     apt-get install -y libgfortran3 libsm6 libxext6 libxrender1
     apt-get install -y python3.7 python3.7-dev
   elif [ "$release" == '"Amazon Linux"' ]; then
     # Amazon Linux. Expect python to be installed already
     yum -y update
     yum -y upgrade
   
     yum install -y compat-gcc-48-libgfortran libSM libXrender libXext
   else
     echo "OS Release not supported: $release"
     exit 1
   fi
   
   python3.7 -m pip install --upgrade pip
   python3.7 -m pip install numpy==1.15.0
   python3.7 -m pip install opencv-python || echo 'Error: Unable to install OpenCV with pip on this platform. Try building the latest OpenCV from source (https://github.com/opencv/opencv).'
   
   echo 'Dependency installation/upgrade complete.'
   ```
**Nota**  
<a name="opencv-build-from-source"></a>Se [OpenCV](https://github.com/opencv/opencv) non viene installato correttamente utilizzando questo script, puoi provare a compilare dall'origine. Per ulteriori informazioni, consulta [ Installazione in Linux](https://docs.opencv.org/4.1.0/d7/d9f/tutorial_linux_install.html) nella documentazione di OpenCV o fai riferimento ad altre risorse online per la tua piattaforma.

1. Dalla directory in cui hai salvato il file, esegui il comando seguente:

   ```
   sudo x86_64.sh
   ```

------
#### [ ARMv7 (Raspberry Pi) ]

1. Salva una copia del seguente script di installazione nel file `armv7l.sh` del dispositivo core.

   ```
   #!/bin/bash
   set -e
   
   echo "Installing dependencies on the system..."
   
   apt-get update
   apt-get -y upgrade
   
   apt-get install -y liblapack3 libopenblas-dev liblapack-dev
   apt-get install -y python3.7 python3.7-dev
   
   python3.7 -m pip install --upgrade pip
   python3.7 -m pip install numpy==1.15.0
   python3.7 -m pip install opencv-python || echo 'Error: Unable to install OpenCV with pip on this platform. Try building the latest OpenCV from source (https://github.com/opencv/opencv).'
   
   echo 'Dependency installation/upgrade complete.'
   ```
**Nota**  
<a name="opencv-build-from-source"></a>Se [OpenCV](https://github.com/opencv/opencv) non viene installato correttamente utilizzando questo script, puoi provare a compilare dall'origine. Per ulteriori informazioni, consulta [ Installazione in Linux](https://docs.opencv.org/4.1.0/d7/d9f/tutorial_linux_install.html) nella documentazione di OpenCV o fai riferimento ad altre risorse online per la tua piattaforma.

1. Dalla directory in cui hai salvato il file, esegui il comando seguente:

   ```
   sudo bash armv7l.sh
   ```
**Nota**  
Su un Raspberry Pi, l'utilizzo di `pip` per installare dipendenze di machine learning è un'operazione con elevati requisiti di memoria che può esaurire la memoria del dispositivo e causarne il blocco. Per risolvere il problema, è possibile aumentare temporaneamente la dimensione di swap: In `/etc/dphys-swapfile`, aumenta il valore della variabile `CONF_SWAPSIZE` e quindi esegui il comando seguente per riavviare `dphys-swapfile`.  

   ```
   /etc/init.d/dphys-swapfile restart
   ```

------

## Registrazione e risoluzione dei problemi
<a name="obj-detection-connector-logging"></a>

A seconda delle impostazioni del gruppo, i registri degli eventi e degli errori vengono scritti CloudWatch nei registri, nel file system locale o in entrambi. I log di questo connettore utilizzano il prefisso `LocalInferenceServiceName`. Se il connettore si comporta inaspettatamente, controlla i log del connettore. Questi di solito contengono utili informazioni di debug, ad esempio una dipendenza della libreria ML mancante o la causa di un errore di avvio del connettore.

Se il AWS IoT Greengrass gruppo è configurato per scrivere registri locali, il connettore scrive i file di registro su. `greengrass-root/ggc/var/log/user/region/aws/` Per ulteriori informazioni sulla registrazione di Greengrass, vedere. [Monitoraggio con AWS IoT Greengrass registri](greengrass-logs-overview.md)

Utilizzate le seguenti informazioni per risolvere i problemi relativi ai connettori ML Object Detection.

**Librerie di sistema richieste**

Le seguenti schede elencano le librerie di sistema necessarie per ogni connettore ML Object Detection.

------
#### [ ML Object Detection Aarch64 JTX2 ]


| Libreria | Versione minima | 
| --- | --- | 
| ld-linux-aarch64.so.1 | GLIBC\$12.17 | 
| libc.so.6 | GLIBC\$12.17 | 
| libcublas.so.9.0 | non applicabile | 
| libcudart.so.9.0 | non applicabile | 
| libcudnn.so.7 | non applicabile | 
| libcufft.so.9.0 | non applicabile | 
| libcurand.so.9.0 | non applicabile | 
| libcusolver.so.9.0 | non applicabile | 
| libgcc\$1s.so.1 | GCC\$14.2.0 | 
| libgomp.so.1 | GOMP\$14.0, OMP\$11.0 | 
| libm.so.6 | GLIBC\$12.23 | 
| libnvinfer.so.4 | non applicabile | 
| libnvrm\$1gpu.so | non applicabile | 
| libnvrm.so | non applicabile | 
| libnvidia-fatbinaryloader.so.28.2.1 | non applicabile | 
| libnvos.so | non applicabile | 
| libpthread.so.0 | GLIBC\$12.17 | 
| librt.so.1 | GLIBC\$12.17 | 
| libstdc\$1\$1.so.6 | GLIBCXX\$13.4.21, CXXABI\$11.3.8 | 

------
#### [ ML Object Detection x86\$164 ]


| Libreria | Versione minima | 
| --- | --- | 
| ld-linux-x86-64.so.2 | GCC\$14.0.0 | 
| libc.so.6 | GLIBC\$12.4 | 
| libgfortran.so.3 | GFORTRAN\$11.0 | 
| libm.so.6 | GLIBC\$12.23 | 
| libpthread.so.0 | GLIBC\$12.2.5 | 
| librt.so.1 | GLIBC\$12.2.5 | 
| libstdc\$1\$1.so.6 | CXXABI\$11.3.8, GLIBCXX\$13.4.21 | 

------
#### [ ML Object Detection ARMv7 ]


| Libreria | Versione minima | 
| --- | --- | 
| ld-linux-armhf.so.3 | GLIBC\$12.4 | 
| libc.so.6 | GLIBC\$12.7 | 
| libgcc\$1s.so.1 | GCC\$14.0.0 | 
| libgfortran.so.3 | GFORTRAN\$11.0 | 
| libm.so.6 | GLIBC\$12.4 | 
| libpthread.so.0 | GLIBC\$12.4 | 
| librt.so.1 | GLIBC\$12.4 | 
| libstdc\$1\$1.so.6 | CXXABI\$11.3.8, CXXABI\$1ARM\$11.3.3, GLIBCXX\$13.4.20 | 

------

**Problemi**


| Caratteristiche | Soluzione | 
| --- | --- | 
|  In un Raspberry Pi, il seguente messaggio di errore viene registrato e non si sta utilizzando la fotocamera: `Failed to initialize libdc1394`   |  Per disabilitare il driver, esegui il seguente comando: <pre>sudo ln /dev/null /dev/raw1394</pre> Questa operazione è temporanea. Il collegamento simbolico scompare dopo il riavvio. Consulta il manuale di distribuzione del sistema operativo per ulteriori informazioni su come creare automaticamente il link al riavvio.  | 

## Licenze
<a name="obj-detection-connector-license"></a>

I connettori ML Object Detection includono i seguenti software/licenze di terze parti:<a name="boto-3-licenses"></a>
+ [AWS SDK per Python (Boto3)](https://pypi.org/project/boto3/)/Apache License 2.0
+ [botocore](https://pypi.org/project/botocore/)/Apache License 2.0
+ [dateutil](https://pypi.org/project/python-dateutil/1.4/)/PSF License
+ [docutils](https://pypi.org/project/docutils/)/BSD License, GNU General Public License (GPL), Python Software Foundation License, Public Domain
+ [jmespath](https://pypi.org/project/jmespath/)/MIT License
+ [s3transfer](https://pypi.org/project/s3transfer/)/Apache License 2.0
+ [urllib3](https://pypi.org/project/urllib3/)/MIT License
+ [Deep Learning Runtime](https://github.com/neo-ai/neo-ai-dlr)/Apache License 2.0
+ <a name="six-license"></a>[six](https://github.com/benjaminp/six)/MIT

Questo connettore è rilasciato ai sensi del contratto di [licenza del software Greengrass Core](https://greengrass-release-license.s3.us-west-2.amazonaws.com/greengrass-license-v1.pdf).

## Consulta anche
<a name="obj-detection-connector-see-also"></a>
+ [Integrazione con servizi e protocolli tramite i connettori Greengrass](connectors.md)
+ [Nozioni di base sui connettori Greengrass (console)](connectors-console.md)
+ [Nozioni di base sui connettori Greengrass (CLI)](connectors-cli.md)
+ [Esecuzione dell'inferenza di Machine Learning](ml-inference.md)
+ [Algoritmo di rilevamento degli oggetti](https://docs.aws.amazon.com/sagemaker/latest/dg/object-detection.html) nell'*Amazon SageMaker AI Developer Guide*