Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Schema 3: inferenza in tempo reale sul bordo
Molti casi d'uso aziendali richiedono un processo decisionale intelligente nel punto di interazione, indipendentemente dal fatto che l'interazione avvenga con un cliente, una macchina, un veicolo o un dispositivo IoT. In questi scenari, l'inferenza basata solo sul cloud non è sufficiente a causa dei seguenti problemi:
-
Limiti di latenza: i millisecondi sono importanti nelle esperienze degli utenti, come la personalizzazione, i consigli e i controlli antifrode.
-
Connettività intermittente o assente: gli ambienti remoti come quelli industriali, agricoli e sanitari spesso non dispongono di un accesso coerente al cloud. APIs
-
Elevato volume di dati: l'invio di carichi utili di sensori o immagini di grandi dimensioni al cloud per scopi di inferenza è inefficiente e costoso.
-
Requisiti normativi: in alcune giurisdizioni, i dati sensibili devono rimanere locali.
Le architetture tradizionali che si basano esclusivamente sull'inferenza ML centralizzata introducono ritardi, aumentano i costi e possono non essere in grado di servire efficacemente utenti o sistemi in ambienti edge-first.
Il modello di inferenza perimetrale: intelligenza in tempo reale ai margini
Il modello di inferenza edge in tempo reale consente alle organizzazioni di eseguire carichi di lavoro di inferenza più vicini all'utente o al dispositivo, utilizzando servizi gestiti da. AWS Questi servizi includono AWS IoT Greengrass, che consente l'inferenza localizzata e con funzionalità offline su dispositivi periferici fisici. Inoltre, Lambda @Edge consente l'esecuzione di una logica AI leggera nelle CloudFront edge location di Amazon
Questi servizi serverless consentono esperienze di intelligenza artificiale distribuite istantanee, resilienti ai problemi di connettività e conformi ai requisiti regionali e sensibili alla latenza.
L'architettura di riferimento implementa ogni livello come segue:
-
Event trigger: utilizza gli eventi periferici (come le letture dei sensori e le modifiche dello stato del dispositivo) o le richieste dei visualizzatori. CloudFront
-
Elaborazione: implementa una funzione AWS IoT Greengrass Lambda locale per formattare l'input, estrarre i metadati o filtrare il rumore. Utilizza Lambda @Edge per ispezionare le intestazioni o la geolocalizzazione.
-
Inferenza: implementa un modello ML tramite un AWS IoT Greengrass componente (ad esempio PyTorch oONNX) o effettua chiamate API remote ad Amazon Bedrock o Amazon SageMaker Serverless Inference tramite Lambda @Edge.
-
Post-elaborazione: consente di AWS IoT Greengrass pubblicare il rilevamento delle anomalie nelle ombre dei dispositivi MQTT o AWS IoT. Utilizza Lambda @Edge per personalizzare le risposte e impostare i cookie.
-
Output: sincronizzazione con AWS IoT CoreAmazon S3 o Amazon. EventBridge Invia le risposte tramite CloudFront il browser o la dashboard del dispositivo.
Nota
Ogni livello svolge un ruolo nella riduzione dei tempi di risposta, nell'ottimizzazione della larghezza di banda e nella localizzazione dell'intelligence.
Casi d'uso per il pattern di inferenza dei bordi
Il pattern di inferenza in tempo reale sull'edge supporta varie implementazioni in diversi settori. Ecco due esempi rappresentativi:
-
Monitoraggio delle apparecchiature di fabbrica e AWS IoT Greengrass: Uno stabilimento di produzione utilizza gateway che consentono di AWS IoT Greengrass rilevare anomalie nelle vibrazioni delle apparecchiature. Il modello viene eseguito localmente, avvisando l'operatore in tempo reale e inviando solo dati di riepilogo al cloud.
-
Contenuti web personalizzati e Lambda @Edge: un sito di e-commerce utilizza Lambda @Edge per analizzare i cookie e le intestazioni sulle richieste in arrivo. Lambda @Edge aiuta il sito a fornire consigli personalizzati e immagini di prodotto in meno di 50 ms, senza interruzioni di backend.
Le migliori pratiche di sicurezza e gestione a livello perimetrale
Sia IoT Greengrass che Lambda @Edge sono completamente integrati con AWS Identity and Access Management(IAM) e Amazon. AWS IoT Core CloudWatch Le migliori pratiche chiave includono quanto segue:
-
Firma e verifica del codice per AWS IoT Greengrass i componenti
-
Ispezione e registrazione del traffico regionale per Lambda @Edge
-
Aggiornamenti sicuri dei modelli over-the-air (OTA) tramite bucket Amazon S3 e pipeline di integrazione e distribuzione continue (CI/CD)
-
Ruoli IAM dettagliati per limitare l'accesso ai dati all'edge
Confronto AWS IoT Greengrass e Lambda @Edge
La tabella seguente confronta gli aspetti operativi chiave di AWS IoT Greengrass Lambda @Edge nel contesto dell'inferenza dei bordi.
Considerazione |
AWS IoT Greengrass |
Lambda@Edge |
|---|---|---|
Funziona offline |
Sì |
No |
Gestisce i dati locali del sensore e dell'attuatore |
Sì |
No |
Ideale per la personalizzazione web globale |
No |
Sì |
Supporta modelli di intelligenza artificiale |
Inferenza locale completa |
Logica leggera e chiamate API cloud |
Integrazione con Amazon Bedrock o SageMaker Serverless Inference |
Tramite sincronizzazione e registrazione asincrone |
Tramite il fallback o la memorizzazione nella cache di Amazon API Gateway |
Utilizzando questo modello, le aziende possono incorporare l'intelligenza artificiale dove è più necessaria, in officina, sul campo, nei browser o in tutto il mondo. L'inferenza in tempo reale sul pattern perimetrale è essenziale per:
-
Applicazioni con requisiti di bassa latenza e alta disponibilità
-
Dispositivi edge in ambienti remoti o ad alta produttività
-
Esperienze di consumo globali in cui la posizione è importante
AWS IoT Greengrass Combinando l'intelligenza sul dispositivo con Lambda @Edge per la prossimità agli utenti AWS , consente un approccio potente e senza server all'intelligenza artificiale perimetrale scalabile, resiliente ed economica.
Valore aziendale del pattern di inferenza edge
Il modello di inferenza dei bordi offre valore nelle seguenti aree:
-
Prestazioni: consente un'inferenza inferiore a 100 ms per app rivolte agli utenti o automazioni urgenti
-
Affidabilità: funziona senza connettività, il che è particolarmente importante per l'IoT o le implementazioni remote
-
Risparmio di larghezza di banda: mantiene i dati grezzi locali e trasferisce solo gli eventi significativi nel cloud
-
Conformità: mantiene l'inferenza e i dati a livello locale per conformarsi alla governance regionale, come il Regolamento generale sulla protezione dei dati (GDPR) e l'Health Insurance Portability and Accountability Act del 1996 (HIPAA)
-
Controllo dei costi: riduce al minimo l'utilizzo delle risorse cloud e il traffico di rete laddove non è essenziale