Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Edge AI e distribuzione globale dell'inferenza
Sebbene l'inferenza basata sul cloud sia utile per la maggior parte dei casi d'uso aziendali, alcuni scenari richiedono risposte in tempo reale, funzionalità offline o vicinanza alla fonte di dati o all'utente. In questi casi, l'intelligenza artificiale edge, che esegue la logica di intelligenza artificiale sopra o vicino al dispositivo, offre un potente complemento all'architettura cloud serverless.
AWS supporta l'intelligenza artificiale perimetrale attraverso due tecnologie serverless chiave:
-
Lambda @Edge esegue la logica di inferenza a livello globale nelle AWS edge location utilizzando Amazon. CloudFront
Esempio: un sito di e-commerce globale utilizza una funzione Lambda @Edge per personalizzare i contenuti della home page in base alla posizione e alla lingua dell'utente. Di conseguenza, offre esperienze personalizzate istantaneamente dalla edge location più vicina CloudFront .
-
AWS IoT Greengrassconsente l'esecuzione dell'IA locale sui dispositivi connessi.
Esempio: un'appliance intelligente utilizza un modello implementato AWS IoT Greengrass per la diagnostica in tempo reale, sincronizzando le informazioni con il cloud quando necessario o quando la connettività lo consente.
Insieme, queste tecnologie estendono la portata dell'IA serverless ad ambienti a bassa latenza, sensibili alla larghezza di banda o offline e a basi di utenti distribuite a livello globale.
Lambda @Edge: inferenza globale a livello CDN
Utilizzando Lambda @Edge, gli sviluppatori possono eseguire AWS Lambda funzioni nelle CloudFront edge location. Questo approccio riduce la latenza per gli utenti finali e consente esperienze di intelligenza artificiale sensibili al contesto e ultra veloci.
Le funzionalità principali di Lambda @Edge includono quanto segue:
-
Esegue la logica a livello CDN in risposta a CloudFront eventi come la richiesta del visualizzatore e la risposta all'origine
-
Personalizza contenuti come la personalizzazione delle pagine Web e i consigli in base all'utente, alla posizione e al dispositivo
-
Integra l'inferenza basata sull'intelligenza artificiale direttamente nella distribuzione dei contenuti senza indirizzarli a una centrale Regione AWS
-
Implementa a livello globale senza fornire l'infrastruttura
Esempi di casi d'uso di Lambda @Edge
Lambda @Edge abilita i seguenti casi d'uso chiave:
-
Personalizzazione dell'e-commerce: fornisci consigli dinamici sui prodotti in base all'ID utente e al comportamento.
-
Streaming multimediale: modifica i consigli e i controlli parentali in base alle politiche regionali.
-
Campagne di marketing: personalizza banner, contenuti e offerte per ogni località.
-
Esperienza utente multilingue (UX): rileva la posizione e la lingua dell'utente per fornire contenuti tradotti in linea da Amazon Bedrock LLM.
Posizionando la logica di inferenza il più vicino possibile all'utente, Lambda @Edge supporta una distribuzione front-end iperpersonalizzata e basata sull'intelligenza artificiale, ideale per applicazioni consumer su larga scala.
Lambda @Edge viene spesso utilizzata insieme ad Amazon Bedrock o SageMaker Serverless Inference utilizzando strategie di routing e caching asincrone per combinare velocità e intelligenza.
AWS IoT Greengrass: inferenza locale all'edge
AWS IoT Greengrass è un runtime leggero che i clienti possono utilizzare per eseguire funzioni Lambda, inferenza ML e codice personalizzato. Funziona su dispositivi periferici come controller industriali, fotocamere, dispositivi medici o elettrodomestici intelligenti.
Le funzionalità principali AWS IoT Greengrass includono quanto segue:
-
Esegue le funzioni Lambda localmente anche quando è disconnesso dal cloud.
-
Pacchettizza modelli ML (formazione SageMaker completa o personalizzata) per eseguire l'inferenza direttamente sul dispositivo.
-
Semplifica gli aggiornamenti attraverso la over-the-air distribuzione sicura e la gestione della configurazione.
-
Si integra con Servizi AWS (ad esempio, Amazon S3 AWS IoT Core e CloudWatch Amazon) per il monitoraggio centralizzato.
Esempi di casi d'uso di AWS IoT Greengrass
AWS IoT Greengrass abilita applicazioni di inferenza all'edge in più settori, come i seguenti:
-
Produzione: rileva i difetti dall'input della telecamera senza dover ricorrere al cloud.
-
Sanità: monitora i pazienti ed esegui la diagnostica in cliniche con connettività intermittente.
-
Agricoltura: classifica le condizioni delle colture utilizzando le riprese dei droni.
-
Energia: monitora condotte e turbine utilizzando modelli di rilevamento delle anomalie.
AWS IoT Greengrass consente a questi carichi di lavoro di essere veloci, resilienti e indipendenti dalla latenza del cloud, garantendo al contempo gestione, osservabilità e sincronizzazione lato cloud. Utilizzando AWS IoT Greengrass, gli sviluppatori possono implementare le stesse funzioni Lambda utilizzate nel cloud, creando continuità tra sistemi centralizzati e distribuiti.
IA globale e locale: una strategia di esecuzione a più livelli
Le aziende possono combinare Lambda @Edge e creare un AWS IoT Greengrass sistema AI edge su più livelli. Questa architettura ibrida consente di prendere decisioni intelligenti al livello giusto, a seconda della sensibilità alla latenza, delle dimensioni del modello, della connettività e dei requisiti di conformità. La tabella seguente descrive i livelli, AWS le tecnologie e i ruoli di questa architettura.
Livello |
AWS tecnologia |
Ruolo tecnologico |
|---|---|---|
Edge del dispositivo |
AWS IoT Greengrass |
|
Edge della rete |
Lambda@Edge |
|
Nucleo del cloud |
Amazon Bedrock, Amazon SageMaker Serverless Inference e AWS Step Functions |
|
Riepilogo di edge AI
Edge AI è una naturale evoluzione dell'architettura serverless, che offre inferenza a bassa latenza, personalizzazione contestuale e resilienza alle sfide di connettività. Con AWS IoT Greengrass e Lambda @Edge, le organizzazioni possono ottenere quanto segue:
-
Gli sviluppatori possono estendere i principi serverless oltre il data center.
-
Le aziende possono implementare e mantenere le pipeline di intelligenza artificiale più vicine agli utenti e alle fonti di dati.
-
La logica dell'intelligenza artificiale diventa consapevole della posizione, autonoma e altamente scalabile.
L'intelligenza artificiale sta diventando pervasiva in tutti i settori, dalle città intelligenti alla robotica da campo alla distribuzione globale dei media. Per supportare questa evoluzione, queste Servizi AWS possono svolgere un ruolo fondamentale nella creazione di applicazioni distribuite e intelligenti che funzionano ovunque.