Edge AI e distribuzione globale dell'inferenza - AWS Guida prescrittiva

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Edge AI e distribuzione globale dell'inferenza

Sebbene l'inferenza basata sul cloud sia utile per la maggior parte dei casi d'uso aziendali, alcuni scenari richiedono risposte in tempo reale, funzionalità offline o vicinanza alla fonte di dati o all'utente. In questi casi, l'intelligenza artificiale edge, che esegue la logica di intelligenza artificiale sopra o vicino al dispositivo, offre un potente complemento all'architettura cloud serverless.

AWS supporta l'intelligenza artificiale perimetrale attraverso due tecnologie serverless chiave:

  • Lambda @Edge esegue la logica di inferenza a livello globale nelle AWS edge location utilizzando Amazon. CloudFront

    Esempio: un sito di e-commerce globale utilizza una funzione Lambda @Edge per personalizzare i contenuti della home page in base alla posizione e alla lingua dell'utente. Di conseguenza, offre esperienze personalizzate istantaneamente dalla edge location più vicina CloudFront .

  • AWS IoT Greengrassconsente l'esecuzione dell'IA locale sui dispositivi connessi.

    Esempio: un'appliance intelligente utilizza un modello implementato AWS IoT Greengrass per la diagnostica in tempo reale, sincronizzando le informazioni con il cloud quando necessario o quando la connettività lo consente.

Insieme, queste tecnologie estendono la portata dell'IA serverless ad ambienti a bassa latenza, sensibili alla larghezza di banda o offline e a basi di utenti distribuite a livello globale.

Lambda @Edge: inferenza globale a livello CDN

Utilizzando Lambda @Edge, gli sviluppatori possono eseguire AWS Lambda funzioni nelle CloudFront edge location. Questo approccio riduce la latenza per gli utenti finali e consente esperienze di intelligenza artificiale sensibili al contesto e ultra veloci.

Le funzionalità principali di Lambda @Edge includono quanto segue:

  • Esegue la logica a livello CDN in risposta a CloudFront eventi come la richiesta del visualizzatore e la risposta all'origine

  • Personalizza contenuti come la personalizzazione delle pagine Web e i consigli in base all'utente, alla posizione e al dispositivo

  • Integra l'inferenza basata sull'intelligenza artificiale direttamente nella distribuzione dei contenuti senza indirizzarli a una centrale Regione AWS

  • Implementa a livello globale senza fornire l'infrastruttura

Esempi di casi d'uso di Lambda @Edge

Lambda @Edge abilita i seguenti casi d'uso chiave:

  • Personalizzazione dell'e-commerce: fornisci consigli dinamici sui prodotti in base all'ID utente e al comportamento.

  • Streaming multimediale: modifica i consigli e i controlli parentali in base alle politiche regionali.

  • Campagne di marketing: personalizza banner, contenuti e offerte per ogni località.

  • Esperienza utente multilingue (UX): rileva la posizione e la lingua dell'utente per fornire contenuti tradotti in linea da Amazon Bedrock LLM.

Posizionando la logica di inferenza il più vicino possibile all'utente, Lambda @Edge supporta una distribuzione front-end iperpersonalizzata e basata sull'intelligenza artificiale, ideale per applicazioni consumer su larga scala.

Lambda @Edge viene spesso utilizzata insieme ad Amazon Bedrock o SageMaker Serverless Inference utilizzando strategie di routing e caching asincrone per combinare velocità e intelligenza.

AWS IoT Greengrass: inferenza locale all'edge

AWS IoT Greengrass è un runtime leggero che i clienti possono utilizzare per eseguire funzioni Lambda, inferenza ML e codice personalizzato. Funziona su dispositivi periferici come controller industriali, fotocamere, dispositivi medici o elettrodomestici intelligenti.

Le funzionalità principali AWS IoT Greengrass includono quanto segue:

  • Esegue le funzioni Lambda localmente anche quando è disconnesso dal cloud.

  • Pacchettizza modelli ML (formazione SageMaker completa o personalizzata) per eseguire l'inferenza direttamente sul dispositivo.

  • Semplifica gli aggiornamenti attraverso la over-the-air distribuzione sicura e la gestione della configurazione.

  • Si integra con Servizi AWS (ad esempio, Amazon S3 AWS IoT Core e CloudWatch Amazon) per il monitoraggio centralizzato.

Esempi di casi d'uso di AWS IoT Greengrass

AWS IoT Greengrass abilita applicazioni di inferenza all'edge in più settori, come i seguenti:

  • Produzione: rileva i difetti dall'input della telecamera senza dover ricorrere al cloud.

  • Sanità: monitora i pazienti ed esegui la diagnostica in cliniche con connettività intermittente.

  • Agricoltura: classifica le condizioni delle colture utilizzando le riprese dei droni.

  • Energia: monitora condotte e turbine utilizzando modelli di rilevamento delle anomalie.

AWS IoT Greengrass consente a questi carichi di lavoro di essere veloci, resilienti e indipendenti dalla latenza del cloud, garantendo al contempo gestione, osservabilità e sincronizzazione lato cloud. Utilizzando AWS IoT Greengrass, gli sviluppatori possono implementare le stesse funzioni Lambda utilizzate nel cloud, creando continuità tra sistemi centralizzati e distribuiti.

IA globale e locale: una strategia di esecuzione a più livelli

Le aziende possono combinare Lambda @Edge e creare un AWS IoT Greengrass sistema AI edge su più livelli. Questa architettura ibrida consente di prendere decisioni intelligenti al livello giusto, a seconda della sensibilità alla latenza, delle dimensioni del modello, della connettività e dei requisiti di conformità. La tabella seguente descrive i livelli, AWS le tecnologie e i ruoli di questa architettura.

Livello

AWS tecnologia

Ruolo tecnologico

Edge del dispositivo

AWS IoT Greengrass

  • Sul dispositivo

  • Compatibile con la modalità offline

  • Logica AI

  • Elaborazione dei dati dei sensori

Edge della rete

Lambda@Edge

  • Personalizzazione dei contenuti

  • AI leggera vicino all'utente

  • Latenza ultrabassa

Nucleo del cloud

Amazon Bedrock, Amazon SageMaker Serverless Inference e AWS Step Functions

  • Inferenza IA pesante

  • Orchestrazione

  • Ragionamento dell'agente

  • Gasdotti RAG

Riepilogo di edge AI

Edge AI è una naturale evoluzione dell'architettura serverless, che offre inferenza a bassa latenza, personalizzazione contestuale e resilienza alle sfide di connettività. Con AWS IoT Greengrass e Lambda @Edge, le organizzazioni possono ottenere quanto segue:

  • Gli sviluppatori possono estendere i principi serverless oltre il data center.

  • Le aziende possono implementare e mantenere le pipeline di intelligenza artificiale più vicine agli utenti e alle fonti di dati.

  • La logica dell'intelligenza artificiale diventa consapevole della posizione, autonoma e altamente scalabile.

L'intelligenza artificiale sta diventando pervasiva in tutti i settori, dalle città intelligenti alla robotica da campo alla distribuzione globale dei media. Per supportare questa evoluzione, queste Servizi AWS possono svolgere un ruolo fondamentale nella creazione di applicazioni distribuite e intelligenti che funzionano ovunque.