Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Schéma 3 : inférence en temps réel à la périphérie
De nombreux cas d'utilisation en entreprise nécessitent une prise de décision intelligente au point d'interaction, qu'il s'agisse d'une interaction avec un client, une machine, un véhicule ou un appareil IoT. Dans ces scénarios, l'inférence basée uniquement sur le cloud ne suffit pas en raison des problèmes suivants :
-
Contraintes de latence : les millisecondes sont importantes dans les expériences utilisateur, telles que la personnalisation, les recommandations et les contrôles antifraude.
-
Connectivité intermittente ou inexistante : les environnements distants tels que l'industrie, l'agriculture et les soins de santé ne disposent souvent pas d'un accès constant au cloud APIs.
-
Volume de données élevé — L'envoi de grandes charges utiles de capteurs ou d'images vers le cloud à des fins d'inférence est inefficace et coûteux.
-
Exigences réglementaires — Dans certaines juridictions, les données sensibles doivent rester locales.
Les architectures traditionnelles qui reposent uniquement sur l'inférence ML centralisée entraînent des retards, augmentent les coûts et peuvent ne pas répondre efficacement aux besoins des utilisateurs ou des systèmes dans les environnements de pointe.
Le modèle d'inférence périphérique : intelligence en temps réel à la périphérie
Le modèle d'inférence périphérique en temps réel permet aux entreprises d'exécuter les charges de travail d'inférence au plus près de l'utilisateur ou de l'appareil, à l'aide de services gérés par. AWS Ces services incluent AWS IoT Greengrassce qui permet une inférence localisée et hors ligne sur des périphériques physiques. En outre, Lambda @Edge permet d'exécuter une logique d'IA légère sur les sites CloudFront périphériques d'Amazon
Ces services sans serveur permettent des expériences d'IA distribuées instantanées, résilientes aux problèmes de connectivité et conformes aux exigences régionales et sensibles à la latence.
L'architecture de référence implémente chaque couche comme suit :
-
Déclencheur d'événements — Utilise des événements périphériques (tels que les relevés des capteurs et les modifications de l'état de l'appareil) ou les demandes transmises par le spectateur CloudFront.
-
Traitement — Implémente une fonction Lambda locale AWS IoT Greengrass pour formater l'entrée, extraire les métadonnées ou filtrer le bruit. Utilise Lambda @Edge pour inspecter les en-têtes ou la géolocalisation.
-
Inférence — Déploie un modèle ML via un AWS IoT Greengrass composant (par exemple, PyTorch ouONNX) ou effectue des appels d'API à distance vers Amazon Bedrock ou Amazon SageMaker Serverless Inference via Lambda @Edge.
-
Post-traitement : permet de publier AWS IoT Greengrass la détection d'anomalies dans les ombres des appareils MQTT ou AWS IoT. Utilise Lambda @Edge pour personnaliser les réponses et définir des cookies.
-
Sortie — Synchronise avec Amazon S3 ou Amazon EventBridge. AWS IoT Core Fournit les réponses via CloudFront le navigateur ou le tableau de bord de l'appareil.
Note
Chaque niveau joue un rôle dans la réduction du temps de réponse, l'optimisation de la bande passante et la localisation des informations.
Cas d'utilisation du modèle d'inférence des bords
Le modèle d'inférence en temps réel à la périphérie prend en charge diverses implémentations dans différents secteurs. Voici deux exemples représentatifs :
-
Surveillance de l'équipement d'usine et AWS IoT Greengrass — Une usine de fabrication déploie des passerelles activées AWS IoT Greengrass pour détecter les anomalies dans les vibrations de l'équipement. Le modèle s'exécute localement, alerte l'opérateur en temps réel et envoie uniquement des données récapitulatives au cloud.
-
Contenu Web personnalisé et Lambda @Edge — Un site de commerce électronique utilise Lambda @Edge pour analyser les cookies et les en-têtes des demandes entrantes. Lambda @Edge aide le site à fournir des recommandations personnalisées et des images de produits en moins de 50 ms, sans aller-retour en backend.
Bonnes pratiques de sécurité et de gestion à la périphérie
IoT Greengrass et Lambda @Edge sont tous deux totalement intégrés à Gestion des identités et des accès AWS(IAM) et à Amazon. AWS IoT Core CloudWatch Les meilleures pratiques clés sont les suivantes :
-
Signature de code et vérification pour les AWS IoT Greengrass composants
-
Inspection du trafic régional et journalisation pour Lambda @Edge
-
Mises à jour de modèles sécurisés over-the-air (OTA) à l'aide de compartiments Amazon S3 et de pipelines d'intégration et de déploiement continus (CI/CD)
-
Rôles IAM précis pour limiter l'accès aux données à la périphérie
Comparaison AWS IoT Greengrass et Lambda @Edge
Le tableau suivant compare les principaux aspects opérationnels de Lambda @Edge AWS IoT Greengrass et de Lambda dans le contexte de l'inférence de bord.
Considération |
AWS IoT Greengrass |
Lambda@Edge |
|---|---|---|
Fonctionne hors ligne |
Oui |
Non |
Gère les données locales du capteur et de l'actionneur |
Oui |
Non |
Idéal pour la personnalisation du Web à l'échelle mondiale |
Non |
Oui |
Supporte les modèles d'IA |
Inférence locale complète |
Logique allégée et appels d'API cloud |
Intégration avec Amazon Bedrock ou SageMaker Serverless Inference |
Grâce à la synchronisation et à la journalisation asynchrones |
Par le biais de la solution de repli ou de la mise en cache d'Amazon API Gateway |
En utilisant ce modèle, les entreprises peuvent intégrer l'IA là où elles en ont le plus besoin, dans l'atelier, sur le terrain, dans le navigateur ou dans le monde entier. L'inférence en temps réel sur le modèle de bord est essentielle pour :
-
Applications nécessitant une faible latence et une haute disponibilité
-
Appareils Edge dans des environnements distants ou à haut débit
-
Des expériences client mondiales où la localisation est importante
La combinaison AWS IoT Greengrass de l'intelligence intégrée à Lambda @Edge pour la proximité avec les utilisateurs AWS permet une approche puissante et sans serveur pour une IA de pointe évolutive, résiliente et rentable.
Valeur commerciale du modèle d'inférence de pointe
Le modèle d'inférence des bords apporte de la valeur dans les domaines suivants :
-
Performances : permet d'obtenir une inférence inférieure à 100 ms pour les applications destinées aux utilisateurs ou pour l'automatisation rapide
-
Fiabilité : fonctionne sans connectivité, ce qui est particulièrement important pour l'IoT ou les déploiements à distance
-
Économies de bande passante — Maintient les données brutes locales et ne transmet que les événements significatifs vers le cloud
-
Conformité — Maintient les inférences et les données au niveau local afin de se conformer à la gouvernance régionale, telle que le règlement général sur la protection des données (RGPD) et la loi de 1996 sur la portabilité et la responsabilité de l'assurance maladie (HIPAA)
-
Contrôle des coûts — Minimise l'utilisation des ressources du cloud et le trafic réseau là où cela n'est pas essentiel