Schéma 3 : inférence en temps réel à la périphérie - AWS Directives prescriptives

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Schéma 3 : inférence en temps réel à la périphérie

De nombreux cas d'utilisation en entreprise nécessitent une prise de décision intelligente au point d'interaction, qu'il s'agisse d'une interaction avec un client, une machine, un véhicule ou un appareil IoT. Dans ces scénarios, l'inférence basée uniquement sur le cloud ne suffit pas en raison des problèmes suivants :

  • Contraintes de latence : les millisecondes sont importantes dans les expériences utilisateur, telles que la personnalisation, les recommandations et les contrôles antifraude.

  • Connectivité intermittente ou inexistante : les environnements distants tels que l'industrie, l'agriculture et les soins de santé ne disposent souvent pas d'un accès constant au cloud APIs.

  • Volume de données élevé — L'envoi de grandes charges utiles de capteurs ou d'images vers le cloud à des fins d'inférence est inefficace et coûteux.

  • Exigences réglementaires — Dans certaines juridictions, les données sensibles doivent rester locales.

Les architectures traditionnelles qui reposent uniquement sur l'inférence ML centralisée entraînent des retards, augmentent les coûts et peuvent ne pas répondre efficacement aux besoins des utilisateurs ou des systèmes dans les environnements de pointe.

Le modèle d'inférence périphérique : intelligence en temps réel à la périphérie

Le modèle d'inférence périphérique en temps réel permet aux entreprises d'exécuter les charges de travail d'inférence au plus près de l'utilisateur ou de l'appareil, à l'aide de services gérés par. AWS Ces services incluent AWS IoT Greengrassce qui permet une inférence localisée et hors ligne sur des périphériques physiques. En outre, Lambda @Edge permet d'exécuter une logique d'IA légère sur les sites CloudFront périphériques d'Amazon dans le monde entier.

Ces services sans serveur permettent des expériences d'IA distribuées instantanées, résilientes aux problèmes de connectivité et conformes aux exigences régionales et sensibles à la latence.

L'architecture de référence implémente chaque couche comme suit :

  • Déclencheur d'événements — Utilise des événements périphériques (tels que les relevés des capteurs et les modifications de l'état de l'appareil) ou les demandes transmises par le spectateur CloudFront.

  • Traitement — Implémente une fonction Lambda locale AWS IoT Greengrass pour formater l'entrée, extraire les métadonnées ou filtrer le bruit. Utilise Lambda @Edge pour inspecter les en-têtes ou la géolocalisation.

  • Inférence — Déploie un modèle ML via un AWS IoT Greengrass composant (par exemple, PyTorch ouONNX) ou effectue des appels d'API à distance vers Amazon Bedrock ou Amazon SageMaker Serverless Inference via Lambda @Edge.

  • Post-traitement : permet de publier AWS IoT Greengrass la détection d'anomalies dans les ombres des appareils MQTT ou AWS IoT. Utilise Lambda @Edge pour personnaliser les réponses et définir des cookies.

  • Sortie — Synchronise avec Amazon S3 ou Amazon EventBridge. AWS IoT Core Fournit les réponses via CloudFront le navigateur ou le tableau de bord de l'appareil.

Note

Chaque niveau joue un rôle dans la réduction du temps de réponse, l'optimisation de la bande passante et la localisation des informations.

Cas d'utilisation du modèle d'inférence des bords

Le modèle d'inférence en temps réel à la périphérie prend en charge diverses implémentations dans différents secteurs. Voici deux exemples représentatifs :

  • Surveillance de l'équipement d'usine et AWS IoT Greengrass — Une usine de fabrication déploie des passerelles activées AWS IoT Greengrass pour détecter les anomalies dans les vibrations de l'équipement. Le modèle s'exécute localement, alerte l'opérateur en temps réel et envoie uniquement des données récapitulatives au cloud.

  • Contenu Web personnalisé et Lambda @Edge — Un site de commerce électronique utilise Lambda @Edge pour analyser les cookies et les en-têtes des demandes entrantes. Lambda @Edge aide le site à fournir des recommandations personnalisées et des images de produits en moins de 50 ms, sans aller-retour en backend.

Bonnes pratiques de sécurité et de gestion à la périphérie

IoT Greengrass et Lambda @Edge sont tous deux totalement intégrés à Gestion des identités et des accès AWS(IAM) et à Amazon. AWS IoT Core CloudWatch Les meilleures pratiques clés sont les suivantes :

  • Signature de code et vérification pour les AWS IoT Greengrass composants

  • Inspection du trafic régional et journalisation pour Lambda @Edge

  • Mises à jour de modèles sécurisés over-the-air (OTA) à l'aide de compartiments Amazon S3 et de pipelines d'intégration et de déploiement continus (CI/CD)

  • Rôles IAM précis pour limiter l'accès aux données à la périphérie

Comparaison AWS IoT Greengrass et Lambda @Edge

Le tableau suivant compare les principaux aspects opérationnels de Lambda @Edge AWS IoT Greengrass et de Lambda dans le contexte de l'inférence de bord.

Considération

AWS IoT Greengrass

Lambda@Edge

Fonctionne hors ligne

Oui

Non

Gère les données locales du capteur et de l'actionneur

Oui

Non

Idéal pour la personnalisation du Web à l'échelle mondiale

Non

Oui

Supporte les modèles d'IA

Inférence locale complète

Logique allégée et appels d'API cloud

Intégration avec Amazon Bedrock ou SageMaker Serverless Inference

Grâce à la synchronisation et à la journalisation asynchrones

Par le biais de la solution de repli ou de la mise en cache d'Amazon API Gateway

En utilisant ce modèle, les entreprises peuvent intégrer l'IA là où elles en ont le plus besoin, dans l'atelier, sur le terrain, dans le navigateur ou dans le monde entier. L'inférence en temps réel sur le modèle de bord est essentielle pour :

  • Applications nécessitant une faible latence et une haute disponibilité

  • Appareils Edge dans des environnements distants ou à haut débit

  • Des expériences client mondiales où la localisation est importante

La combinaison AWS IoT Greengrass de l'intelligence intégrée à Lambda @Edge pour la proximité avec les utilisateurs AWS permet une approche puissante et sans serveur pour une IA de pointe évolutive, résiliente et rentable.

Valeur commerciale du modèle d'inférence de pointe

Le modèle d'inférence des bords apporte de la valeur dans les domaines suivants :

  • Performances : permet d'obtenir une inférence inférieure à 100 ms pour les applications destinées aux utilisateurs ou pour l'automatisation rapide

  • Fiabilité : fonctionne sans connectivité, ce qui est particulièrement important pour l'IoT ou les déploiements à distance

  • Économies de bande passante — Maintient les données brutes locales et ne transmet que les événements significatifs vers le cloud

  • Conformité — Maintient les inférences et les données au niveau local afin de se conformer à la gouvernance régionale, telle que le règlement général sur la protection des données (RGPD) et la loi de 1996 sur la portabilité et la responsabilité de l'assurance maladie (HIPAA)

  • Contrôle des coûts — Minimise l'utilisation des ressources du cloud et le trafic réseau là où cela n'est pas essentiel