Intelligence artificielle de pointe et distribution d'inférences à l'échelle mondiale - AWS Directives prescriptives

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Intelligence artificielle de pointe et distribution d'inférences à l'échelle mondiale

Bien que l'inférence basée sur le cloud réponde à la plupart des cas d'utilisation en entreprise, certains scénarios nécessitent des réponses en temps réel, des fonctionnalités hors ligne ou la proximité de la source de données ou de l'utilisateur. Dans ces cas, l'intelligence artificielle de pointe, qui exécute la logique de l'IA sur ou à proximité de l'appareil, constitue un puissant complément à l'architecture cloud sans serveur.

AWS prend en charge l'intelligence artificielle de pointe grâce à deux technologies sans serveur clés :

  • Lambda @Edge exécute la logique d'inférence à l'échelle mondiale sur des sites AWS périphériques à l'aide d'Amazon. CloudFront

    Exemple — Un site de commerce électronique international utilise une fonction Lambda @Edge pour personnaliser le contenu de la page d'accueil en fonction de la localisation et de la langue de l'utilisateur. Par conséquent, il propose instantanément des expériences personnalisées à partir de l'emplacement CloudFront périphérique le plus proche.

  • AWS IoT Greengrasspermet l'exécution locale de l'IA sur les appareils connectés.

    Exemple — Un appareil intelligent utilise un modèle déployé avec AWS IoT Greengrass pour effectuer des diagnostics en temps réel, en synchronisant les informations avec le cloud en cas de besoin ou lorsque la connectivité le permet.

Ensemble, ces technologies étendent la portée de l'IA sans serveur aux environnements à faible latence, sensibles à la bande passante ou hors ligne, ainsi qu'aux bases d'utilisateurs distribuées dans le monde entier.

Lambda @Edge : inférence globale au niveau de la couche CDN

En utilisant Lambda @Edge, les développeurs peuvent exécuter des AWS Lambda fonctions à des emplacements CloudFront périphériques. Cette approche réduit le temps de latence pour les utilisateurs finaux et permet des expériences d'IA sensibles au contexte et ultra rapides.

Les principales fonctionnalités de Lambda @Edge sont les suivantes :

  • Exécute la logique au niveau de la couche CDN en réponse à CloudFront des événements tels que la demande du spectateur et la réponse d'origine

  • Personnalise le contenu tel que la personnalisation des pages Web et les recommandations en fonction de l'utilisateur, de l'emplacement et de l'appareil

  • Intègre l'inférence basée sur l'IA directement dans la diffusion de contenu sans routage vers une centrale Région AWS

  • Se déploie dans le monde entier sans provisionner d'infrastructure

Exemples de cas d'utilisation de Lambda @Edge

Lambda @Edge permet les principaux cas d'utilisation suivants :

  • Personnalisation du commerce électronique — Fournissez des recommandations de produits dynamiques en fonction de l'identifiant et du comportement de l'utilisateur.

  • Diffusion multimédia : ajustez les recommandations et le contrôle parental en fonction des politiques régionales.

  • Campagnes marketing : personnalisez les bannières, le contenu et les offres pour chaque point de vente.

  • Expérience utilisateur multilingue (UX) : détectez l'emplacement et la langue de l'utilisateur pour diffuser en ligne le contenu traduit par Amazon Bedrock LLM.

En plaçant la logique d'inférence le plus près possible de l'utilisateur, Lambda @Edge permet une diffusion frontale hyperpersonnalisée basée sur l'IA, ce qui est idéal pour les applications grand public à grande échelle.

Lambda @Edge est souvent utilisé en tandem avec Amazon Bedrock ou SageMaker Serverless Inference en utilisant des stratégies de routage et de mise en cache asynchrones pour associer rapidité et intelligence.

AWS IoT Greengrass: Inférence locale à la périphérie

AWS IoT Greengrass est un environnement d'exécution léger que les clients peuvent utiliser pour exécuter des fonctions Lambda, des inférences ML et du code personnalisé. Il fonctionne sur des appareils périphériques tels que des contrôleurs industriels, des caméras, des appareils médicaux ou des appareils intelligents.

Les principales fonctionnalités de AWS IoT Greengrass sont les suivantes :

  • Exécute les fonctions Lambda localement même lorsque vous êtes déconnecté du cloud.

  • Package des modèles ML (par le biais SageMaker d'une formation ou d'un entraînement personnalisé) pour effectuer des inférences directement sur l'appareil.

  • Rationalise les mises à jour grâce à un over-the-air déploiement et à une gestion de configuration sécurisés.

  • S'intègre à Services AWS (par exemple, Amazon S3 et Amazon CloudWatch) pour une surveillance centralisée. AWS IoT Core

Exemples de cas d'utilisation de AWS IoT Greengrass

AWS IoT Greengrass permet des applications d'inférence à la pointe de la technologie dans de nombreux secteurs, tels que les suivants :

  • Fabrication — Détectez les défauts liés à l'entrée de la caméra sans faire des allers-retours dans le cloud.

  • Soins de santé — Surveillez les patients et effectuez des diagnostics dans les cliniques dotées d'une connectivité intermittente.

  • Agriculture — Classez les conditions des cultures à l'aide d'images prises par drone.

  • Énergie — Surveillez les pipelines et les turbines à l'aide de modèles de détection d'anomalies.

AWS IoT Greengrass permet à ces charges de travail d'être rapides, résilientes et indépendantes de la latence du cloud, tout en garantissant la gestion, l'observabilité et la synchronisation côté cloud. En l'utilisant AWS IoT Greengrass, les développeurs peuvent déployer les mêmes fonctions Lambda que celles utilisées dans le cloud, créant ainsi une continuité entre les systèmes centralisés et distribués.

IA globale et locale : une stratégie d'exécution à plusieurs niveaux

Les entreprises peuvent combiner Lambda @Edge et créer un système AWS IoT Greengrass d'IA de pointe à plusieurs niveaux. Cette architecture hybride permet de prendre des décisions intelligentes au niveau de la couche appropriée, en fonction de la sensibilité à la latence, de la taille du modèle, de la connectivité et des exigences de conformité. Le tableau suivant décrit les niveaux, AWS les technologies et les rôles de cette architecture.

Palier

AWS technologie

Rôle technologique

Edge de l'appareil

AWS IoT Greengrass

  • Sur l'appareil

  • Compatible avec le mode hors connexion

  • Logique de l'IA

  • Traitement des données des capteurs

Edge du réseau

Lambda@Edge

  • Personnalisation du contenu

  • Une IA légère proche de l'utilisateur

  • Latence ultra faible

Noyau du cloud

Amazon Bedrock, Amazon SageMaker Serverless Inference et AWS Step Functions

  • Inférence basée sur l'IA lourde

  • Orchestration

  • Raisonnement des agents

  • Canalisations RAG

Résumé de Edge AI

L'IA Edge est une évolution naturelle de l'architecture sans serveur, apportant une inférence à faible latence, une personnalisation contextuelle et une résilience aux défis de connectivité. Avec Lambda @Edge AWS IoT Greengrass et Lambda, les entreprises peuvent atteindre les objectifs suivants :

  • Les développeurs peuvent étendre les principes du sans serveur au-delà du centre de données.

  • Les entreprises peuvent déployer et gérer des pipelines d'IA au plus près des utilisateurs et des sources de données.

  • La logique de l'IA devient sensible à la localisation, autonome et hautement évolutive.

L'IA est de plus en plus omniprésente dans tous les secteurs, des villes intelligentes à la robotique de terrain en passant par la diffusion de médias à l'échelle mondiale. Pour soutenir cette évolution, ils Services AWS peuvent jouer un rôle fondamental dans la création d'applications intelligentes distribuées qui s'exécutent n'importe où.