Modèles d'orchestration : des modèles basés sur des règles aux modèles natifs de l'IA - AWS Directives prescriptives

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Modèles d'orchestration : des modèles basés sur des règles aux modèles natifs de l'IA

Dans les systèmes d'IA sans serveur pilotés par les événements, l'orchestration est la logique conjonctive qui détermine la manière dont les événements déclenchent et façonnent le comportement du système. Dans AWS, l'orchestration peut suivre deux modèles principaux :

  • L'orchestration basée sur des règles est définie par les développeurs à l'aide de workflows et de machines à états.

  • L'orchestration native basée sur l'IA est alimentée par des agents et de grands modèles linguistiques (LLMs) qui raisonnent, planifient et agissent en fonction de l'intention et du contexte.

Chaque modèle joue un rôle distinct dans la création de systèmes flexibles, réactifs et intelligents. Ensemble, ils permettent aux développeurs de passer de l'automatisation procédurale à des systèmes autonomes axés sur les objectifs.

Orchestration basée sur des règles avec AWS Step Functions

Step Functions fournit un moteur de flux de travail visuel pour orchestrer des services tels qu'Amazon AWS Lambda SageMaker, Amazon Bedrock, Amazon DynamoDB et Amazon Simple Storage Service (Amazon S3). La logique est déterministe dans la mesure où les étapes sont définies de manière explicite et les transitions sont basées sur des conditions.

Les principaux avantages de l'orchestration basée sur des règles avec Step Functions sont les suivants :

  • Auditabilité et visibilité renforcées grâce à une console de flux de travail visuelle

  • Gestion des erreurs, nouvelles tentatives et parallélisme intégrés

  • Idéal pour les flux de régulation linéaires ou ramifiés avec des trajectoires bien définies

Le schéma suivant montre le flux de travail d'un exemple d'utilisation d'ingestion et de traitement de documents.

Exemple d'orchestration basée sur des règles pour l'ingestion et le traitement de documents.

Dans cet exemple, un cabinet juridique automatise l'analyse des contrats téléchargés en suivant les étapes suivantes :

  1. Déclencheur d'événement — Les documents juridiques sont chargés dans un compartiment Amazon S3, ce qui déclenche un EventBridge événement Amazon, qui est acheminé vers un flux de travail Step Functions.

  2. Workflow — Step Functions exécute les étapes suivantes :

    1. Traitement des documents — Une fonction Lambda nettoie et effectue une reconnaissance optique de caractères (OCR) initiale sur le document.

    2. Extraction de texte — Amazon Textract extrait le texte et les données clés du document.

    3. Analyse — Amazon Comprehend analyse le texte pour classer les niveaux de risque et les sentiments.

    4. Résumé — Amazon Bedrock génère un résumé concis du contrat.

    5. Stockage des données : les résultats sont écrits sur Amazon OpenSearch Service pour être indexés.

  3. Récupération — L'équipe juridique peut rechercher, filtrer et visualiser l'analyse des contrats via des tableaux de bord.

Cette architecture exploite les capacités d'intégration du AWS SDK de Step Functions pour interagir directement avec chacun des éléments du flux Service AWS de travail. Cette approche réduit la complexité et élimine le besoin de fonctions Lambda distinctes entre chaque étape de traitement. L'écriture finale dans OpenSearch Service est également gérée via l'intégration du SDK. Step Functions peut ainsi indexer les résultats de l'analyse des documents, les classifications des risques, l'analyse des sentiments et les résumés générés par l'IA directement dans Service. OpenSearch L'équipe juridique peut accéder aux informations via des tableaux de bord permettant de rechercher, de filtrer et de visualiser l'analyse des contrats.

Chaque tâche correspond à un état défini avec gestion des erreurs intégrée. Aucune décision n'est prise par l'IA, et l'orchestration est explicite.

Orchestration native basée sur l'IA avec Amazon Bedrock Agents

Lorsque Step Functions gère la façon dont les choses se passent, les agents d'Amazon Bedrock décident de ce qui doit se passer en fonction des objectifs des utilisateurs. Un ou plusieurs agents Amazon Bedrock créés sur Amazon Bedrock AgentCore combinent les éléments suivants :

  • Un LLM tel que Anthropic Claude ou Amazon Nova

  • Un ensemble d'intégrations d'outils telles que les fonctions Lambda (ou le client MCP) pour exécuter des intégrations MCP)

  • Bases de connaissances facultatives pour un ancrage contextuel

  • Mémoire intégrée et suivi des objectifs

Les agents interprètent les entrées en langage naturel, raisonnent à leur sujet et invoquent des outils de manière autonome pour répondre aux attentes de l'utilisateur, en transférant la logique d'orchestration au modèle.

Les principaux avantages de l'orchestration native basée sur l'IA avec Amazon Bedrock Agents sont les suivants :

  • Flexibilité sémantique — Interprétez diverses entrées en langage naturel.

  • Autonomie des outils : sélectionnez les bons outils au moment de l'exécution.

  • Fondement contextuel : citez le contenu de la base de connaissances avec précision.

  • Maintenance minimale pour les développeurs : définissez les outils, et non le flux.

Le schéma suivant montre le flux de travail d'un exemple d'utilisation de l'automatisation du support client avec Amazon Bedrock Agents.

Flux de travail utilisant l'orchestration de l'IA via Amazon Bedrock Agents.

Dans cet exemple, un utilisateur d'un site Web de vente au détail saisit un message dans le chatbot d'assistance. Le flux de travail suivant se produit :

  1. Les actions déclencheurs d'événements sont les suivantes :

    1. L'utilisateur envoie un message : « Je dois retourner les chaussures que j'ai commandées la semaine dernière. Peux-tu m'aider ? »

    2. Le message est reçu et EventBridge acheminé.

    3. EventBridge déclenche l'agent Amazon Bedrock.

  2. Le processus de raisonnement de l'agent est le suivant :

    1. Extraction de l'intention — L'agent identifie l'intention comme « ordre de retour ».

    2. Récupération des données — L'agent interroge le système CRM à l'aide de la fonction GetOrderHistory Lambda.

    3. Contrôle d'éligibilité — L'agent appelle la fonction ProcessReturn Lambda pour vérifier l'éligibilité des retours.

    4. Génération de réponses — L'agent formule la réponse appropriée.

  3. L'action de communication avec le client a lieu lorsque l'agent répond : « Votre retour est en cours de traitement. Attendez-vous à recevoir un e-mail de confirmation sous peu. »

L'ensemble du flux de travail montre comment Amazon Bedrock Agents orchestre une logique métier complexe par le biais de groupes d'action définis. En reliant l'intention du client aux systèmes et processus principaux, il fournit une expérience de service client automatisée mais adaptée au contexte.

Amazon Bedrock AgentCore étend l'écosystème Amazon Bedrock au-delà des agents individuels afin de fournir une architecture d'exécution et de mémoire complète pour les systèmes d'IA autonomes pilotés par les événements.

Les agents Amazon Bedrock se concentrent sur l'orchestration de séquences de raisonnement et d'action pour une seule tâche ou un seul domaine. AgentCore fournit l'infrastructure sous-jacente pour composer, coordonner et conserver les flux de travail multi-agents dans des environnements sans serveur distribués.

Le schéma suivant montre le flux de travail d'un exemple de cas d'utilisation de l'automatisation du support client avec AgentCore.

Flux de travail d'automatisation du support client à l'aide de EventBridge AgentCore, et Lambda.

Cet exemple suit les mêmes actions que l'exemple précédent d'Amazon Bedrock Agents : un utilisateur d'un site Web de vente au détail saisit un message dans le chatbot d'assistance. Le flux de travail suivant se produit :

  1. L'utilisateur envoie un message : « Je dois retourner les chaussures que j'ai commandées la semaine dernière. Peux-tu m'aider ? »

  2. Le message est reçu et EventBridge acheminé.

  3. EventBridge déclenche le point de terminaison AgentCore Runtime.

AgentCore introduit trois fonctionnalités clés qui complètent les modèles d'orchestration existants :

  • AgentCore Runtime : environnement d'exécution géré permettant d'exécuter une logique d'agent personnalisée au sein de celui-ci AWS. Il s'intègre nativement à Amazon ECS pour adapter le comportement des agents à la demande, éliminant AWS Lambda ainsi le besoin de gérer manuellement les conteneurs ou l'infrastructure fonctionnelle.

  • AgentCore Mémoire : fournit un stockage persistant et structuré pour le contexte, l'état et l'historique des tâches. Cela permet aux agents de maintenir la continuité entre les invocations et les flux de travail, en prenant en charge les modes de mémoire éphémère et à long terme. Les données de mémoire peuvent être synchronisées avec DynamoDB ou Amazon Simple Storage Service (Amazon S3) pour des raisons d'observabilité et de conformité.

  • AgentCore Passerelle — Interfaces gérées pour un appel sécurisé Services AWS et externe APIs via le protocole MCP (Model Context Protocol). Ces connecteurs permettent aux agents d'interagir directement avec les données, les outils et les applications de l'entreprise, permettant ainsi une orchestration plus riche sans code d'intégration personnalisé.

Ensemble, ces composants permettent de créer des systèmes multi-agents adaptatifs qui fonctionnent sur des architectures sans serveur pilotées par des événements. Par exemple, AgentCore Runtime peut héberger plusieurs agents spécialisés qui coordonnent via EventBridge ou Step Functions, en utilisant AgentCore Memory pour partager le contexte et garantir des résultats déterministes et contrôlables.

En reliant l'intention du client aux systèmes et processus principaux, il AgentCore offre une expérience de service client automatisée mais adaptée au contexte.

L'orchestration n'est pas codée en dur. Le LLM détermine le flux de travail de manière dynamique, ce qui rend le système plus résistant aux variations et à l'ambiguïté des entrées.

Basé sur des règles ou natif de l'IA : quand utiliser lequel ?

AWS Step Functions et les agents Amazon Bedrock excellent chacun dans différents scénarios d'orchestration. Il est recommandé d'utiliser Step Functions pour les processus contrôlés et Amazon Bedrock Agents pour une interaction en langage naturel et une réalisation flexible des objectifs. Le tableau suivant compare ces services selon différents types de cas d'utilisation.

Type de cas d'utilisation

Step Functions (basé sur des règles)

Amazon Bedrock Agents (natif de l'IA)

Flux de travail déterministe

Idéal

Pas nécessaire.

Saisie utilisateur non structurée

Rigide

Interprète et adapte.

Règles commerciales complexes

Modéliser en utilisant des conditions

Peut déduire en utilisant un raisonnement sémantique.

Nécessite une piste d'audit précise

Trace complète de l'état

Traçabilité limitée, selon les journaux de l'agent. Cependant, des outils tels que les poids, les biais et la journalisation des appels de modèles peuvent atténuer cette limitation.

Automatisation sensible à la latence

Coordination en temps réel

En temps réel, bien que légèrement plus élevé en raison du traitement LLM.

Expériences utilisateur orientées vers les objectifs

Nécessite un design explicite

L'agent peut déduire un objectif et composer un flux.

Orchestration pilotée par les événements

Qu'ils utilisent une orchestration basée sur des règles ou native à l'IA, les événements sont le mécanisme qui active l'intelligence dans un système sans serveur. Dans les deux modèles d'orchestration, la séquence suivante se produit :

  1. Un événement est émis par EventBridge. Les entrées utilisateur, les téléchargements de documents et les transactions sont des exemples d'événements.

  2. Cet événement déclenche l'orchestrateur approprié :

    • Step Functions si la logique est déterministe

    • AWS Lambda ou des tâches Amazon ECS pour un environnement d'exécution AWS natif auxquelles vous êtes abonné EventBridge pour une conception chorégraphiée

    • Amazon Bedrock Agents si la logique est dynamique ou conversationnelle

  3. AgentCore les agents peuvent émettre des EventBridge événements et s'y abonner de manière native à l'aide du AgentCore SDK. Grâce à cette approche, les agents participent directement aux flux de travail sans serveur tout en préservant le contexte à long terme grâce à AgentCore la mémoire. Cette intégration forme une double couche de communication :

    • EventBridge fournit un routage des événements déterministe et vérifiable.

    • AgentCore Memory plus the Agent2Agent Protocol (A2A) permet le partage d'états sémantiques et la découverte de capacités.

  4. Chaque orchestrateur coordonne les services d'IA et émet d'autres événements tels que la fin, les erreurs et les déclencheurs en aval.

Ce modèle réactif garantit l'évolutivité, la résilience et la conception modulaire, permettant à certaines parties du système d'évoluer indépendamment.

Perspective stratégique

L'EDA prend en charge à la fois l'orchestration basée sur des règles et les modèles d'orchestration natifs de l'IA, et permet aux deux modèles de coexister. Step Functions fournit une automatisation fiable et reproductible, tandis qu'Amazon Bedrock Agents introduit une intelligence dynamique sensible au contexte.

Ensemble, ils permettent aux organisations d'effectuer les tâches suivantes :

  • Automatisez les processus répétitifs à volume élevé

  • Proposez des assistants intelligents et adaptatifs orientés vers l'utilisateur

  • Faites évoluer l'IA sans entraves ni rigidité architecturale

L'orchestration ne se limite plus aux règles, elle concerne l'interprétation des intentions, la sélection d'outils et l'exécution autonome. Sans serveur sur des AWS moissonneuses-batteuses AWS Step Functions pour les flux de travail structurés et sur Amazon Bedrock Agents pour l'orchestration sémantique. Ce cadre unifié permet de créer la prochaine génération de systèmes d'IA agentiques et sans serveur.