Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Schéma 5 : flux de travail basé sur l'IA pour agents
Les grands modèles linguistiques (LLMs) sont puissants, mais ils ne sont pas limités par défaut. Ils ne connaissent pas les données propriétaires, les règles commerciales ou les contraintes opérationnelles, ce qui les rend risqués en cas d'interaction directe avec les utilisateurs ou les systèmes.
Les entreprises sont confrontées aux défis communs suivants :
-
LLMs hallucinent lorsqu'ils ne connaissent pas la réponse, ce qui met en danger la confiance et la conformité.
-
Les réponses ne sont pas fondées sur des faits, des politiques ou un état en temps réel spécifiques au domaine (par exemple, les commandes, les comptes et les droits).
-
L'automatisation dynamique des tâches (par exemple, les recherches de commandes, le triage du support et les opérations informatiques) nécessite souvent d'invoquer des outils réels APIs et non pas simplement de générer du texte.
-
La création de routeurs d'intention, de gestionnaires de dialogue et de flux basés sur des règles traditionnels est coûteuse, fragile et peu évolutive.
Pour relever ces défis, les entreprises ont besoin d'agents qui raisonnent intelligemment, agissent de manière autonome et restent ancrés dans les faits.
Le flux de travail basé sur l'IA pour les agents : intelligence autonome alliée à la confiance et au contexte
Le modèle de flux de travail basé sur l'intelligence artificielle des agents ancrés utilise les agents Amazon Bedrock pour orchestrer le raisonnement sémantique, l'invocation d'outils et l'ancrage des connaissances. Les agents permettent aux assistants d'intelligence artificielle de recueillir les informations des utilisateurs, de comprendre les intentions et d'effectuer des tâches en plusieurs étapes en utilisant l'entreprise APIs et des documents.
Contrairement à de simples chatbots ou à des instructions LLM statiques, les agents Amazon Bedrock :
-
Interprétez les objectifs du langage naturel.
-
Sélectionnez et appelez des outils (à l'aide de AWS Lambda fonctions) de manière dynamique.
-
Recherchez ou interrogez des bases de connaissances pour rester ancré dans la vérité de l'entreprise.
-
Renvoyez des réponses contextuelles en plusieurs étapes avec traçabilité et actionnabilité.
L'architecture de référence implémente chaque couche comme suit :
-
Déclencheur d'événements : utilise Amazon API Gateway, l'interface utilisateur du chatbot ou le portail d'assistance pour déclencher l'interaction des agents via Amazon Bedrock
-
Traitement : implémente Lambda pour formater les entrées, appliquer le contexte de sécurité (par exemple, les rôles ou les droits des utilisateurs) et enrichir les métadonnées
-
Inférence — Utilise l'agent Amazon Bedrock pour recevoir l'invite, invoquer les outils Lambda (par exemple,
getOrderStatus), effectuer des recherches dans une base de connaissances et élaborer une réponse finale -
Post-traitement — Utilise Lambda pour inspecter les résultats de l'agent (par exemple, escalader en cas de « perte de commande » et avertir l'équipe d'assistance)
-
Sortie : renvoie la réponse de l'agent à l'interface utilisateur ou l'enregistre sur Amazon Simple Storage Service (Amazon S3) ou Amazon OpenSearch Service à des fins d'audit, de formation ou d'analyse
Cas d'utilisation : agent du service client du commerce de détail
Un détaillant international souhaite automatiser les réponses aux demandes courantes des clients, telles que : « Où est ma commande ? » , « Je veux rendre ces chaussures. » et « Dois-je payer pour les frais de retour ? »
Les réponses dépendent de facteurs tels que les données de commande en temps réel du client, l'éligibilité et les délais de retour, ainsi que les politiques spécifiques à chaque région.
En réponse à ce cas d'utilisation, le flux de travail basé sur les agents suit les étapes suivantes :
-
L'utilisateur saisit sa requête à l'aide d'une application ou d'un chat.
-
API Gateway achemine la requête vers l'agent Amazon Bedrock.
-
L'agent exécute les actions suivantes :
-
Analyse l'intention (« demande de retour »)
-
Invoque un outil Lambda
lookupOrderStatus -
Effectue une recherche de politique dans la base de connaissances
-
Appels
initiateReturnsi éligibles -
Rédigez une réponse complète : « Votre retour a été initié. Attendez-vous à recevoir une étiquette par e-mail. »
-
Toutes les actions sont ancrées, enregistrées et exécutées dans le cadre des garde-fous de l'entreprise.
Principales caractéristiques d'Amazon Bedrock Agents dans ce modèle
En ce qui concerne le modèle de flux de travail basé sur l'IA pour les agents, les agents Amazon Bedrock offrent les fonctionnalités et avantages clés suivants :
-
La sélection d'outils permet à un agent de choisir la fonction Lambda (outil) appropriée pour chaque tâche.
-
L'état de la mémoire et de la session permet aux agents de conserver le contexte à chaque tour de rôle.
-
Les réponses fondées permettent de récupérer des données fiables à partir de bases de connaissances stockées dans Amazon S3.
-
Le raisonnement fondé sur la chaîne de pensée (CoT) permet à un agent de décomposer des instructions complexes en sous-objectifs et d'agir de manière séquentielle.
-
Le contexte de sécurité permet de définir la portée des outils en fonction du locataire, de l'utilisateur ou du rôle à l'aide de Gestion des identités et des accès AWS paramètres (IAM) et contextuels.
Bonnes pratiques en matière de gouvernance et de contrôles pour le modèle de flux de travail basé sur l'IA des agents
Pour adapter les flux de travail basés sur l'intelligence artificielle des agents aux entreprises, les entreprises doivent prendre en compte les contrôles suivants :
-
Configurations des agents de contrôle de version (par exemple, outils, instructions et bases de connaissances).
-
Utilisez des journaux structurés et un système de suivi IDs pour des raisons d'auditabilité.
-
Appliquez des politiques rapides, des listes d'autorisation et des contrôles de modération.
-
Définissez les flux de secours (par exemple, passer à un flux humain ou rediriger vers une FAQ statique).
Ces contrôles peuvent être orchestrés à l'aide de Lambda EventBridge AWS Step Functionset autour du cœur de l'agent.
Valeur commerciale du modèle de flux de travail basé sur l'IA pour les agents
Ce modèle apporte de la valeur dans les domaines suivants :
-
Expérience client : permet de résoudre en libre-service 70 à 80 % des demandes sans escalade
-
Efficacité opérationnelle — Réduit le volume de demandes d'assistance et les frais de triage
-
Délai de résolution : fournit des réponses instantanées à l'aide de données réelles, sans avoir à attendre l'intervention d'agents humains
-
Évolutivité : gère des milliers d'interactions simultanées sans augmentation des effectifs humains
-
Réutilisation entre domaines : applique le même schéma à plusieurs domaines tels que le support informatique, le service d'assistance RH, les questions-réponses juridiques, etc.
Le flux de travail basé sur l'intelligence artificielle des agents permet aux entreprises d'aller au-delà des questions-réponses statiques et de passer à l'automatisation axée sur les objectifs, sans pour autant sacrifier le contrôle, la conformité ou la précision. En associant le raisonnement du LLM à l'exécution sécurisée et sans serveur d'API et à la récupération des connaissances, les agents Amazon Bedrock fournissent des capacités d'IA qui agissent et ne se contentent pas de réagir.
L'agent ancré est l'architecture d'interaction intelligente en entreprise, modulaire, ancrée et prête à évoluer.