Agents d'IA génératifs : remplacer la logique symbolique par LLMs - AWS Directives prescriptives

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Agents d'IA génératifs : remplacer la logique symbolique par LLMs

Le schéma suivant montre comment les grands modèles de langage (LLMs) constituent désormais un noyau cognitif flexible et intelligent pour les agents logiciels. Contrairement aux systèmes logiques symboliques traditionnels, qui reposent sur des bibliothèques de plans statiques et des règles codées à la main, ils LLMs permettent un raisonnement adaptatif, une planification contextuelle et une utilisation dynamique des outils, qui transforment la façon dont les agents perçoivent, raisonnent et agissent.

Diagram showing LLM-based agent architecture with perceive, reason, and act components.

Améliorations clés

Cette architecture améliore l'architecture traditionnelle des agents comme suit :

  • LLMs en tant que moteurs cognitifs : les objectifs, les plans et les requêtes sont transmis au modèle sous forme de contexte rapide. Le LLM génère des voies de raisonnement (telles que des chaînes de pensée), décompose les tâches en sous-objectifs et décide des prochaines actions.

  • Utilisation de l'outil par le biais d'instructions : LLMs peut être dirigée par le biais d'agents d'utilisation d'outils ou d'une invite à appeler APIs et à rechercher, interroger, calculer et interpréter les résultats. ReAct

  • Planification contextuelle : les agents génèrent ou révisent les plans de manière dynamique en fonction de l'objectif actuel de l'agent, de l'environnement de saisie et des commentaires, sans avoir besoin de bibliothèques de plans codées en dur.

  • Contexte rapide sous forme de mémoire : au lieu d'utiliser des bases de connaissances symboliques, les agents encodent la mémoire, les plans et les objectifs sous forme de jetons d'invite transmis au modèle.

  • Apprentissage par le biais d'un apprentissage contextuel en quelques étapes : LLMs adaptez les comportements grâce à une ingénierie rapide, ce qui réduit le besoin de reconversion explicite ou de bibliothèques de plans rigides.

Atteindre la mémoire à long terme avec les agents basés sur le LLM

Contrairement aux agents traditionnels, qui stockaient la mémoire à long terme dans des bases de connaissances structurées, les agents d'IA générative doivent fonctionner dans les limites de la fenêtre contextuelle de LLMs. Pour étendre la mémoire et favoriser la persistance de l'intelligence, les agents d'IA générative utilisent plusieurs techniques complémentaires : le stockage d'agents, la génération augmentée par extraction (RAG), l'apprentissage contextuel et le chaînage rapide, ainsi que le pré-entraînement.

Agent Store : mémoire externe à long terme

L'état de l'agent, l'historique utilisateur, les décisions et les résultats sont stockés dans une mémoire d'agent à long terme (telle qu'une base de données vectorielle, un magasin d'objets ou un magasin de documents). Les mémoires pertinentes sont récupérées à la demande et injectées dans le contexte d'invite LLM lors de l'exécution. Cela crée une boucle de mémoire persistante, dans laquelle l'agent assure la continuité entre les sessions, les tâches ou les interactions.

CHIFFON

RAG améliore les performances du LLM en combinant les connaissances récupérées avec des capacités génératives. Lorsqu'un objectif ou une requête est émis, l'agent recherche un index de récupération (par exemple, par le biais d'une recherche sémantique de documents, de conversations antérieures ou de connaissances structurées). Les résultats récupérés sont ajoutés à l'invite LLM, qui fonde la génération sur des faits externes ou un contexte personnalisé. Cette méthode étend la mémoire effective de l'agent et améliore la fiabilité et l'exactitude des faits.

Apprentissage contextuel et chaînage rapide

Les agents conservent leur mémoire à court terme en utilisant un contexte de jeton en session et un chaînage d'invite structuré. Les éléments contextuels, tels que le plan actuel, les résultats des actions précédentes et le statut de l'agent, sont transmis entre les appels pour guider le comportement.

Préformation continue et mise au point

Pour les agents spécifiques à un domaine, il est LLMs possible de poursuivre leur formation préalable sur des collections personnalisées telles que les journaux, les données d'entreprise ou la documentation des produits. Alternativement, le réglage précis des instructions ou l'apprentissage par renforcement à partir du feedback humain (RLHF) peuvent intégrer un comportement semblable à celui d'un agent directement dans le modèle. Cela fait passer les modèles de raisonnement de la logique des délais à la représentation interne du modèle, réduit la longueur des instructions et améliore l'efficacité.

Avantages combinés de l'IA agentic

Ces techniques, lorsqu'elles sont utilisées ensemble, permettent aux agents d'IA générative de :

  • Maintenez une conscience contextuelle au fil du temps.

  • Adaptez le comportement en fonction de l'historique ou des préférences de l'utilisateur.

  • Prenez des décisions en utilisant up-to-date des connaissances factuelles ou privées.

  • Adaptez-vous aux cas d'utilisation en entreprise avec des comportements persistants, conformes et explicables.

En ajoutant de la mémoire externe, LLMs des couches de récupération et une formation continue, les agents peuvent atteindre un niveau de continuité cognitive et un objectif qui ne pouvaient pas être atteints auparavant par le biais des seuls systèmes symboliques.