

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Des agents logiciels à l'intelligence artificielle
<a name="new-generation"></a>

Les agents logiciels sont des entités numériques autonomes conçues pour percevoir leur environnement, raisonner sur leurs objectifs et agir en conséquence. Contrairement aux logiciels traditionnels qui suivent une logique fixe, les agents adaptent leur comportement en fonction des entrées contextuelles et des cadres de décision. Cela les rend idéaux pour les environnements dynamiques et distribués tels que les systèmes natifs du cloud, la robotique, l'automatisation intelligente et, désormais, l'orchestration générative de l'IA.

Cette section présente les éléments de base des agents logiciels et explique comment ces composants interagissent au sein des architectures traditionnelles sur la base du modèle de perception, de raison et d'action. Il explique comment l'IA générative, en particulier les grands modèles linguistiques (LLMs), a transformé la façon dont les agents logiciels raisonnent et planifient. Cela marque un passage fondamental des systèmes basés sur des règles à l'intelligence apprise basée sur les données de l'IA agentique.

**Topics**
+ [Éléments de base des agents logiciels](core-modules.md)
+ [Architecture d'agent traditionnelle : percevoir, raisonner, agir](traditional-agents.md)
+ [Agents d'IA génératifs : remplacer la logique symbolique par LLMs](generative-ai-agents.md)
+ [Comparaison de l'IA traditionnelle aux agents logiciels et à l'IA agentique](comparison.md)

# Éléments de base des agents logiciels
<a name="core-modules"></a>

Le schéma suivant présente les principaux modules fonctionnels présents dans la plupart des agents intelligents. Chaque composant contribue à la capacité de l'agent à fonctionner de manière autonome dans des environnements complexes.

![\[Modules et sous-modules fonctionnels clés des agents intelligents.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/agentic-ai-foundations/images/functional-modules.png)


Dans le contexte de la boucle de perception, de raison et d'action, la capacité de raisonnement d'un agent est répartie entre ses modules cognitifs et d'apprentissage. Grâce à l'intégration de la mémoire et de l'apprentissage, l'agent développe un raisonnement adaptatif fondé sur l'expérience passée. Lorsque l'agent agit dans son environnement, il crée une boucle de rétroaction émergente : chaque action influence les perceptions futures, et l'expérience qui en résulte est incorporée dans la mémoire et les modèles internes par le biais du module d'apprentissage. Cette boucle continue de perception, de raisonnement et d'action permet à l'agent de s'améliorer au fil du temps et complète le cycle complet de perception, de raison et d'action.

## Module de perception
<a name="perception"></a>

Le module de perception permet à l'agent d'interagir avec son environnement par le biais de diverses modalités de saisie telles que le texte, le son et les capteurs. Ces entrées constituent les données brutes sur lesquelles reposent tous les raisonnements et actions. Les entrées de texte peuvent inclure des instructions en langage naturel, des commandes structurées ou des documents. Les entrées audio incluent des instructions vocales ou des sons environnementaux. Les entrées des capteurs incluent des données physiques telles que des flux visuels, des signaux de mouvement ou des coordonnées GPS. La fonction principale de la perception est d'extraire des caractéristiques et des représentations significatives de ces données brutes. Cela permet à l'agent de construire une compréhension précise et exploitable de son contexte actuel. Le processus peut impliquer l'extraction de caractéristiques, la reconnaissance d'objets ou d'événements et l'interprétation sémantique, et constitue la première étape critique de la boucle de perception, de raison et d'action. Une perception efficace garantit que le raisonnement et la prise de décisions en aval sont fondés sur une connaissance pertinente de up-to-date la situation.

## Module cognitif
<a name="cognitive"></a>

Le module cognitif sert de noyau délibératif à l'agent logiciel. Il est chargé d'interpréter les perceptions, de former l'intention et de guider un comportement déterminé grâce à une planification et à une prise de décision axées sur les objectifs. Ce module transforme les entrées en processus de raisonnement structurés, ce qui permet à l'agent d'agir intentionnellement plutôt que de manière réactive. Ces processus sont gérés par le biais de trois sous-modules clés : objectifs, planification et prise de décision.

### Sous-module Objectifs
<a name="cognitive-goals"></a>

Le sous-module des objectifs définit l'intention et la direction de l'agent. Les objectifs peuvent être explicites (par exemple, « naviguer vers un emplacement » ou « soumettre un rapport ») ou implicites (par exemple, « maximiser l'engagement des utilisateurs » ou « minimiser le temps de latence »). Ils sont au cœur du cycle de raisonnement de l'agent et fournissent un état cible pour sa planification et ses décisions.

L'agent évalue en permanence les progrès réalisés par rapport à ses objectifs et peut redéfinir les priorités ou régénérer les objectifs en fonction de nouvelles perceptions ou de nouveaux apprentissages. Cette connaissance des objectifs permet à l'agent de s'adapter aux environnements dynamiques.

### Sous-module de planification
<a name="cognitive-planning"></a>

Le sous-module de planification élabore des stratégies pour atteindre les objectifs actuels de l'agent. Il génère des séquences d'actions, décompose les tâches de manière hiérarchique et sélectionne des plans prédéfinis ou générés dynamiquement.

Pour fonctionner efficacement dans des environnements non déterministes ou changeants, la planification n'est pas statique. Les agents modernes peuvent générer des chain-of-thought séquences, introduire des sous-objectifs en tant qu'étapes intermédiaires et réviser les plans en temps réel lorsque les conditions changent.

Ce sous-module est étroitement lié à la mémoire et à l'apprentissage, et permet à l'agent d'affiner sa planification au fil du temps en fonction des résultats antérieurs.

### Sous-module de prise de décision
<a name="cognitive-decision-making"></a>

Le sous-module de prise de décision évalue les plans et les actions disponibles afin de sélectionner l'étape suivante la plus appropriée. Il intègre les informations issues de la perception, du plan actuel, des objectifs de l'agent et du contexte environnemental.

La prise de décision tient compte de :
+ Compromis entre des objectifs contradictoires
+ Seuils de confiance (par exemple, incertitude de perception)
+ Conséquences des actions
+ L'expérience acquise par l'agent

Selon l'architecture, les agents peuvent s'appuyer sur le raisonnement symbolique, l'heuristique, l'apprentissage par renforcement ou les modèles linguistiques (LLMs) pour prendre des décisions éclairées. Ce processus permet au comportement de l'agent de tenir compte du contexte, de l'aligner sur les objectifs et de l'adapter.

## Module d'action
<a name="action"></a>

Le module d'action est chargé d'exécuter les décisions sélectionnées par l'agent et de s'interfacer avec le monde externe ou les systèmes internes pour produire des effets significatifs. Il représente la phase d'acte de la boucle de perception, de raison, d'acte, où l'intention est transformée en comportement.

Lorsque le module cognitif sélectionne une action, il coordonne l'exécution par le biais de sous-modules spécialisés, où chaque sous-module s'aligne sur l'environnement intégré de l'agent :
+ Activation physique : pour les agents intégrés à des systèmes robotiques ou à des appareils IoT, ce sous-module traduit les décisions en mouvements physiques réels ou en instructions matérielles.

  Exemples : diriger un robot, déclencher une vanne, activer un capteur.
+ Interaction intégrée : ce sous-module gère les actions non physiques mais visibles de l'extérieur, telles que l'interaction avec des systèmes logiciels, des plateformes ou. APIs

  Exemples : envoi d'une commande à un service cloud, mise à jour d'une base de données, envoi d'un rapport en appelant une API.
+ Invocation d'outils : les agents étendent souvent leurs capacités en utilisant des outils spécialisés pour accomplir des sous-tâches telles que les suivantes :
  + Recherche : interrogation de sources de connaissances structurées ou non structurées
  + Résumé : compression de textes volumineux en aperçus de haut niveau
  + Calcul : exécution de calculs logiques, numériques ou symboliques

  L'invocation d'outils permet de composer des comportements complexes grâce à des compétences modulaires et appelables.

## Module d'apprentissage
<a name="learning"></a>

Le module d'apprentissage permet aux agents de s'adapter, de généraliser et de s'améliorer au fil du temps en fonction de leur expérience. Il soutient le processus de raisonnement en affinant continuellement les modèles internes, les stratégies et les politiques de décision de l'agent en utilisant le feedback issu de la perception et de l'action.

Ce module fonctionne en coordination avec la mémoire à court terme et à long terme :
+ Mémoire à court terme : stocke le contexte transitoire, tel que l'état du dialogue, les informations sur les tâches en cours et les observations récentes. Cela aide l'agent à maintenir la continuité des interactions et des tâches.
+ Mémoire à long terme : code les connaissances persistantes issues d'expériences passées, y compris les objectifs atteints précédemment, les résultats des actions et les états environnementaux. La mémoire à long terme permet à l'agent de reconnaître des modèles, de réutiliser des stratégies et d'éviter de répéter les erreurs.

### Modes d'apprentissage
<a name="learning-modes"></a>

Le module d'apprentissage prend en charge une gamme de paradigmes, tels que l'apprentissage supervisé, non supervisé et l'apprentissage par renforcement, qui prennent en charge différents environnements et rôles d'agent :
+ Apprentissage supervisé : met à jour les modèles internes sur la base d'exemples étiquetés, souvent à partir de commentaires humains ou d'ensembles de données de formation. 

  Exemple : apprendre à classer les intentions des utilisateurs en fonction des conversations précédentes.
+ Apprentissage non supervisé : identifie les modèles ou les structures cachés dans les données sans étiquettes explicites. 

  Exemple : regroupement de signaux environnementaux pour détecter des anomalies.
+ Apprentissage par renforcement : optimise le comportement par essais et erreurs en maximisant les récompenses cumulées dans les environnements interactifs. 

  Exemple : apprendre quelle stratégie permet d'accomplir les tâches le plus rapidement.

L'apprentissage s'intègre étroitement au module cognitif de l'agent. Il affine les stratégies de planification en fonction des résultats passés, améliore la prise de décision grâce à l'évaluation des succès historiques et améliore continuellement la correspondance entre la perception et l'action. Grâce à cette boucle fermée d'apprentissage et de feedback, les agents évoluent au-delà de l'exécution réactive pour devenir des systèmes d'auto-amélioration capables de s'adapter à de nouveaux objectifs, conditions et contextes au fil du temps.

# Architecture d'agent traditionnelle : percevoir, raisonner, agir
<a name="traditional-agents"></a>

Le schéma suivant illustre le fonctionnement des éléments de base abordés dans la [section précédente](core-modules.md) dans le cadre du cycle percevoir, raisonner et agir.

![\[Comment les éléments de base s'appliquent à l'architecture d'agent traditionnelle.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/agentic-ai-foundations/images/traditional-agent-modules.png)


## Module Perception
<a name="perceive"></a>

Le module de perception agit comme interface sensorielle de l'agent avec le monde extérieur. Il transforme les données environnementales brutes en représentations structurées qui éclairent le raisonnement. Cela inclut la gestion de données multimodales telles que du texte, du son ou des signaux de capteurs.
+ La saisie de texte peut provenir de commandes utilisateur, de documents ou de dialogues.
+ L'entrée audio inclut des instructions vocales ou des sons environnementaux.
+ L'entrée du capteur capture des signaux du monde réel tels que le mouvement, les flux visuels ou le GPS.

Lorsque l'entrée brute a été ingérée, le processus de perception effectue une extraction des caractéristiques, suivie de la reconnaissance d'objets ou d'événements et d'une interprétation sémantique pour créer un modèle significatif de la situation actuelle. Ces résultats fournissent un contexte structuré pour la prise de décisions en aval et ancrent le raisonnement de l'agent dans des observations du monde réel.

## Module Reason
<a name="reason"></a>

Le module de raison est le cœur cognitif de l'agent. Il évalue le contexte, formule l'intention et détermine les actions appropriées. Ce module orchestre les comportements axés sur les objectifs en utilisant à la fois les connaissances apprises et le raisonnement.

Le module Reason se compose de sous-modules étroitement intégrés :
+ Mémoire : conserve l'état du dialogue, le contexte des tâches et l'historique épisodique dans des formats à court et à long terme.
+ Base de connaissances : donne accès à des règles symboliques, à des ontologies ou à des modèles appris (tels que des intégrations, des faits et des politiques).
+ Objectifs et plans : définit les résultats souhaités et élabore des stratégies d'action pour les atteindre. Les objectifs peuvent être mis à jour de manière dynamique et les plans peuvent être modifiés de manière adaptative en fonction des commentaires.
+ Prise de décision : agit en tant que moteur d'arbitrage central en évaluant les options, en évaluant les compromis et en sélectionnant l'action suivante. Ce sous-module prend en compte les seuils de confiance, l'alignement des objectifs et les contraintes contextuelles.

Ensemble, ces composants permettent à l'agent de raisonner sur son environnement, de mettre à jour ses croyances, de sélectionner des voies et de se comporter de manière cohérente et adaptative. Le module Reason comble le fossé entre la perception et le comportement.

## Module Act
<a name="act"></a>

Le module act exécute la décision sélectionnée par l'agent en s'interfaçant avec l'environnement numérique ou physique pour effectuer les tâches. C'est là que l'intention devient action.

Ce module comprend trois canaux fonctionnels :
+ Actionneurs : pour les agents présents physiquement (tels que les robots et les appareils IoT), ils contrôlent les interactions au niveau du matériel telles que le mouvement, la manipulation ou la signalisation.
+ Exécution : gère les actions basées sur le logiciel, notamment l'invocation APIs, l'envoi de commandes et la mise à jour des systèmes.
+ Outils : active des fonctionnalités telles que la recherche, la synthèse, l'exécution de code, le calcul et la gestion de documents. Ces outils sont souvent dynamiques et sensibles au contexte, ce qui accroît l'utilité de l'agent.

Les sorties du module act sont renvoyées dans l'environnement et bouclent la boucle. Ces résultats sont à nouveau perçus par l'agent. Ils mettent à jour l'état interne de l'agent et éclairent les décisions futures, complétant ainsi le cycle de perception, de raisonnement et d'action.

# Agents d'IA génératifs : remplacer la logique symbolique par LLMs
<a name="generative-ai-agents"></a>

Le schéma suivant montre comment les grands modèles de langage (LLMs) constituent désormais un noyau cognitif flexible et intelligent pour les agents logiciels. Contrairement aux systèmes logiques symboliques traditionnels, qui reposent sur des bibliothèques de plans statiques et des règles codées à la main, ils LLMs permettent un raisonnement adaptatif, une planification contextuelle et une utilisation dynamique des outils, qui transforment la façon dont les agents perçoivent, raisonnent et agissent.

![\[Diagram showing LLM-based agent architecture with perceive, reason, and act components.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/agentic-ai-foundations/images/gen-ai-modules.png)


## Améliorations clés
<a name="enhancements"></a>

Cette architecture améliore l'architecture traditionnelle des agents comme suit :
+ LLMs en tant que moteurs cognitifs : les objectifs, les plans et les requêtes sont transmis au modèle sous forme de contexte**** rapide. Le LLM génère des voies de raisonnement (telles que des chaînes de pensée), décompose les tâches en sous-objectifs et décide des prochaines actions.
+ Utilisation de l'outil par le biais d'instructions : LLMs peut être dirigée par le biais d'agents d'utilisation d'outils ou d'une invite à appeler APIs et à rechercher, interroger, calculer et interpréter les résultats. ReAct
+ Planification contextuelle : les agents génèrent ou révisent les plans de manière dynamique en fonction de l'objectif actuel de l'agent, de l'environnement de saisie et des commentaires, sans avoir besoin de bibliothèques de plans codées en dur.
+ Contexte rapide sous forme de mémoire : au lieu d'utiliser des bases de connaissances symboliques, les agents encodent la mémoire, les plans et les objectifs sous forme de jetons d'invite transmis au modèle.
+ Apprentissage par le biais d'un apprentissage contextuel en quelques étapes : LLMs adaptez les comportements grâce à une ingénierie rapide, ce qui réduit le besoin de reconversion explicite ou de bibliothèques de plans rigides.

## Atteindre la mémoire à long terme avec les agents basés sur le LLM
<a name="long-term-memory"></a>

Contrairement aux agents traditionnels, qui stockaient la mémoire à long terme dans des bases de connaissances structurées, les agents d'IA générative doivent fonctionner dans les limites de la fenêtre contextuelle de LLMs. Pour étendre la mémoire et favoriser la persistance de l'intelligence, les agents d'IA générative utilisent plusieurs techniques complémentaires : le stockage d'agents, la génération augmentée par extraction (RAG), l'apprentissage contextuel et le chaînage rapide, ainsi que le pré-entraînement.

**Agent Store : mémoire externe à long terme**

L'état de l'agent, l'historique utilisateur, les décisions et les résultats sont stockés dans une mémoire d'agent à long terme (telle qu'une base de données vectorielle, un magasin d'objets ou un magasin de documents). Les mémoires pertinentes sont récupérées à la demande et injectées dans le contexte d'invite LLM lors de l'exécution. Cela crée une boucle de mémoire persistante, dans laquelle l'agent assure la continuité entre les sessions, les tâches ou les interactions.

**CHIFFON**

RAG améliore les performances du LLM en combinant les connaissances récupérées avec des capacités génératives. Lorsqu'un objectif ou une requête est émis, l'agent recherche un index de récupération (par exemple, par le biais d'une recherche sémantique de documents, de conversations antérieures ou de connaissances structurées). Les résultats récupérés sont ajoutés à l'invite LLM, qui fonde la génération sur des faits externes ou un contexte personnalisé. Cette méthode étend la mémoire effective de l'agent et améliore la fiabilité et l'exactitude des faits.

**Apprentissage contextuel et chaînage rapide**

Les agents conservent leur mémoire à court terme en utilisant un contexte de jeton en session et un chaînage d'invite structuré. Les éléments contextuels, tels que le plan actuel, les résultats des actions précédentes et le statut de l'agent, sont transmis entre les appels pour guider le comportement.

**Préformation continue et mise au point**

Pour les agents spécifiques à un domaine, il est LLMs possible de poursuivre leur formation préalable sur des collections personnalisées telles que les journaux, les données d'entreprise ou la documentation des produits. Alternativement, le réglage précis des instructions ou l'apprentissage par renforcement à partir du feedback humain (RLHF) peuvent intégrer un comportement semblable à celui d'un agent directement dans le modèle. Cela fait passer les modèles de raisonnement de la logique des délais à la représentation interne du modèle, réduit la longueur des instructions et améliore l'efficacité.

## Avantages combinés de l'IA agentic
<a name="benefits"></a>

Ces techniques, lorsqu'elles sont utilisées ensemble, permettent aux agents d'IA générative de :
+ Maintenez une conscience contextuelle au fil du temps.
+ Adaptez le comportement en fonction de l'historique ou des préférences de l'utilisateur.
+ Prenez des décisions en utilisant up-to-date des connaissances factuelles ou privées.
+ Adaptez-vous aux cas d'utilisation en entreprise avec des comportements persistants, conformes et explicables.

En ajoutant de la mémoire externe, LLMs des couches de récupération et une formation continue, les agents peuvent atteindre un niveau de continuité cognitive et un objectif qui ne pouvaient pas être atteints auparavant par le biais des seuls systèmes symboliques.

# Comparaison de l'IA traditionnelle aux agents logiciels et à l'IA agentique
<a name="comparison"></a>

Le tableau suivant fournit une comparaison détaillée de l'IA traditionnelle, des agents logiciels et de l'IA agentique.


| Caractéristiques | IA traditionnelle | Agents logiciels | IA agentic | 
| --- | --- | --- | --- | 
|  Exemples  |  Filtres anti-spam, classificateurs d'images, moteurs de recommandation  |  Chatbots, planificateurs de tâches, agents de surveillance  |  Assistants IA, agents de développement autonomes, orchestrations LLM multi-agents  | 
|  Modèle d'exécution  |  Batch ou synchrone  |  Programmé ou piloté par un événement  |  Asynchrone, piloté par les événements et axé sur les objectifs  | 
|  Autonomie  |  Limité ; nécessite souvent une orchestration humaine ou externe  |  Moyen ; fonctionne indépendamment dans des limites prédéfinies  |  Élevé ; agit de façon autonome grâce à des stratégies adaptatives  | 
|  Réactivité  |  Réactif aux données d'entrée  |  Réactif à l'environnement et aux événements  |  Réactif et proactif ; anticipe et initie des actions  | 
|  Proactivité  |  Rare  |  Présent dans certains systèmes  |  Attribut de base ; entraîne un comportement orienté vers un objectif  | 
|  Communication  |  Minimum ; généralement autonome ou lié à l'API  |  Messagerie interagent ou agent-homme  |  Multi-agents et human-in-the-loop interactions riches  | 
|  Prise de décisions  |  Inférence du modèle uniquement (classification, prédiction, etc.)  |  Raisonnement symbolique ou décisions basées sur des règles ou scénarisées  |  Raisonnement dynamique, contextuel et basé sur les objectifs (souvent amélioré par le LLM)  | 
|  Intention déléguée  |  Non ; exécute des tâches définies directement par l'utilisateur  |  Partiel ; agit pour le compte d'utilisateurs ou de systèmes dont la portée est limitée  |  Oui ; agit avec des objectifs délégués, souvent entre services, utilisateurs ou systèmes  | 
|  Apprentissage et adaptation  |  Souvent centré sur le modèle (par exemple, formation en machine learning)  |  Parfois adaptatif  |  Apprentissage, mémoire ou raisonnement intégrés (par exemple, feedback, autocorrection)  | 
|  Agence  |  Aucun ; outils pour humains  |  Implicite ou basique  |  Explicite ; fonctionne avec un but, des objectifs et une orientation autonome  | 
|  Connaissance du contexte  |  Faible ; apatride ou basé sur des instantanés  |  Modéré ; un certain suivi de l'état  |  Élevé ; utilise la mémoire, le contexte situationnel et les modèles environnementaux  | 
|  Rôle d’infrastructure  |  Intégré dans des applications ou des pipelines d'analyse  |  Middleware ou composant de couche de service  |  Maillage d'agents composable intégré aux systèmes cloud, sans serveur ou de périphérie  | 

Pour résumer :
+ L'IA traditionnelle est centrée sur les outils et limitée sur le plan fonctionnel. Il met l'accent sur la prédiction ou la classification.
+ Les agents logiciels traditionnels introduisent l'autonomie et une communication de base, mais ils sont souvent limités par des règles ou statiques.
+ L'IA agentic réunit autonomie, asynchronie et agence. Il permet à des entités intelligentes, axées sur des objectifs, de raisonner, d'agir et de s'adapter au sein de systèmes complexes. L'IA agentic est donc idéale pour le futur basé sur le cloud natif et piloté par l'IA.