

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Cadres
<a name="frameworks"></a>

[Les fondements de l'IA agentic AWS examinent les](https://docs.aws.amazon.com/prescriptive-guidance/latest/agentic-ai-foundations/) principaux modèles et flux de travail qui permettent un comportement autonome et axé sur les objectifs. Le choix du cadre est au cœur de la mise en œuvre de ces modèles. Un *framework* est la base logicielle du code préécrit qui fournit un environnement structuré et des fonctionnalités communes pour la création et la gestion, les outils et les capacités d'orchestration nécessaires pour créer des agents d'IA autonomes prêts pour la production. 

Les frameworks d'IA agentique efficaces fournissent plusieurs fonctionnalités essentielles qui transforment les interactions brutes des grands modèles de langage (LLM) en systèmes coordonnés et intelligents capables de raisonner, de collaborer et d'agir :
+ **L'orchestration des agents** coordonne le flux d'informations et la prise de décision entre un ou plusieurs agents afin d'atteindre des objectifs complexes sans intervention humaine.
+ **L'intégration d'outils** permet aux agents d'interagir avec des systèmes externes et des sources de données afin d'étendre leurs capacités au-delà du traitement du langage. APIs Pour plus d'informations, consultez la section [Présentation des outils](https://strandsagents.com/0.1.x/user-guide/concepts/tools/tools_overview/) dans la Strands Agents documentation.
+ **La gestion de la mémoire** fournit un état persistant ou basé sur les sessions afin de maintenir le contexte dans toutes les interactions, ce qui est essentiel pour les tâches de longue durée ou adaptatives. Des frameworks plus avancés intègrent une mémoire à long terme pour stocker les résumés et les préférences des utilisateurs, permettant ainsi des expériences agentiques personnalisées et adaptées au contexte. Pour plus d'informations, consultez [la section Comment penser aux frameworks d'agents](https://blog.langchain.com/how-to-think-about-agent-frameworks/) sur le LangChain blog. 
+ **La définition du flux** de travail prend en charge des modèles structurés tels que les chaînes, le routage, la parallélisation et les boucles de réflexion qui permettent un raisonnement autonome sophistiqué.
+ Le **déploiement et le suivi** facilitent le passage du développement à la production grâce à l'observabilité pour les systèmes autonomes. Pour plus d'informations, consultez l'annonce de [disponibilité AgentCore générale d'Amazon Bedrock](https://aws.amazon.com/blogs/machine-learning/amazon-bedrock-agentcore-is-now-generally-available/).

Ces fonctionnalités sont mises en œuvre selon différentes approches et approches dans l'ensemble du paysage des frameworks, chacune offrant des avantages distincts pour différents cas d'utilisation d'agents autonomes et contextes organisationnels.

Cette section décrit et compare les principaux frameworks pour la création de solutions d'IA agentiques, en mettant l'accent sur leurs points forts, leurs limites et leurs cas d'utilisation idéaux pour un fonctionnement autonome :
+ [Agents à mèches](strands-agents.md)
+ [LangChain et LangGraph](langchain-langgraph.md)
+ [Équipage AI](crewai.md)
+ [AutoGen](autogen.md)
+ [LlamaIndex](llamaindex.md)
+ [Comparaison des frameworks d'IA agentiques](comparing-agentic-ai-frameworks.md)

**Note**  
Cette section couvre les cadres qui soutiennent spécifiquement l'agence de l'IA et ne couvre pas les interfaces frontales ou l'IA générative sans agence.

# Strands Agents
<a name="strands-agents"></a>

Strands Agentsest un SDK open source initialement publié par AWS, comme décrit dans le blog [AWS Open Source](https://aws.amazon.com/blogs/opensource/introducing-strands-agents-an-open-source-ai-agents-sdk/). Strands Agentsest conçu pour créer des agents d'intelligence artificielle autonomes selon une approche axée sur le modèle. Il fournit un cadre flexible et extensible conçu pour fonctionner parfaitement Services AWS tout en restant ouvert à l'intégration avec des composants tiers. Strands Agents est idéal pour créer des solutions totalement autonomes.

## Principales fonctionnalités de Strands Agents
<a name="key-features-of-strands-agents"></a>

Strands Agentsinclut les principales fonctionnalités suivantes :
+ **Conception axée sur le modèle** : construite autour du concept selon lequel le modèle de base est au cœur de l'intelligence des agents, permettant un raisonnement autonome sophistiqué. Pour plus d'informations, consultez [Agent Loop](https://strandsagents.com/latest/user-guide/concepts/agents/agent-loop/) dans la Strands Agents documentation.
+ Modèles de **collaboration multi-agents : modèles** de coordination intégrés tels que les modèles Swarm, Graph et Workflow qui permettent une collaboration et une gouvernance évolutives sur les réseaux d'agents distribués. Pour plus d'informations, consultez la section [Modèles multi-agents](https://strandsagents.com/docs/user-guide/concepts/multi-agent/multi-agent-patterns/) dans la documentation Strands Agents.
+ **Intégration MCP** : support natif du protocole MCP ([Model Context Protocol](https://modelcontextprotocol.io/)), permettant une fourniture de contexte standardisée LLMs pour un fonctionnement autonome cohérent.
+ **Service AWS intégration** — Connexion fluide à Amazon Bedrock,, AWS Lambda AWS Step Functions, et autres Services AWS pour des flux de travail autonomes complets. Pour plus d'informations, consultez le [résuméAWS hebdomadaire](https://aws.amazon.com/blogs/aws/aws-weekly-roundup-strands-agents-aws-transform-amazon-bedrock-guardrails-aws-codebuild-and-more-may-19-2025/) (AWS blog).
+ **Sélection du modèle** de base : prend en charge différents modèles de base, notamment Anthropic Claude, Amazon Nova (Premier, Pro, Lite et Micro) sur Amazon Bedrock, et d'autres pour optimiser les différentes capacités de raisonnement autonome. Pour plus d'informations, consultez [Amazon Bedrock](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/) dans la Strands Agents documentation. 
+ Intégration de **l'API LLM** — Intégration flexible avec différentes interfaces de service LLM, notamment Amazon Bedrock, OpenAI, etc. pour le déploiement en production. Pour plus d'informations, consultez [Amazon Bedrock Basic Usage](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/#basic-usage) dans la Strands Agents documentation.
+ **Capacités multimodales** — Support de plusieurs modalités, notamment le traitement du texte, de la parole et de l'image pour des interactions complètes avec les agents autonomes. Pour plus d'informations, consultez [Amazon Bedrock Multimodal Support](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/#multimodal-support) dans la Strands Agents documentation.
+ **Écosystème** d'outils : ensemble complet d'outils d' Service AWS interaction, avec extensibilité pour les outils personnalisés qui étendent les capacités autonomes. Pour plus d'informations, consultez la section [Présentation des outils](https://strandsagents.com/0.1.x/user-guide/concepts/tools/tools_overview/) dans la Strands Agents documentation.

## Quand utiliser Strands Agents
<a name="when-to-use-strands-agents"></a>

Strands Agentsest particulièrement bien adapté aux scénarios d'agents autonomes, notamment :
+ Organisations qui s'appuient sur une AWS infrastructure et qui souhaitent une intégration native Services AWS pour des flux de travail autonomes
+ Équipes nécessitant des fonctionnalités de sécurité, d'évolutivité et de conformité de niveau professionnel pour les systèmes autonomes de production
+ Projets nécessitant une flexibilité dans la sélection de modèles entre différents fournisseurs pour des tâches autonomes spécialisées
+ Cas d'utilisation nécessitant une intégration étroite avec les AWS flux de travail et les ressources existants pour des processus autonomes de bout en bout

## Approche de mise en œuvre pour Strands Agents
<a name="implementation-approach-for-strands-agents"></a>

Strands Agentspropose une approche de mise en œuvre simple pour les parties prenantes de l'entreprise, comme indiqué dans son [guide de démarrage rapide](https://strandsagents.com/0.1.x/user-guide/quickstart/). Le cadre permet aux organisations de :
+ Sélectionnez des modèles de base tels qu'Amazon Nova (Premier, Pro, Lite ou Micro) sur Amazon Bedrock en fonction des besoins commerciaux spécifiques.
+ Définissez des outils personnalisés qui se connectent aux systèmes et aux sources de données de l'entreprise.
+ Traitez plusieurs modalités, notamment le texte, les images et le discours.
+ Déployez des agents capables de répondre de manière autonome aux requêtes commerciales et d'effectuer des tâches.

Cette approche de mise en œuvre permet aux équipes commerciales de développer et de déployer rapidement des agents autonomes sans expertise technique approfondie dans le développement de modèles d'IA.

## Exemple concret de Strands Agents
<a name="real-world-example-of-strands-agents"></a>

AWS Transform pour .NET utilise Strands Agents ses capacités de modernisation des applications, comme décrit dans [AWS Transform for .NET, le premier service d'intelligence artificielle agentique permettant de moderniser les applications .NET à grande échelle](https://aws.amazon.com/blogs/aws/aws-transform-for-net-the-first-agentic-ai-service-for-modernizing-net-applications-at-scale/) (AWS blog). Ce service de production emploie plusieurs agents autonomes spécialisés. Les agents travaillent ensemble pour analyser les applications .NET existantes, planifier des stratégies de modernisation et exécuter des transformations de code vers des architectures cloud natives sans intervention humaine. [AWS Transform for .NET](https://aws.amazon.com/transform/net/) démontre l'état de préparation à la production Strands Agents des systèmes autonomes d'entreprise.

# LangChain et LangGraph
<a name="langchain-langgraph"></a>

LangChainest l'un des frameworks les plus établis de l'écosystème de l'IA agentique. LangGraphétend ses fonctionnalités pour prendre en charge les flux de travail complexes et dynamiques des agents, comme décrit dans le [LangChainblog](https://blog.langchain.dev/how-to-think-about-agent-frameworks/). Ensemble, ils fournissent une solution complète pour créer des agents IA autonomes sophistiqués dotés de riches capacités d'orchestration pour un fonctionnement indépendant.

## Principales caractéristiques de LangChain et LangGraph
<a name="key-features-of-langchain-and-langgraph"></a>

LangChainet LangGraph incluent les fonctionnalités clés suivantes :
+ **Écosystème de composants** — Vaste bibliothèque de composants prédéfinis pour diverses fonctionnalités d'agents autonomes, permettant le développement rapide d'agents spécialisés. Pour plus d'informations, consultez [Quickstart](https://docs.langchain.com/oss/python/langchain/quickstart) dans la LangChain documentation.
+ **Sélection du modèle de base** — Support pour divers modèles de fondation, notamment les modèles Anthropic Claude, Amazon Nova (Premier, Pro, Lite et Micro) sur Amazon Bedrock, et d'autres pour différentes capacités de raisonnement. Pour plus d'informations, consultez la section [Entrées et sorties](https://python.langchain.com/docs/concepts/chat_models/#inputs-and-outputs) dans la LangChain documentation.
+ **Intégration de l'API LLM** : interfaces standardisées pour plusieurs fournisseurs de services de grands modèles linguistiques (LLM), notamment Amazon BedrockOpenAI, pour un déploiement flexible. Pour plus d'informations, consultez la section [LLMs](https://python.langchain.com/docs/integrations/llms/)dans la documentation LangChain.
+ **Traitement multimodal** : prise en charge intégrée du traitement du texte, de l'image et du son pour permettre des interactions multimodales riches entre agents autonomes. Pour plus d'informations, consultez la section [Multimodalité](https://python.langchain.com/docs/concepts/chat_models/#multimodality) dans la LangChain documentation.
+ **Flux de travail basés sur des graphes** : LangGraph permettent de définir les comportements complexes des agents autonomes en tant que machines à états, prenant en charge une logique décisionnelle sophistiquée. Pour plus d'informations, consultez l'annonce de [LangGraphPlatform GA](https://blog.langchain.dev/langgraph-platform-ga/).
+ **Abstractions de mémoire** — Plusieurs options pour la gestion de la mémoire à court et à long terme, ce qui est essentiel pour les agents autonomes qui maintiennent le contexte au fil du temps. Pour plus d'informations, consultez [Comment ajouter de la mémoire aux chatbots](https://python.langchain.com/docs/how_to/chatbots_memory/) dans la LangChain documentation.
+ **Intégration d'outils** — Écosystème riche d'intégrations d'outils à travers divers services et extension APIs des capacités des agents autonomes. Pour plus d'informations, consultez la section [Outils](https://python.langchain.com/docs/how_to/#tools) de la LangChain documentation.
+ **LangGraph plateforme** — Solution gérée de déploiement et de surveillance pour les environnements de production, prenant en charge les agents autonomes de longue durée. Pour plus d'informations, consultez l'annonce de [LangGraphPlatform GA](https://blog.langchain.dev/langgraph-platform-ga/).

## Quand utiliser LangChain et LangGraph
<a name="when-to-use-langchain-and-langgraph"></a>

LangChainet LangGraph sont particulièrement bien adaptés aux scénarios d'agents autonomes, notamment :
+ Workflows de raisonnement complexes en plusieurs étapes qui nécessitent une orchestration sophistiquée pour une prise de décision autonome
+ Projets nécessitant l'accès à un vaste écosystème de composants prédéfinis et d'intégrations pour diverses capacités autonomes
+ Équipes disposant d'une infrastructure et d'une expertise en Python apprentissage automatique (ML) existantes et souhaitant créer des systèmes autonomes
+ Cas d'utilisation nécessitant une gestion d'état complexe lors de sessions d'agents autonomes de longue durée

## Approche de mise en œuvre pour LangChain et LangGraph
<a name="implementation-approach-for-langchain-and-langgraph"></a>

LangChainet LangGraph fournir une approche de mise en œuvre structurée pour les parties prenantes de l'entreprise, comme indiqué dans la [LangGraphdocumentation](https://python.langchain.com/docs/langgraph). Le cadre permet aux organisations de :
+ Définissez des graphiques de flux de travail sophistiqués qui représentent les processus métier.
+ Créez des modèles de raisonnement en plusieurs étapes avec des points de décision et une logique conditionnelle.
+ Intégrez des capacités de traitement multimodales pour gérer divers types de données.
+ Mettez en œuvre le contrôle qualité grâce à des mécanismes de révision et de validation intégrés.

Cette approche basée sur des graphiques permet aux équipes commerciales de modéliser des processus décisionnels complexes sous forme de flux de travail autonomes. Les équipes ont une visibilité claire sur chaque étape du processus de raisonnement et sont en mesure d'auditer les parcours décisionnels.

## Exemple concret de et LangChain LangGraph
<a name="real-world-example-of-langchain-and-langgraph"></a>

Vodafonea mis en place des agents autonomes utilisant LangChain (etLangGraph) pour améliorer ses flux de travail d'ingénierie des données et d'exploitation, comme indiqué dans son [étude de cas sur l'LangChainentreprise](https://blog.langchain.com/customers-vodafone/). Ils ont créé des assistants IA internes qui surveillent de manière autonome les indicateurs de performance, extraient des informations des systèmes de documentation et présentent des informations exploitables, le tout par le biais d'interactions en langage naturel.

La Vodafone mise en œuvre utilise des chargeurs de documents LangChain modulaires, l'intégration vectorielle et la prise en charge de plusieurs LLMs (OpenAI, LLaMA 3 etGemini) pour prototyper et comparer rapidement ces pipelines. Ils ont ensuite structuré LangGraph l'orchestration multi-agents en déployant des sous-agents modulaires. Ces agents exécutent des tâches de collecte, de traitement, de synthèse et de raisonnement. LangGraphont intégré ces agents APIs dans leurs systèmes cloud.

# CrewAI
<a name="crewai"></a>

CrewAIest un framework open source spécifiquement axé sur l'orchestration multi-agents autonome, disponible sur. [GitHub](https://github.com/crewAIInc/crewAI) Il propose une approche structurée pour créer des équipes d'agents autonomes spécialisés qui collaborent pour résoudre des tâches complexes sans intervention humaine. CrewAImet l'accent sur la coordination basée sur les rôles et la délégation des tâches.

## Principales fonctionnalités de CrewAI
<a name="key-features-of-crewai"></a>

CrewAIfournit les fonctionnalités clés suivantes :
+ **Conception d'agents basée sur les rôles** — Les agents autonomes sont définis avec des rôles, des objectifs et des histoires spécifiques afin de permettre une expertise spécialisée. Pour plus d'informations, consultez la [section Création d'agents efficaces](https://docs.crewai.com/en/guides/agents/crafting-effective-agents) dans la CrewAI documentation.
+ **Délégation de tâches** : mécanismes intégrés permettant d'attribuer des tâches de manière autonome aux agents appropriés en fonction de leurs capacités. Pour plus d'informations, consultez la section [Tâches](https://docs.crewai.com/en/concepts/tasks) de la CrewAI documentation.
+ **Collaboration entre agents** : cadre pour la communication autonome entre agents et le partage des connaissances sans médiation humaine. Pour plus d'informations, consultez [la section Collaboration](https://docs.crewai.com/en/concepts/collaboration) dans la CrewAI documentation.
+ **Gestion des processus** : flux de travail structurés pour l'exécution séquentielle et parallèle de tâches autonomes. Pour plus d'informations, consultez la section [Processus](https://docs.crewai.com/en/concepts/processes) dans la CrewAI documentation.
+ **Sélection du modèle de base** — Support de différents modèles de base, notamment les modèles Anthropic Claude, Amazon Nova (Premier, Pro, Lite et Micro) sur Amazon Bedrock, et d'autres pour optimiser les différentes tâches de raisonnement autonomes. Pour plus d'informations, consultez la section [LLMs](https://docs.crewai.com/en/concepts/llms)dans la documentation CrewAI.
+ Intégration de **l'API LLM — Intégration** flexible avec plusieurs interfaces de service LLM, notamment Amazon BedrockOpenAI, et les déploiements de modèles locaux. Pour plus d'informations, consultez les [exemples de configuration des fournisseurs](https://docs.crewai.com/en/concepts/llms#provider-configuration-examples) dans la CrewAI documentation.
+ **Support multimodal** — Capacités émergentes de gestion du texte, des images et d'autres modalités pour des interactions complètes avec les agents autonomes. Pour plus d'informations, consultez la section [Utilisation d'agents multimodaux](https://docs.crewai.com/en/learn/multimodal-agents) dans la CrewAI documentation.

## Quand utiliser CrewAI
<a name="when-to-use-crewai"></a>

CrewAIest particulièrement bien adapté aux scénarios d'agents autonomes, notamment :
+ Problèmes complexes bénéficiant d'une expertise spécialisée basée sur les rôles travaillant de manière autonome 
+ Projets nécessitant une collaboration explicite entre plusieurs agents autonomes 
+ Cas d'utilisation où la décomposition des problèmes en équipe améliore la résolution autonome des problèmes
+ Scénarios nécessitant une séparation claire des préoccupations entre les différents rôles d'agent autonome

## Approche de mise en œuvre pour CrewAI
<a name="implementation-approach-for-crewai"></a>

CrewAIfournit une implémentation basée sur les rôles de l'approche des équipes d'agents IA pour les parties prenantes de l'entreprise, comme indiqué dans la section [Getting Started](https://github.com/crewAIInc/crewAI?tab=readme-ov-file#getting-started) de la CrewAI documentation. Le cadre permet aux organisations de :
+ Définissez des agents autonomes spécialisés dotés de rôles, d'objectifs et de domaines d'expertise spécifiques.
+ Attribuez des tâches aux agents en fonction de leurs capacités spécialisées.
+ Établissez des dépendances claires entre les tâches pour créer des flux de travail structurés.
+ Orchestrez la collaboration entre plusieurs agents pour résoudre des problèmes complexes.

Cette approche basée sur les rôles reflète les structures humaines des équipes, ce qui la rend intuitive à comprendre et à mettre en œuvre pour les chefs d'entreprise. Organisations peuvent créer des équipes autonomes dotées de domaines d'expertise spécialisés qui collaborent pour atteindre leurs objectifs commerciaux, de la même manière que les équipes humaines fonctionnent. Cependant, l'équipe autonome peut travailler en continu sans intervention humaine.

## Exemple concret de CrewAI
<a name="real-world-example-of-crewai"></a>

AWS [a mis en œuvre des systèmes multi-agents autonomes utilisant CrewAI intégré à Amazon Bedrock, comme indiqué dans l'CrewAIétude de cas publiée.](https://www.crewai.com/case-studies/aws-powers-bedrock-agents-with-crewai) AWS et CrewAI a développé un cadre sécurisé et indépendant du fournisseur. L'architecture CrewAI open source « flows-and‑crews » s'intègre parfaitement aux modèles de base, aux systèmes de mémoire et aux dispositifs de conformité d'Amazon Bedrock.

Les principaux éléments de la mise en œuvre sont les suivants :
+ **Des plans et des sources ouvertes**, AWS ainsi que des modèles de [référence CrewAI publiés qui associent](https://aws.amazon.com/blogs/machine-learning/build-agentic-systems-with-crewai-and-amazon-bedrock/) les CrewAI agents aux modèles et aux outils d'observabilité d'Amazon Bedrock. Ils ont également publié des systèmes exemplaires tels qu'une équipe d'audit de AWS sécurité multi-agents, des flux de modernisation du code et l'automatisation du back-office des biens de consommation (CPG).
+ **Intégration de la pile d'observabilité** : la solution intègre la surveillance avec Amazon CloudWatch et permet la traçabilité et le débogageLangFuse, de la validation du concept à la production. AgentOps
+ **Retour sur investissement (ROI) démontré** — Les premiers projets pilotes présentent des améliorations majeures : exécution 70 % plus rapide pour un projet de modernisation du code de grande envergure et réduction d'environ 90 % du temps de traitement pour un flux de backoffice CPG.

# AutoGen
<a name="autogen"></a>

[https://www.microsoft.com/en-us/research/project/autogen/](https://www.microsoft.com/en-us/research/project/autogen/)est un framework open source initialement publié parMicrosoft. AutoGense concentre sur la mise en place d'agents IA autonomes conversationnels et collaboratifs. Il fournit une architecture flexible pour créer des systèmes multi-agents en mettant l'accent sur les interactions asynchrones et pilotées par des événements entre les agents pour des flux de travail autonomes complexes.

## Principales fonctionnalités de AutoGen
<a name="key-features-of-autogen"></a>

AutoGenfournit les fonctionnalités clés suivantes :
+ **Agents conversationnels** : conçus autour de conversations en langage naturel entre agents autonomes, permettant un raisonnement sophistiqué par le biais du dialogue. Pour plus d'informations, consultez la section [Multi-agent Conversation Framework](https://microsoft.github.io/autogen/docs/Use-Cases/agent_chat) dans la AutoGen documentation.
+ **Architecture asynchrone** : conception axée sur les événements pour des interactions non bloquantes avec des agents autonomes, prenant en charge des flux de travail parallèles complexes. Pour plus d'informations, consultez la section [Résolution de plusieurs tâches dans une séquence de discussions asynchrones](https://microsoft.github.io/autogen/0.2/docs/notebooks/agentchat_multi_task_async_chats/) dans la AutoGen documentation.
+ **H uman-in-the-loop** — Soutien solide à la participation humaine facultative à des flux de travail d'agents par ailleurs autonomes en cas de besoin. Pour plus d'informations, consultez la section [Autorisation du feedback humain dans les agents](https://microsoft.github.io/autogen/0.2/docs/tutorial/human-in-the-loop/) dans la AutoGen documentation.
+ **Génération et exécution de code** — Fonctionnalités spécialisées pour les agents autonomes axés sur le code qui peuvent écrire et exécuter du code. Pour plus d'informations, consultez la section [Exécution du code](https://microsoft.github.io/autogen/stable/user-guide/core-user-guide/design-patterns/code-execution-groupchat.html) dans la AutoGen documentation.
+ **Comportements personnalisables** — Configuration flexible des agents autonomes et contrôle des conversations pour divers cas d'utilisation. Pour plus d'informations, consultez [agentchat.conversable\$1agent](https://microsoft.github.io/autogen/docs/reference/agentchat/conversable_agent) dans la documentation. AutoGen
+ **Sélection du modèle de base** — Support pour différents modèles de base, notamment les modèles Anthropic Claude, Amazon Nova (Premier, Pro, Lite et Micro) sur Amazon Bedrock, et d'autres pour différentes capacités de raisonnement autonome. Pour plus d'informations, consultez la section [Configuration LLM](https://microsoft.github.io/autogen/docs/topics/llm_configuration) dans la AutoGen documentation.
+ **Intégration de l'API LLM** — Configuration standardisée pour plusieurs interfaces de service LLM, notamment Amazon Bedrock etOpenAI. Azure OpenAI Pour plus d'informations, consultez [oai.openai\$1utils](https://microsoft.github.io/autogen/docs/reference/oai/openai_utils) dans le manuel de référence des API. AutoGen
+ Traitement **multimodal — Support du traitement** du texte et de l'image pour permettre des interactions multimodales riches entre agents autonomes. Pour plus d'informations, consultez la section [Engagement avec les modèles multimodaux : GPT-4V dans AutoGen](https://microsoft.github.io/autogen/0.2/docs/notebooks/agentchat_lmm_gpt-4v/) la documentation. AutoGen

## Quand utiliser AutoGen
<a name="when-to-use-autogen"></a>

AutoGenest particulièrement bien adapté aux scénarios d'agents autonomes, notamment :
+ Applications qui nécessitent des flux conversationnels naturels entre agents autonomes pour un raisonnement complexe
+ Projets nécessitant à la fois un fonctionnement totalement autonome et des capacités de supervision humaine optionnelles
+ Cas d'utilisation impliquant la génération, l'exécution et le débogage de code autonomes sans intervention humaine
+ Scénarios nécessitant des modèles de communication flexibles et asynchrones avec des agents autonomes

## Approche de mise en œuvre pour AutoGen
<a name="implementation-approach-for-autogen"></a>

AutoGenpropose une approche de mise en œuvre conversationnelle pour les parties prenantes de l'entreprise, comme indiqué dans la section [Getting Started](https://microsoft.github.io/autogen/docs/Getting-Started) de la AutoGen documentation. Le cadre permet aux organisations de :
+ Créez des agents autonomes qui communiquent par le biais de conversations en langage naturel.
+ Implémentez des interactions asynchrones pilotées par des événements entre plusieurs agents.
+ Combinez un fonctionnement entièrement autonome avec une supervision humaine optionnelle en cas de besoin.
+ Développez des agents spécialisés pour différentes fonctions commerciales qui collaborent par le biais du dialogue.

Cette approche conversationnelle rend le raisonnement du système autonome transparent et accessible aux utilisateurs professionnels. Les décideurs peuvent observer le dialogue entre les agents pour comprendre comment les conclusions sont tirées et éventuellement participer à la conversation lorsque le jugement humain est requis.

## Exemple concret de AutoGen
<a name="real-world-example-of-autogen"></a>

Magentic-One[est un système multi-agents généraliste open source conçu pour résoudre de manière autonome des tâches complexes en plusieurs étapes dans divers environnements, comme décrit dans le blog AI Frontiers. Microsoft ](https://www.microsoft.com/en-us/research/articles/magentic-one-a-generalist-multi-agent-system-for-solving-complex-tasks/) À la base se trouve l'agent Orchestrator, qui décompose les objectifs de haut niveau et suit les progrès à l'aide de registres structurés. Cet agent délègue des sous-tâches à des agents spécialisés (tels queWebSurfer, FileSurferCoder, etComputerTerminal) et s'adapte dynamiquement en replanifiant si nécessaire. 

Le système repose sur le AutoGen framework et est indépendant du modèle, avec GPT‑4o par défaut. Il atteint des performances de pointe sur des critères tels GAIA que, et, le tout sans réglage spécifique à une tâche. AssistantBench WebArena De plus, il prend en charge l'extensibilité modulaire et une évaluation rigoureuse par le biais de AutoGenBench suggestions.

# LlamaIndex
<a name="llamaindex"></a>

[https://www.llamaindex.ai/](https://www.llamaindex.ai/)est un framework de données conçu spécifiquement pour connecter de grands modèles linguistiques (LLMs) à des sources de données externes afin de permettre des applications sophistiquées de génération augmentée de récupération (RAG) et d'intelligence artificielle agentique. Le framework fournit des abstractions et des flux de développement accélérés pour les systèmes agentiques, des modèles d'orchestration personnalisés et des intégrations de systèmes qui réduisent time-to-production le nombre de solutions d'IA axées sur les connaissances.

## Principales fonctionnalités de LlamaIndex
<a name="key-features-of-llamaindex"></a>

LlamaIndexfournit un ensemble complet de fonctionnalités qui le rendent particulièrement adapté aux applications d'intelligence artificielle agentiques d'entreprise :
+ **Architecture centrée sur** les données : excelle dans l'ingestion, l'indexation et la récupération d'informations provenant de plus de 100 formats de données PDFs, notamment des documents Microsoft Word, des feuilles de calcul, etc. Le framework transforme les données d'entreprise en bases de connaissances consultables optimisées pour les agents d'intelligence artificielle. Pour plus d’informations, consultez la [documentation LlamaIndex](https://developers.llamaindex.ai/).
+ **Déploiement prêt pour la production** : LlamaIndex propose à la fois des frameworks open source et des services gérésLlamaCloud, fournissant des fonctionnalités de niveau entreprise, notamment des contrôles de sécurité, une évolutivité, des intégrations d'observabilité et une flexibilité de déploiement. Pour plus d'informations, consultez la [documentation du LlamaIndex framework](https://developers.llamaindex.ai/python/framework/). 
+ **Traitement avancé des documents** : LlamaCloud fournit des fonctionnalités d'analyse, d'extraction, d'indexation et de récupération de documents qui gèrent les mises en page complexes, les tableaux imbriqués, le contenu multimodal et même les notes manuscrites. Cette analyse sophistiquée permet aux agents de travailler efficacement avec des documents d'entreprise réels contenant des graphiques, des diagrammes et des mises en forme complexes. Pour plus d’informations, consultez la [documentation LlamaCloud](https://developers.llamaindex.ai/python/cloud/). 
+ **Orchestration des flux** de travail : LlamaAgents fournit un moteur d'orchestration asynchrone piloté par les événements pour créer des systèmes agentiques en plusieurs étapes. Les flux de travail prennent en charge des modèles complexes tels que les boucles, l'exécution parallèle, le branchement conditionnel et la reprise dynamique, ce qui les rend idéaux pour les interactions sophistiquées avec les agents. Pour plus d'informations, consultez la [documentation sur les LlamaIndex flux de travail](https://developers.llamaindex.ai/python/framework/understanding/workflows/).
+ **Capacités de récupération agentique** : modes de récupération avancés, notamment la recherche hybride, la recherche sémantique et le routage automatique, qui déterminent intelligemment la meilleure stratégie de récupération pour chaque requête. Le framework prend en charge la récupération composite dans plusieurs bases de connaissances avec un reclassement pour une précision accrue. Pour plus d'informations, consultez la [documentation LlamaIndex RAG](https://developers.llamaindex.ai/python/framework/understanding/rag/). 
+ **Observabilité et évaluation** : LlamaIndex s'intègre à une variété d'outils d'observabilité et d'évaluation. Cette fonctionnalité d'intégration vous permet de suivre et de déboguer vos applications, d'évaluer leurs performances et de surveiller les coûts. Pour plus d'informations, consultez la LlamaIndex documentation relative au [suivi, au débogage](https://developers.llamaindex.ai/python/framework/understanding/tracing_and_debugging/tracing_and_debugging/) et à [l'évaluation](https://developers.llamaindex.ai/python/framework/module_guides/evaluating).

## Quand utiliser LlamaIndex
<a name="when-to-use-llamaindex"></a>

LlamaIndexest particulièrement bien adapté aux scénarios d'IA agentique qui mettent l'accent sur les flux de travail gourmands en données et la gestion des connaissances :
+ Applications gourmandes en documents qui nécessitent que les agents traitent, analysent et extraient des informations à partir de grands volumes de documents d'entreprise tels que des contrats, des rapports, des manuels et des documents réglementaires
+ Scénarios du prototypage rapide à la production dans lesquels les entreprises souhaitent créer et déployer rapidement des agents centrés sur les documents sans surcharger la gestion de l'infrastructure
+ Des architectures Rag-first qui privilégient la précision de l'extraction et la pertinence du contexte, en particulier lorsque vous travaillez avec des documents multimodaux complexes contenant des tableaux, des images et des données structurées
+ Des flux de travail documentaires multi-agents qui nécessitent des agents spécialisés pour différents aspects du traitement des documents, tels que l'analyse, la synthèse et le contrôle de conformité

## Approche de mise en œuvre pour LlamaIndex
<a name="implementation-approach-for-llamaindex"></a>

LlamaIndex fournit à la fois des éléments de base de base et des abstractions de haut niveau qui s'adaptent à différentes approches de mise en œuvre :
+ Développement rapide d'applications RAG fonctionnelles en quelques lignes de code grâce à une utilisation de LlamaIndex haut niveau APIs. Cette approche rend LlamaIndex accessible aux équipes commerciales et aux développeurs novices en matière d'IA agentic. 
+ Intégration d'entreprise via LlamaHub les systèmes d'entreprise les plus courants SharePoint, notamment Amazon Simple Storage Service (Amazon S3), les bases de données et. APIs Cette approche permet une intégration parfaite avec l'infrastructure de données existante.
+ Des options de déploiement flexibles entre des déploiements open source auto-hébergés pour un contrôle maximal ou des services LlamaCloud gérés pour réduire les frais opérationnels et les fonctionnalités d'entreprise.
+ Les applications peuvent commencer par de simples moteurs de requêtes et ajouter progressivement des fonctionnalités agentiques, une orchestration multi-agents et des flux de travail complexes au fur et à mesure de l'évolution des exigences. 

## Exemple concret de LlamaIndex
<a name="real-world-example-llamaindex"></a>

Cet exemple porte sur une filiale d'une entreprise aérospatiale spécialisée dans les solutions de navigation et d'exploitation aériennes. Ils doivent relever un défi croissant qui consiste à piloter des essais de chatbots basés sur l'IA non coordonnés. Les essais ont donné lieu à des travaux répétés, à de longs cycles de développement, à des obstacles à la conformité et à des mises en œuvre isolées au sein de l'organisation. 

Ils ont développé un framework d'agents unifié, une solution réutilisable basée sur des modèles basée sur le framework LlamaIndex open source qui rend la création d'agents beaucoup plus efficace. Ils ont comparé plusieurs frameworks concurrents, à la fois orientés chaîne et basés sur des graphes. En fin de compte, ils ont opté LlamaIndex pour trois avantages essentiels : sa conception flexible, ses composants modulaires et ses commandes d'orchestration prêtes pour la production.

La plate-forme réduit le temps de développement et de déploiement des agents de 87 %, passant de 512 à 64 heures. Cette réduction a été réalisée en permettant aux équipes de créer des agents avec environ 50 lignes de code et un fichier de configuration JSON. Les équipes ont tiré parti d'un cadre unifié intégrant la sécurité, la conformité et un accès privilégié au système. Pour plus de détails, consultez les [études de cas LlamaIndex clients](https://www.llamaindex.ai/customers).

# Comparaison des frameworks d'IA agentiques
<a name="comparing-agentic-ai-frameworks"></a>

Lorsque vous sélectionnez un framework d'IA agentic pour le développement d'agents autonomes, réfléchissez à la manière dont chaque option correspond à vos besoins spécifiques. Tenez compte non seulement de ses capacités techniques, mais également de son adéquation organisationnelle, notamment de l'expertise de l'équipe, de l'infrastructure existante et des exigences de maintenance à long terme. De nombreuses organisations pourraient bénéficier d'une approche hybride, en tirant parti de plusieurs cadres pour les différents composants de leur écosystème d'IA autonome.

Le tableau suivant compare les niveaux de maturité (le plus fort, le plus fort, le plus adéquat ou le plus faible) de chaque framework selon les principales dimensions techniques. Pour chaque framework, le tableau inclut également des informations sur les options de déploiement en production et la complexité de la courbe d'apprentissage.


| 
| 
| **Cadre** | **AWS intégration** | **Support multi-agents autonome** | **Complexité du workflow autonome** | **Capacités multimodales** | **Sélection du modèle de fondation** | **Intégration de l'API LLM** | **Déploiement en production** | **Courbe d'apprentissage** | 
| --- |--- |--- |--- |--- |--- |--- |--- |--- |
| AutoGen | Faible | Fort | Fort | Suffisant | Suffisant | Fort | Faites-le vous-même (DIY) | Raide | 
| CrewAI | Faible | Fort | Suffisant | Faible | Suffisant | Suffisant | DIY | Modérée | 
| LangChain/LangGraph | Suffisant | Fort | Le plus fort | Le plus fort | Le plus fort | Le plus fort | Plateforme ou bricolage | Raide | 
|  LlamaIndex  |  Suffisant  |  Suffisant  |  Fort  |  Suffisant  |  Fort  |  Fort  |  Plateforme ou bricolage  |  Modérée  | 
| Strands Agents | Le plus fort | Fort | Le plus fort | Fort | Fort | Le plus fort | DIY | Modérée | 

## Considérations à prendre en compte lors du choix d'un framework d'IA agentic
<a name="considerations-in-choosing-an-agentic-ai-framework"></a>

Lorsque vous développez des agents autonomes, tenez compte des facteurs clés suivants :
+ **AWS intégration de l'infrastructure** — Les organisations fortement investies AWS bénéficieront le plus des intégrations natives de Strands Agents with Services AWS pour les flux de travail autonomes. Pour plus d'informations, consultez le [résuméAWS hebdomadaire](https://aws.amazon.com/blogs/aws/aws-weekly-roundup-strands-agents-aws-transform-amazon-bedrock-guardrails-aws-codebuild-and-more-may-19-2025/) (AWS blog).
+ **Sélection du modèle de base** : déterminez quel framework fournit le meilleur support pour vos modèles de base préférés (par exemple, les modèles Amazon Nova sur Amazon Bedrock ou Anthropic Claude), en fonction des exigences de raisonnement de votre agent autonome. Pour plus d'informations, consultez la section [Création d'agents efficaces](https://www.anthropic.com/engineering/building-effective-agents) sur le Anthropic site Web.
+ **Intégration de l'API LLM** : évaluez les frameworks en fonction de leur intégration avec vos interfaces de service LLM (Large Language Model) préférées (par exemple, Amazon Bedrock ouOpenAI) pour le déploiement en production. Pour plus d'informations, consultez la section [Model Interfaces](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/#basic-usage) dans la  Strands Agents documentation.
+ **Exigences multimodales** — Pour les agents autonomes qui doivent traiter du texte, des images et de la parole, tenez compte des capacités multimodales de chaque framework. Pour plus d'informations, consultez la section [Multimodalité](https://python.langchain.com/docs/concepts/chat_models/#multimodality) dans la LangChain documentation.
+ **Complexité du flux de travail autonome** — Des flux de travail autonomes plus complexes dotés d'une gestion d'état sophistiquée peuvent favoriser les capacités avancées des machines à états. LangGraph
+ **Collaboration d'équipe autonome** — Les projets qui nécessitent une collaboration autonome explicite basée sur les rôles entre des agents spécialisés peuvent bénéficier de l'architecture orientée équipe de. CrewAI
+ **Paradigme de développement autonome** — Les équipes qui préfèrent les modèles conversationnels et asynchrones pour les agents autonomes peuvent préférer l'architecture événementielle de. AutoGen
+ **Approche gérée ou basée sur le code —** Les organisations qui souhaitent une expérience entièrement gérée avec un minimum de codage devraient envisager Amazon Bedrock Agents. Organisations nécessitant une personnalisation plus poussée peuvent Strands Agents préférer d'autres frameworks dotés de fonctionnalités spécialisées qui répondent mieux aux exigences spécifiques des agents autonomes.
+ **Préparation à la production pour les systèmes autonomes** : considérez les options de déploiement, les capacités de surveillance et les fonctionnalités d'entreprise pour les agents autonomes de production.