Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Agents basés sur des outils pour appeler des fonctions
Les agents basés sur des outils étendent les capacités des agents de raisonnement en invoquant des fonctions externes ou en effectuant APIs des tâches qui vont au-delà du simple raisonnement linguistique. Ce modèle utilise un LLM pour décider de l'outil à utiliser, puis génère des arguments d'appel et intègre le résultat d'un outil dans sa boucle de raisonnement.
Ce modèle permet aux agents d'agir au lieu de simplement fournir des réponses. L'interface de l'outil représente toutes les capacités appelables, qu'il s'agisse de calculs arithmétiques, de recherches de bases de données ou de services externes APIs ou cloud.
Architecture
Un agent basé sur un outil permettant d'appeler des fonctions est illustré dans le schéma suivant :
Description
-
Reçoit une requête
-
L'agent reçoit une requête ou une tâche en langage naturel de la part de l'utilisateur ou du système d'appel.
-
-
Recherches d'outils
-
L'agent utilise des métadonnées internes ou un registre d'outils pour rechercher les outils, les schémas et les fonctionnalités pertinentes disponibles.
-
-
Sélectionne et invoque des outils
-
Le LLM reçoit les métadonnées de la requête et de l'outil (par exemple, les noms des fonctions, les types d'entrée et les descriptions) dans son invite.
-
Il choisit l'outil le plus pertinent, construit des arguments d'entrée et renvoie un appel de fonction structuré.
-
-
Exécute l'outil choisi
-
Le shell de l'agent ou le lanceur d'outils exécute la fonction sélectionnée et renvoie le résultat (par exemple, une sortie d'API, une valeur de base de données ou un calcul).
-
-
Renvoie une réponse
-
Le LLM transmet les résultats à l'agent, soit directement, soit dans le cadre d'une invite mise à jour. Il renvoie ensuite un résultat en langage naturel.
-
Fonctionnalités
-
Sélection d'outils dynamique en fonction du contexte de la tâche
-
Invitation basée sur un schéma (OpenAPI, schéma JSON, interface de fonction) AWS
-
Interprétation des résultats et intégration des résultats dans le raisonnement
-
Opérations apatrides ou liées à une session
Cas d’utilisation courants
-
Assistants virtuels avec accès aux données externes
-
Calculateurs et estimateurs financiers
-
Travailleurs du savoir basés sur des API
-
LLMs qui invoquent AWS Lambda, les SageMaker points de terminaison Amazon et les services SaaS
Directives d’implémentation
Utilisez ce qui suit pour créer des agents basés sur des outils pour appeler des fonctions :
-
Amazon Bedrock avec assistance pour les appels fonctionnels (Anthropic Claude)
-
AWS Lambda en tant que backend d'exécution d'outils
-
Amazon API Gateway ou AWS Step Functions pour l'orchestration d'outils
-
Amazon DynamoDB ou Amazon Relational Database Service (Amazon RDS) pour les métadonnées des outils sensibles au contexte
-
Amazon EventBridge Pipelines ou AWS Step Functions qui mappent les états pour acheminer les sorties
Résumé
Les agents d'appel de fonctions basés sur des outils représentent un passage de la compréhension du langage à l'exécution d'actions. Ces agents invoquent des outils dynamiques sensibles au contexte tout en maintenant le raisonnement LLM, transformant les assistants passifs en systèmes qui exécutent des tâches, accèdent aux services et intègrent les opérations commerciales. Ce modèle est un élément important de l'IA agentique dans les environnements d'entreprise, en particulier lorsqu'il est associé à des schémas déclaratifs, à des cadres d'autorisation et à des systèmes multi-agents.