

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Marcos
<a name="frameworks"></a>

[Foundations of Agentic AI on AWS](https://docs.aws.amazon.com/prescriptive-guidance/latest/agentic-ai-foundations/) examina los patrones y flujos de trabajo principales que permiten un comportamiento autónomo y orientado a objetivos. La clave de la implementación de estos patrones es la elección del marco. Un *marco* es la base de software del código preescrito que proporciona un entorno estructurado y una funcionalidad común para crear y gestionar las herramientas y las capacidades de organización necesarias para crear agentes de IA autónomos listos para la producción. 

Los marcos de inteligencia artificial eficaces proporcionan varias capacidades esenciales que transforman las interacciones sin procesar con modelos de lenguaje extensos (LLM) en sistemas coordinados e inteligentes capaces de razonar, colaborar y actuar:
+ La **orquestación de agentes** coordina el flujo de información y la toma de decisiones entre uno o varios agentes para lograr objetivos complejos sin intervención humana.
+ **La integración de herramientas** permite a los agentes interactuar con sistemas externos y fuentes de datos para ampliar sus capacidades más allá del procesamiento del lenguaje. APIs Para obtener más información, consulte la [descripción general de las herramientas](https://strandsagents.com/0.1.x/user-guide/concepts/tools/tools_overview/) en la Strands Agents documentación.
+ La **administración de la memoria** proporciona un estado persistente o basado en sesiones para mantener el contexto en todas las interacciones, algo esencial para las tareas de larga duración o adaptativas. Los marcos más avanzados incorporan memoria a largo plazo para almacenar los resúmenes y las preferencias de los usuarios, lo que permite experiencias de los agentes personalizadas y sensibles al contexto. Para obtener más información, consulte [Cómo pensar en los marcos de agentes](https://blog.langchain.com/how-to-think-about-agent-frameworks/) en el blog. LangChain 
+ **La definición del flujo** de trabajo admite patrones estructurados como las cadenas, el enrutamiento, la paralelización y los bucles de reflexión que permiten un razonamiento autónomo sofisticado.
+ La **implementación y el monitoreo** facilitan la transición del desarrollo a la producción con la observabilidad de los sistemas autónomos. Para obtener más información, consulte el anuncio de [disponibilidad AgentCore general de Amazon Bedrock](https://aws.amazon.com/blogs/machine-learning/amazon-bedrock-agentcore-is-now-generally-available/).

Estas capacidades se implementan con diferentes enfoques y énfasis en todo el panorama estructural, y cada una de ellas ofrece ventajas distintas para los diferentes casos de uso de agentes autónomos y contextos organizacionales.

En esta sección, se describen y comparan los principales marcos para crear soluciones de inteligencia artificial basadas en agentes, centrándose en sus puntos fuertes, limitaciones y casos de uso ideales para el funcionamiento autónomo:
+ [Agentes de Strands](strands-agents.md)
+ [LangChain y LangGraph](langchain-langgraph.md)
+ [Crew AI](crewai.md)
+ [AutoGen](autogen.md)
+ [LlamaIndex](llamaindex.md)
+ [Comparación de los marcos de IA de las agencias](comparing-agentic-ai-frameworks.md)

**nota**  
Esta sección cubre los marcos que respaldan específicamente a la agencia de la IA y no cubre las interfaces frontend o la IA generativa sin agencia.

# Strands Agents
<a name="strands-agents"></a>

Strands Agentses un SDK de código abierto que fue lanzado inicialmente por AWS, tal y como se describe en el blog de [código AWS abierto](https://aws.amazon.com/blogs/opensource/introducing-strands-agents-an-open-source-ai-agents-sdk/). Strands Agentsestá diseñado para crear agentes de IA autónomos con un enfoque centrado en el modelo. Proporciona un marco flexible y ampliable diseñado para funcionar sin problemas y, al Servicios de AWS mismo tiempo, abierto a la integración con componentes de terceros. Strands Agents es ideal para crear soluciones totalmente autónomas.

## Características clave de Strands Agents
<a name="key-features-of-strands-agents"></a>

Strands Agentsincluye las siguientes características clave:
+ **Diseño basado en el modelo**: se basa en el concepto de que el modelo básico es el núcleo de la inteligencia de los agentes, lo que permite un razonamiento autónomo sofisticado. Para obtener más información, consulte [Agent Loop](https://strandsagents.com/latest/user-guide/concepts/agents/agent-loop/) en la Strands Agents documentación.
+ Patrones de **colaboración entre múltiples agentes: modelos de coordinación integrados, como los patrones** Swarm, Graph y Workflow, que permiten una colaboración y un gobierno escalables en redes de agentes distribuidas. Para obtener más información, consulte los [patrones multiagente](https://strandsagents.com/docs/user-guide/concepts/multi-agent/multi-agent-patterns/) en la documentación de Strands Agents.
+ **Integración con el MCP**: soporte nativo para el [Protocolo de Contexto Modelo](https://modelcontextprotocol.io/) (MCP), lo que permite el suministro de contexto estandarizado LLMs para un funcionamiento autónomo y uniforme.
+ **Servicio de AWS integración**: conexión perfecta a Amazon Bedrock y otros Servicios de AWS para flujos de trabajo autónomos integrales. AWS Lambda AWS Step Functions Para obtener más información, consulte el [resumen AWS semanal](https://aws.amazon.com/blogs/aws/aws-weekly-roundup-strands-agents-aws-transform-amazon-bedrock-guardrails-aws-codebuild-and-more-may-19-2025/) (AWS blog).
+ **Selección de modelos de base**: admite varios modelos de base, incluidos Anthropic Claude, Amazon Nova (Premier, Pro, Lite y Micro) en Amazon Bedrock y otros para optimizarlos para diferentes capacidades de razonamiento autónomo. Para obtener más información, consulte [Amazon Bedrock](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/) en la Strands Agents documentación. 
+ Integración de **la API LLM**: integración flexible con diferentes interfaces de servicios LLM, incluidas Amazon Bedrock, OpenAI y otras, para la implementación en producción. Para obtener más información, consulte [Uso básico de Amazon Bedrock](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/#basic-usage) en la Strands Agents documentación.
+ **Capacidades multimodales**: Support para múltiples modalidades, incluido el procesamiento de texto, voz e imágenes para interacciones integrales entre agentes autónomos. Para obtener más información, consulte [Amazon Bedrock Multimodal Support](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/#multimodal-support) en la Strands Agents documentación.
+ **Ecosistema de herramientas**: amplio conjunto de herramientas para la Servicio de AWS interacción, con capacidad de ampliación para herramientas personalizadas que amplían las capacidades autónomas. Para obtener más información, consulte la [descripción general de las herramientas](https://strandsagents.com/0.1.x/user-guide/concepts/tools/tools_overview/) en la Strands Agents documentación.

## Cuándo se debe usar Strands Agents
<a name="when-to-use-strands-agents"></a>

Strands Agentses especialmente adecuado para escenarios de agentes autónomos, que incluyen:
+ Organizaciones que se basan en una AWS infraestructura que desean una integración nativa con flujos Servicios de AWS de trabajo autónomos
+ Equipos que requieren funciones de seguridad, escalabilidad y cumplimiento de nivel empresarial para los sistemas autónomos de producción
+ Proyectos que necesitan flexibilidad a la hora de seleccionar modelos entre distintos proveedores para realizar tareas autónomas especializadas
+ Casos de uso que requieren una estrecha integración con los AWS flujos de trabajo y los recursos existentes para lograr procesos autónomos de principio a fin

## Enfoque de implementación para Strands Agents
<a name="implementation-approach-for-strands-agents"></a>

Strands Agentsproporciona un enfoque de implementación sencillo para las partes interesadas de la empresa, tal como se describe en su [Guía de inicio rápido](https://strandsagents.com/0.1.x/user-guide/quickstart/). El marco permite a las organizaciones:
+ Seleccione modelos de base como Amazon Nova (Premier, Pro, Lite o Micro) en Amazon Bedrock en función de los requisitos empresariales específicos.
+ Defina herramientas personalizadas que se conecten a los sistemas y fuentes de datos empresariales.
+ Procese múltiples modalidades, incluyendo texto, imágenes y voz.
+ Implemente agentes que puedan responder de forma autónoma a las consultas empresariales y realizar tareas.

Este enfoque de implementación permite a los equipos empresariales desarrollar y desplegar rápidamente agentes autónomos sin necesidad de una amplia experiencia técnica en el desarrollo de modelos de IA.

## Ejemplo real de Strands Agents
<a name="real-world-example-of-strands-agents"></a>

AWS Transform para Strands Agents que .NET potencie sus capacidades de modernización de aplicaciones, tal y como se describe en [AWS Transform forma.NET, el primer servicio de inteligencia artificial para modernizar las aplicaciones.NET a gran escala](https://aws.amazon.com/blogs/aws/aws-transform-for-net-the-first-agentic-ai-service-for-modernizing-net-applications-at-scale/) (Blog).AWS Este servicio de producción emplea a varios agentes autónomos especializados. Los agentes trabajan juntos para analizar las aplicaciones de .NET heredadas, planificar estrategias de modernización y ejecutar transformaciones de código en arquitecturas nativas de la nube sin intervención humana. [AWS Transform para .NET](https://aws.amazon.com/transform/net/) demuestra la preparación para la producción de los Strands Agents sistemas autónomos empresariales.

# LangChain y LangGraph
<a name="langchain-langgraph"></a>

LangChaines uno de los marcos más consolidados en el ecosistema de la IA de las agencias. LangGraph[amplía sus capacidades para admitir flujos de trabajo de agentes complejos y detallados, tal y como se describe en el blog. LangChain](https://blog.langchain.dev/how-to-think-about-agent-frameworks/) En conjunto, proporcionan una solución integral para crear agentes de IA autónomos sofisticados con amplias capacidades de orquestación para un funcionamiento independiente.

## Características clave de y LangChain LangGraph
<a name="key-features-of-langchain-and-langgraph"></a>

LangChaine LangGraph incluyen las siguientes características clave:
+ **Ecosistema de componentes**: amplia biblioteca de componentes prediseñados para diversas capacidades de agentes autónomos, lo que permite el rápido desarrollo de agentes especializados. Para obtener más información, consulte la sección [Inicio rápido](https://docs.langchain.com/oss/python/langchain/quickstart) en la LangChain documentación.
+ **Selección de modelos de base**: Support para diversos modelos de base, incluidos Anthropic Claude, modelos Amazon Nova (Premier, Pro, Lite y Micro) en Amazon Bedrock y otros para diferentes capacidades de razonamiento. Para obtener más información, consulte [Entradas y salidas](https://python.langchain.com/docs/concepts/chat_models/#inputs-and-outputs) en la LangChain documentación.
+ **Integración de la API LLM**: interfaces estandarizadas para varios proveedores de servicios de modelos de lenguaje grandes (LLM), incluido Amazon BedrockOpenAI, y otros para una implementación flexible. Para obtener más información, consulte [LLMs](https://python.langchain.com/docs/integrations/llms/) en la documentación del LangChain.
+ **Procesamiento multimodal**: soporte integrado para el procesamiento de texto, imágenes y audio para permitir interacciones multimodales ricas entre agentes autónomos. Para obtener más información, consulte [Multimodalidad](https://python.langchain.com/docs/concepts/chat_models/#multimodality) en la documentación. LangChain
+ **Flujos de trabajo basados en gráficos**: LangGraph permiten definir comportamientos complejos de agentes autónomos como máquinas de estados, lo que respalda una sofisticada lógica de decisiones. Para obtener más información, consulte el anuncio de [LangGraphPlatform GA](https://blog.langchain.dev/langgraph-platform-ga/).
+ **Abstracciones de memoria**: múltiples opciones para la gestión de la memoria a corto y largo plazo, algo esencial para los agentes autónomos que mantienen el contexto a lo largo del tiempo. Para obtener más información, consulte [Cómo añadir memoria a los chatbots](https://python.langchain.com/docs/how_to/chatbots_memory/) en la LangChain documentación.
+ **Integración de herramientas**: amplio ecosistema de integraciones de herramientas en varios servicios y APIs que amplía las capacidades de los agentes autónomos. Para obtener más información, consulte [las herramientas](https://python.langchain.com/docs/how_to/#tools) en la LangChain documentación.
+ **LangGraph plataforma**: solución gestionada de implementación y supervisión para entornos de producción, que admite agentes autónomos de larga duración. Para obtener más información, consulte el anuncio de [LangGraphPlatform GA](https://blog.langchain.dev/langgraph-platform-ga/).

## Cuándo usar LangChain y LangGraph
<a name="when-to-use-langchain-and-langgraph"></a>

LangChainy LangGraph son especialmente adecuados para escenarios de agentes autónomos, que incluyen:
+ Flujos de trabajo complejos de razonamiento de varios pasos que requieren una orquestación sofisticada para una toma de decisiones autónoma
+ Proyectos que necesitan acceso a un gran ecosistema de componentes e integraciones prediseñados para diversas capacidades autónomas
+ Equipos con una infraestructura y experiencia Python en aprendizaje automático (ML) existentes que desean crear sistemas autónomos
+ Casos de uso que requieren una gestión del estado compleja en sesiones de agentes autónomos de larga duración

## Enfoque de implementación para y LangChain LangGraph
<a name="implementation-approach-for-langchain-and-langgraph"></a>

LangChainy LangGraph proporcionar un enfoque de implementación estructurado para las partes interesadas de la empresa, tal como se detalla en la [LangGraphdocumentación](https://python.langchain.com/docs/langgraph). El marco permite a las organizaciones:
+ Defina gráficos de flujo de trabajo sofisticados que representen los procesos empresariales.
+ Cree patrones de razonamiento de varios pasos con puntos de decisión y lógica condicional.
+ Integre las capacidades de procesamiento multimodal para gestionar diversos tipos de datos.
+ Implemente el control de calidad mediante mecanismos integrados de revisión y validación.

Este enfoque basado en gráficos permite a los equipos empresariales modelar procesos de decisión complejos como flujos de trabajo autónomos. Los equipos tienen una visibilidad clara de cada paso del proceso de razonamiento y la capacidad de auditar las vías de toma de decisiones.

## Ejemplo real de y LangChain LangGraph
<a name="real-world-example-of-langchain-and-langgraph"></a>

Vodafoneha implementado agentes autónomos que utilizan LangChain (yLangGraph) para mejorar sus flujos de trabajo de operaciones e ingeniería de datos, como se detalla en su [estudio de caso LangChain empresarial](https://blog.langchain.com/customers-vodafone/). Crearon asistentes de IA internos que supervisan de forma autónoma las métricas de rendimiento, recuperan información de los sistemas de documentación y presentan información útil, todo ello mediante interacciones en lenguaje natural.

La Vodafone implementación utiliza cargadores de documentos LangChain modulares, integración vectorial y soporte para múltiples LLMs (OpenAI, LLaMA 3 yGemini) para crear prototipos y comparar rápidamente estas canalizaciones. Luego, solían LangGraph estructurar la organización multiagente mediante el despliegue de subagentes modulares. Estos agentes realizan tareas de recopilación, procesamiento, resumen y razonamiento. LangGraphintegraron estos agentes APIs en sus sistemas en la nube.

# CrewAI
<a name="crewai"></a>

CrewAIes un marco de código abierto centrado específicamente en la orquestación autónoma de múltiples agentes, disponible en. [GitHub](https://github.com/crewAIInc/crewAI) Proporciona un enfoque estructurado para crear equipos de agentes autónomos especializados que colaboran para resolver tareas complejas sin intervención humana. CrewAIhace hincapié en la coordinación basada en funciones y la delegación de tareas.

## Características clave de CrewAI
<a name="key-features-of-crewai"></a>

CrewAIproporciona las siguientes características clave:
+ **Diseño de agentes basado en** funciones: los agentes autónomos se definen con funciones, objetivos e historias de fondo específicos para disponer de conocimientos especializados. Para obtener más información, consulte Cómo [crear agentes eficaces](https://docs.crewai.com/en/guides/agents/crafting-effective-agents) en la documentación. CrewAI
+ **Delegación de tareas**: mecanismos integrados para asignar tareas de forma autónoma a los agentes apropiados en función de sus capacidades. Para obtener más información, consulte [las tareas](https://docs.crewai.com/en/concepts/tasks) en la CrewAI documentación.
+ **Colaboración entre agentes**: marco para la comunicación autónoma entre agentes y el intercambio de conocimientos sin mediación humana. Para obtener más información, consulte [la colaboración](https://docs.crewai.com/en/concepts/collaboration) en la CrewAI documentación.
+ **Gestión de procesos**: flujos de trabajo estructurados para la ejecución secuencial y paralela de tareas autónomas. Para obtener más información, consulte [Procesos](https://docs.crewai.com/en/concepts/processes) en la CrewAI documentación.
+ **Selección de modelos de base**: Support para varios modelos de base, incluidos los modelos Anthropic Claude, Amazon Nova (Premier, Pro, Lite y Micro) en Amazon Bedrock y otros para optimizarlos para diferentes tareas de razonamiento autónomo. Para obtener más información, consulte [LLMs](https://docs.crewai.com/en/concepts/llms) en la documentación del CrewAI.
+ Integración de **la API LLM**: integración flexible con múltiples interfaces de servicios LLM, incluida Amazon BedrockOpenAI, e implementaciones de modelos locales. Para obtener más información, consulte los [ejemplos de configuración de proveedores](https://docs.crewai.com/en/concepts/llms#provider-configuration-examples) en la documentación. CrewAI
+ **Soporte multimodal**: capacidades emergentes para gestionar texto, imágenes y otras modalidades para interacciones integrales entre agentes autónomos. Para obtener más información, consulte [Uso de agentes multimodales](https://docs.crewai.com/en/learn/multimodal-agents) en la CrewAI documentación.

## Cuándo se debe usar CrewAI
<a name="when-to-use-crewai"></a>

CrewAIes especialmente adecuado para escenarios de agentes autónomos, que incluyen:
+ Problemas complejos que se benefician de una experiencia especializada y basada en funciones que funcione de forma autónoma 
+ Proyectos que requieren la colaboración explícita entre varios agentes autónomos 
+ Casos de uso en los que la descomposición de problemas en equipo mejora la resolución autónoma de problemas
+ Escenarios que requieren una separación clara de las preocupaciones entre las diferentes funciones de los agentes autónomos

## Enfoque de implementación para CrewAI
<a name="implementation-approach-for-crewai"></a>

CrewAIproporciona un enfoque de implementación basado en roles de equipos de agentes de IA para las partes interesadas de la empresa, tal como se detalla en la [sección Introducción](https://github.com/crewAIInc/crewAI?tab=readme-ov-file#getting-started) en la CrewAI documentación. El marco permite a las organizaciones:
+ Defina agentes autónomos especializados con funciones, objetivos y áreas de experiencia específicos.
+ Asigne tareas a los agentes en función de sus capacidades especializadas.
+ Establezca dependencias claras entre las tareas para crear flujos de trabajo estructurados.
+ Organice la colaboración entre varios agentes para resolver problemas complejos.

Este enfoque basado en roles refleja las estructuras de los equipos humanos, lo que hace que los líderes empresariales lo entiendan e implementen de forma intuitiva. Las organizaciones pueden crear equipos autónomos con áreas de experiencia especializadas que colaboren para alcanzar los objetivos empresariales, de forma similar a como funcionan los equipos humanos. Sin embargo, el equipo autónomo puede trabajar de forma continua sin intervención humana.

## Ejemplo real de CrewAI
<a name="real-world-example-of-crewai"></a>

AWS [ha implementado sistemas autónomos multiagente mediante CrewAI integrado con Amazon Bedrock, como se detalla en el CrewAI estudio de caso publicado.](https://www.crewai.com/case-studies/aws-powers-bedrock-agents-with-crewai) AWS y CrewAI desarrolló un marco seguro e independiente de los proveedores. La arquitectura CrewAI de código abierto «flujos y personal» se integra perfectamente con los modelos básicos, los sistemas de memoria y las barreras de cumplimiento de Amazon Bedrock.

Los elementos clave de la implementación incluyen:
+ **Planos y código abierto, y** [diseños de referencia CrewAI publicados](https://aws.amazon.com/blogs/machine-learning/build-agentic-systems-with-crewai-and-amazon-bedrock/) que mapean CrewAI los agentes con los modelos y las herramientas de observabilidad de Amazon Bedrock. AWS También presentaron sistemas ejemplares, como un equipo de auditoría de AWS seguridad compuesto por varios agentes, flujos de modernización del código y automatización administrativa de bienes de consumo envasados (CPG).
+ **Integración de la pila de observabilidad**: la solución incorpora la supervisión con Amazon CloudWatch y permite la trazabilidad y LangFuse la depuración desde la prueba de concepto hasta la producción. AgentOps
+ **Retorno de la inversión (ROI) demostrado**: los primeros proyectos piloto muestran mejoras importantes: una ejecución un 70 por ciento más rápida para un proyecto de modernización de código de gran tamaño y una reducción de aproximadamente un 90 por ciento en el tiempo de procesamiento para un flujo administrativo de CPG.

# AutoGen
<a name="autogen"></a>

[https://www.microsoft.com/en-us/research/project/autogen/](https://www.microsoft.com/en-us/research/project/autogen/)es un marco de código abierto que fue lanzado inicialmente por. Microsoft AutoGense centra en habilitar agentes de IA autónomos conversacionales y colaborativos. Proporciona una arquitectura flexible para crear sistemas multiagente, con énfasis en las interacciones asincrónicas y basadas en eventos entre los agentes para flujos de trabajo autónomos complejos.

## Características clave de AutoGen
<a name="key-features-of-autogen"></a>

AutoGenproporciona las siguientes características clave:
+ **Agentes conversacionales**: se basan en conversaciones en lenguaje natural entre agentes autónomos, lo que permite un razonamiento sofisticado a través del diálogo. Para obtener más información, consulte el [marco de conversación entre múltiples agentes](https://microsoft.github.io/autogen/docs/Use-Cases/agent_chat) en la AutoGen documentación.
+ **Arquitectura asíncrona**: diseño basado en eventos para interacciones de agentes autónomos sin bloqueo, que admite flujos de trabajo paralelos complejos. Para obtener más información, consulte [Resolución de varias tareas en una secuencia de chats asíncronos en la documentación](https://microsoft.github.io/autogen/0.2/docs/notebooks/agentchat_multi_task_async_chats/). AutoGen
+ **H uman-in-the-loop** — Se apoya firmemente la participación humana opcional en flujos de trabajo de agentes que, de otro modo, serían autónomos cuando sea necesario. Para obtener más información, consulte [Permitir la retroalimentación humana en los agentes](https://microsoft.github.io/autogen/0.2/docs/tutorial/human-in-the-loop/) en la AutoGen documentación.
+ **Generación y ejecución de código**: capacidades especializadas para agentes autónomos centrados en el código que pueden escribir y ejecutar código. Para obtener más información, consulte la sección [Ejecución de código](https://microsoft.github.io/autogen/stable/user-guide/core-user-guide/design-patterns/code-execution-groupchat.html) en la AutoGen documentación.
+ **Comportamientos personalizables**: configuración flexible de agentes autónomos y control de conversaciones para diversos casos de uso. Para obtener más información, consulte [agentchat.conversable\$1agent](https://microsoft.github.io/autogen/docs/reference/agentchat/conversable_agent) en la documentación. AutoGen
+ **Selección de modelos de base**: Support para varios modelos de base, incluidos los modelos Anthropic Claude, Amazon Nova (Premier, Pro, Lite y Micro) en Amazon Bedrock y otros para diferentes capacidades de razonamiento autónomo. Para obtener más información, consulte [Configuración de LLM](https://microsoft.github.io/autogen/docs/topics/llm_configuration) en la AutoGen documentación.
+ **Integración de la API LLM**: configuración estandarizada para múltiples interfaces de servicios LLM, incluidas Amazon Bedrock, yOpenAI. Azure OpenAI Para obtener más información, consulte [oai.openai\$1utils](https://microsoft.github.io/autogen/docs/reference/oai/openai_utils) en la referencia de la API. AutoGen
+ **Procesamiento multimodal**: Support para el procesamiento de texto e imágenes para permitir ricas interacciones multimodales entre agentes autónomos. Para obtener más información, consulte Uso de [modelos multimodales: GPT-4V](https://microsoft.github.io/autogen/0.2/docs/notebooks/agentchat_lmm_gpt-4v/) en la documentación. AutoGen AutoGen

## Cuándo se debe usar AutoGen
<a name="when-to-use-autogen"></a>

AutoGenes especialmente adecuado para escenarios de agentes autónomos, que incluyen:
+ Aplicaciones que requieren flujos de conversación naturales entre agentes autónomos para un razonamiento complejo
+ Proyectos que requieren tanto un funcionamiento totalmente autónomo como capacidades opcionales de supervisión humana
+ Casos de uso que implican la generación, ejecución y depuración de código autónomas sin intervención humana
+ Escenarios que requieren patrones de comunicación entre agentes autónomos, asíncronos y flexibles

## Enfoque de implementación para AutoGen
<a name="implementation-approach-for-autogen"></a>

AutoGenproporciona un enfoque de implementación conversacional para las partes interesadas de la empresa, tal como se detalla en [Primeros pasos](https://microsoft.github.io/autogen/docs/Getting-Started) en la AutoGen documentación. El marco permite a las organizaciones:
+ Cree agentes autónomos que se comuniquen a través de conversaciones en lenguaje natural.
+ Implemente interacciones asincrónicas y basadas en eventos entre varios agentes.
+ Combine un funcionamiento totalmente autónomo con la supervisión humana opcional cuando sea necesario.
+ Desarrolle agentes especializados para diferentes funciones empresariales que colaboren a través del diálogo.

Este enfoque conversacional hace que el razonamiento del sistema autónomo sea transparente y accesible para los usuarios empresariales. Los responsables de la toma de decisiones pueden observar el diálogo entre los agentes para comprender cómo se llega a las conclusiones y, opcionalmente, participar en la conversación cuando se requiere el juicio humano.

## Ejemplo del mundo real de AutoGen
<a name="real-world-example-of-autogen"></a>

Magentic-One[es un sistema multiagente generalista y de código abierto diseñado para resolver de forma autónoma tareas complejas y de varios pasos en diversos entornos, tal y como se describe en el blog AI Frontiers. Microsoft ](https://www.microsoft.com/en-us/research/articles/magentic-one-a-generalist-multi-agent-system-for-solving-complex-tasks/) En esencia, está el agente Orchestrator, que descompone los objetivos de alto nivel y realiza un seguimiento del progreso mediante libros de contabilidad estructurados. Este agente delega las subtareas en agentes especializados (comoWebSurfer,, yComputerTerminal) y se adapta de forma dinámica FileSurfer Coder replanificándolas cuando es necesario. 

El sistema se basa en la AutoGen estructura y es independiente del modelo; por defecto, es GPT‑4o. Logra un rendimiento de última generación en puntos de referencia como, y todo ello sin necesidad de ajustes específicos para cada tarea. GAIA AssistantBench WebArena Además, apoya la extensibilidad modular y la evaluación rigurosa mediante sugerencias. AutoGenBench

# LlamaIndex
<a name="llamaindex"></a>

[https://www.llamaindex.ai/](https://www.llamaindex.ai/)es un marco de datos diseñado específicamente para conectar modelos lingüísticos de gran tamaño (LLMs) con fuentes de datos externas, a fin de permitir aplicaciones sofisticadas de recuperación, generación aumentada (RAG) y de IA agencial. El marco proporciona abstracciones y flujos de trabajo de desarrollo acelerados para sistemas de agencias, patrones de orquestación personalizados e integraciones de sistemas, lo que reduce el número de soluciones de IA basadas en el conocimiento. time-to-production

## Características clave de LlamaIndex
<a name="key-features-of-llamaindex"></a>

LlamaIndexproporciona un conjunto completo de capacidades que lo hacen especialmente adecuado para aplicaciones de IA de agencias empresariales:
+ **Arquitectura centrada en los datos**: se destaca a la hora de ingerir, indexar y recuperar información de más de 100 formatos de datos, incluidos documentos de Word PDFs, Microsoft hojas de cálculo y más. El marco transforma los datos empresariales en bases de conocimiento consultables y optimizadas para los agentes de IA. Para obtener más información, consulte la [Documentación de LlamaIndex](https://developers.llamaindex.ai/).
+ **Despliegue listo para la producción**: LlamaIndex ofrece tanto marcos de código abierto como servicios gestionados, y proporciona funciones de nivel empresarialLlamaCloud, como controles de seguridad, escalabilidad, integraciones de observabilidad y flexibilidad de implementación. [Para obtener más información, consulte la documentación del marco. LlamaIndex](https://developers.llamaindex.ai/python/framework/) 
+ **Procesamiento avanzado** de documentos: LlamaCloud proporciona funciones de análisis, extracción, indexación y recuperación de documentos que permiten gestionar diseños complejos, tablas anidadas, contenido multimodal e incluso notas manuscritas. Este sofisticado análisis permite a los agentes trabajar eficazmente con documentos empresariales reales que contienen gráficos, diagramas y formatos complejos. Para obtener más información, consulte la [Documentación de LlamaCloud](https://developers.llamaindex.ai/python/cloud/). 
+ **Orquestación de flujos** de trabajo: LlamaAgents proporciona un motor de orquestación asíncrono basado en eventos para crear sistemas de agentes de varios pasos. Los flujos de trabajo admiten patrones complejos que incluyen bucles, ejecución paralela, ramificación condicional y reanudación con estado, lo que los hace ideales para interacciones sofisticadas entre agentes. [Para obtener más información, consulte la documentación de los flujos de trabajoLlamaIndex.](https://developers.llamaindex.ai/python/framework/understanding/workflows/)
+ **Capacidades de recuperación de agentes**: modos de recuperación avanzados que incluyen búsqueda híbrida, búsqueda semántica y enrutamiento automático que determinan de manera inteligente la mejor estrategia de recuperación para cada consulta. El marco admite la recuperación compuesta en múltiples bases de conocimiento y se reclasifica para mejorar la precisión. [Para obtener más información, consulte la documentación del LlamaIndex RAG.](https://developers.llamaindex.ai/python/framework/understanding/rag/) 
+ **Observabilidad y evaluación**: LlamaIndex se integra con una variedad de herramientas de observabilidad y evaluación. Esta capacidad de integración le ayuda a rastrear y depurar sus aplicaciones, evaluar su rendimiento y monitorear los costos. [Para obtener más información, consulte la documentación sobre [rastreo, depuración y](https://developers.llamaindex.ai/python/framework/understanding/tracing_and_debugging/tracing_and_debugging/) evaluación.](https://developers.llamaindex.ai/python/framework/module_guides/evaluating) LlamaIndex

## Cuándo se debe usar LlamaIndex
<a name="when-to-use-llamaindex"></a>

LlamaIndexes especialmente adecuado para escenarios de IA de agencias que hacen hincapié en los flujos de trabajo con uso intensivo de datos y la gestión del conocimiento:
+ Aplicaciones con gran cantidad de documentos que requieren que los agentes procesen, analicen y extraigan información de grandes volúmenes de documentos empresariales, como contratos, informes, manuales y documentos reglamentarios
+ Creación rápida de prototipos para escenarios de producción en los que las organizaciones desean crear e implementar rápidamente agentes centrados en los documentos sin una sobrecarga excesiva de administración de la infraestructura
+ Arquitecturas innovadoras que priorizan la precisión de la recuperación y la relevancia del contexto, especialmente cuando se trabaja con documentos complejos y multimodales que contienen tablas, imágenes y datos estructurados
+ Flujos de trabajo de documentos con varios agentes que requieren agentes especializados para distintos aspectos del procesamiento de documentos, como el análisis, el resumen y la comprobación de la conformidad

## Enfoque de implementación para LlamaIndex
<a name="implementation-approach-for-llamaindex"></a>

LlamaIndex proporciona componentes básicos de bajo nivel y abstracciones de alto nivel que se adaptan a diferentes enfoques de implementación:
+ Desarrollo rápido de aplicaciones RAG funcionales en solo unas pocas líneas de código mediante el uso de un alto nivel. LlamaIndex APIs Este enfoque lo pone al LlamaIndex alcance de los equipos empresariales y los desarrolladores que recién comienzan a utilizar la IA de los agentes. 
+ Integración empresarial mediante LlamaHub sistemas empresariales populares SharePoint, como Amazon Simple Storage Service (Amazon S3), bases de datos y. APIs Este enfoque permite una integración perfecta con la infraestructura de datos existente.
+ Opciones de implementación flexibles entre despliegues autohospedados de código abierto para un control máximo o servicios LlamaCloud gestionados para reducir los gastos operativos y funciones empresariales.
+ Las aplicaciones pueden empezar con motores de consultas simples y añadir progresivamente capacidades de agente, organización de múltiples agentes y flujos de trabajo complejos a medida que evolucionan los requisitos. 

## Ejemplo real de LlamaIndex
<a name="real-world-example-llamaindex"></a>

Este ejemplo se centra en una filial de una empresa aeroespacial que se especializa en soluciones de navegación y operaciones de aviación. Deben abordar un desafío cada vez mayor que implica poner a prueba pruebas de chatbots de IA no coordinadas. Las pruebas dieron lugar a la repetición del trabajo, a largos ciclos de desarrollo, a obstáculos en materia de cumplimiento y a implementaciones aisladas en toda la organización. 

Desarrollaron un marco de agentes unificado, una solución reutilizable basada en plantillas basada en un marco de LlamaIndex código abierto que hace que la creación de agentes sea mucho más eficiente. Compararon varios marcos de la competencia, tanto orientados a cadenas como basados en gráficos. En última instancia, la eligieron LlamaIndex por tres ventajas fundamentales: su diseño flexible, sus componentes modulares y sus controles de orquestación listos para la producción.

La plataforma reduce el tiempo de desarrollo e implementación de los agentes en un 87%, de 512 a 64 horas. Esta reducción se logró al permitir a los equipos crear agentes con aproximadamente 50 líneas de código y un archivo de configuración JSON. Los equipos utilizaron un marco unificado con seguridad, conformidad y acceso privilegiado al sistema integrados. Para obtener más información, consulte los [estudios de casos de LlamaIndex clientes](https://www.llamaindex.ai/customers).

# Comparación de los marcos de IA de las agencias
<a name="comparing-agentic-ai-frameworks"></a>

Al seleccionar un marco de inteligencia artificial para el desarrollo de agentes autónomos, tenga en cuenta cómo se ajusta cada opción a sus requisitos específicos. Tenga en cuenta no solo sus capacidades técnicas, sino también su adecuación organizativa, incluida la experiencia del equipo, la infraestructura existente y los requisitos de mantenimiento a largo plazo. Muchas organizaciones podrían beneficiarse de un enfoque híbrido, que aproveche múltiples marcos para diferentes componentes de su ecosistema de IA autónomo.

En la siguiente tabla se comparan los niveles de madurez (más sólidos, adecuados o débiles) de cada marco en función de las dimensiones técnicas clave. Para cada marco, la tabla también incluye información sobre las opciones de implementación en producción y la complejidad de la curva de aprendizaje.


| 
| 
| **Plataforma** | **AWS integration** | **Soporte multiagente autónomo** | **Complejidad del flujo de trabajo** | **Capacidades multimodales** | **Selección del modelo básico** | **Integración de la API LLM** | **Despliegue de producción** | **Curva de aprendizaje** | 
| --- |--- |--- |--- |--- |--- |--- |--- |--- |
| AutoGen | Débil | Fuerte | Fuerte | Adecuado | Adecuada | Fuerte | Hágalo usted mismo (DIY) | Empapado | 
| CrewAI | Débil | Fuerte | Adecuado | Débil | Adecuado | Adecuada | BRICOLAJE | Moderado | 
| LangChain/LangGraph | Adecuada | Fuerte | Más fuerte | Más fuerte | Más fuerte | Más fuerte | Plataforma o bricolaje | Acero | 
|  LlamaIndex  |  Adecuado  |  Adecuada  |  Fuerte  |  Adecuado  |  Fuerte  |  Fuerte  |  Plataforma o bricolaje  |  Moderado  | 
| Strands Agents | El más fuerte | Fuerte | Más fuerte | Fuerte | Fuerte | Más fuerte | BRICOLAJE | Moderado | 

## Consideraciones a la hora de elegir un marco de IA para agencias
<a name="considerations-in-choosing-an-agentic-ai-framework"></a>

Al desarrollar agentes autónomos, tenga en cuenta los siguientes factores clave:
+ **AWS integración de la infraestructura**: las organizaciones en las que se invierta mucho AWS se beneficiarán más de las integraciones nativas o de Strands Agents los flujos Servicios de AWS de trabajo autónomos. Para obtener más información, consulte el [resumen AWS semanal](https://aws.amazon.com/blogs/aws/aws-weekly-roundup-strands-agents-aws-transform-amazon-bedrock-guardrails-aws-codebuild-and-more-may-19-2025/) (AWS blog).
+ **Selección del modelo de base**: considere qué marco proporciona el mejor soporte para sus modelos de base preferidos (por ejemplo, los modelos Amazon Nova en Amazon Bedrock o Anthropic Claude), en función de los requisitos de razonamiento de su agente autónomo. Para obtener más información, consulte Cómo [crear agentes eficaces](https://www.anthropic.com/engineering/building-effective-agents) en el sitio Anthropic web.
+ **Integración de la API LLM**: evalúe los marcos en función de su integración con las interfaces de servicio del modelo de lenguaje grande (LLM) preferidas (por ejemplo, Amazon Bedrock oOpenAI) para la implementación en producción. Para obtener más información, consulte las [interfaces de modelo](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/#basic-usage) en la documentación.  Strands Agents
+ **Requisitos multimodales**: para los agentes autónomos que necesitan procesar texto, imágenes y voz, tenga en cuenta las capacidades multimodales de cada marco. Para obtener más información, consulte [Multimodalidad](https://python.langchain.com/docs/concepts/chat_models/#multimodality) en la documentación. LangChain
+ **Complejidad del flujo de trabajo autónomo**: los flujos de trabajo autónomos más complejos con una administración de estado sofisticada podrían favorecer las capacidades avanzadas de las máquinas de estados. LangGraph
+ **Colaboración autónoma en equipo**: los proyectos que requieren una colaboración autónoma explícita y basada en roles entre agentes especializados pueden beneficiarse de la arquitectura orientada al equipo de. CrewAI
+ **Paradigma de desarrollo autónomo**: los equipos que prefieran patrones conversacionales y asíncronos para los agentes autónomos podrían preferir la arquitectura basada en eventos de. AutoGen
+ **Enfoque gestionado o basado en código**: las organizaciones que desean una experiencia totalmente gestionada con un mínimo de codificación deberían considerar Amazon Bedrock Agents. Las organizaciones que requieren una personalización más profunda pueden preferir Strands Agents otros marcos con capacidades especializadas que se ajusten mejor a los requisitos específicos de los agentes autónomos.
+ **Preparación para la producción de sistemas autónomos**: considere las opciones de implementación, las capacidades de monitoreo y las funciones empresariales para los agentes autónomos de producción.