

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Estruturas
<a name="frameworks"></a>

O [Foundations of Agentic AI on AWS](https://docs.aws.amazon.com/prescriptive-guidance/latest/agentic-ai-foundations/) examina os principais padrões e fluxos de trabalho que permitem um comportamento autônomo e direcionado a objetivos. No centro da implementação desses padrões está a escolha da estrutura. Uma *estrutura* é a base de software do código pré-escrito que fornece um ambiente estruturado e funcionalidade comum para criar e gerenciar as ferramentas e os recursos de orquestração necessários para criar agentes de IA autônomos prontos para produção. 

Estruturas de IA agênticas eficazes fornecem vários recursos essenciais que transformam as interações brutas do modelo de linguagem grande (LLM) em sistemas coordenados e inteligentes capazes de raciocinar, colaborar e agir:
+ A **orquestração de agentes** coordena o fluxo de informações e a tomada de decisões em um ou vários agentes para atingir metas complexas sem intervenção humana.
+ **A integração de ferramentas** permite que os agentes interajam com sistemas externos e fontes de dados para ampliar seus recursos além do processamento de linguagem. APIs Para obter mais informações, consulte [Visão geral das ferramentas](https://strandsagents.com/0.1.x/user-guide/concepts/tools/tools_overview/) na Strands Agents documentação.
+ O **gerenciamento de memória** fornece um estado persistente ou baseado em sessão para manter o contexto em todas as interações, essencial para tarefas adaptáveis ou de longa duração. Estruturas mais avançadas incorporam memória de longo prazo para armazenar resumos e preferências do usuário, permitindo experiências agentes personalizadas e contextualmente conscientes. Para obter mais informações, consulte [Como pensar sobre estruturas de agentes](https://blog.langchain.com/how-to-think-about-agent-frameworks/) no LangChain blog. 
+ A **definição do fluxo** de trabalho suporta padrões estruturados, como cadeias, roteamento, paralelização e ciclos de reflexão, que permitem um raciocínio autônomo sofisticado.
+ A **implantação e o monitoramento** facilitam a transição do desenvolvimento para a produção com observabilidade para sistemas autônomos. Para obter mais informações, consulte o anúncio de [disponibilidade AgentCore geral do Amazon Bedrock](https://aws.amazon.com/blogs/machine-learning/amazon-bedrock-agentcore-is-now-generally-available/).

Esses recursos são implementados com abordagens e ênfases variadas em todo o cenário da estrutura, cada uma oferecendo vantagens distintas para diferentes casos de uso de agentes autônomos e contextos organizacionais.

Esta seção traça o perfil e compara as principais estruturas para criar soluções de IA agênticas, com foco em seus pontos fortes, limitações e casos de uso ideais para operação autônoma:
+ [Agentes de filamentos](strands-agents.md)
+ [LangChain and LangGraph](langchain-langgraph.md)
+ [Tripulação AI](crewai.md)
+ [AutoGen](autogen.md)
+ [LlamaIndex](llamaindex.md)
+ [Comparando estruturas de IA agênticas](comparing-agentic-ai-frameworks.md)

**nota**  
Esta seção aborda as estruturas que apoiam especificamente a agência da IA e não abrange interfaces de front-end ou IA generativa sem agência.

# Strands Agents
<a name="strands-agents"></a>

Strands Agentsé um SDK de código aberto que foi lançado inicialmente pela AWS, conforme descrito no [AWS Open Source](https://aws.amazon.com/blogs/opensource/introducing-strands-agents-an-open-source-ai-agents-sdk/) Blog. Strands Agentsfoi projetado para criar agentes de IA autônomos com uma abordagem que prioriza o modelo. Ele fornece uma estrutura flexível e extensível, projetada para funcionar perfeitamente e, ao Serviços da AWS mesmo tempo, permanecer aberta à integração com componentes de terceiros. O Strands Agents é ideal para criar soluções totalmente autônomas.

## Principais características do Strands Agents
<a name="key-features-of-strands-agents"></a>

Strands Agentsinclui os seguintes recursos principais:
+ **Design que prioriza o modelo** — Construído com base no conceito de que o modelo básico é o núcleo da inteligência do agente, permitindo um raciocínio autônomo sofisticado. Para obter mais informações, consulte [Agent Loop](https://strandsagents.com/latest/user-guide/concepts/agents/agent-loop/) na Strands Agents documentação.
+ **Padrões de colaboração multiagente** — Modelos de coordenação integrados, como padrões Swarm, Graph e Workflow, que permitem colaboração e governança escaláveis em redes de agentes distribuídos. Para obter mais informações, consulte [Padrões de vários agentes](https://strandsagents.com/docs/user-guide/concepts/multi-agent/multi-agent-patterns/) na documentação do Strands Agents.
+ **Integração MCP** — Suporte nativo para o [Model Context Protocol](https://modelcontextprotocol.io/) (MCP), permitindo o fornecimento de contexto padronizado LLMs para uma operação autônoma consistente.
+ **AWS service (Serviço da AWS) integração** — conexão perfeita com Amazon Bedrock,, AWS Lambda AWS Step Functions, e outros Serviços da AWS para fluxos de trabalho autônomos abrangentes. Para obter mais informações, consulte [Resumo AWS semanal](https://aws.amazon.com/blogs/aws/aws-weekly-roundup-strands-agents-aws-transform-amazon-bedrock-guardrails-aws-codebuild-and-more-may-19-2025/) (AWS blog).
+ **Seleção de modelos** básicos — Suporta vários modelos básicos, incluindo Anthropic Claude, Amazon Nova (Premier, Pro, Lite e Micro) no Amazon Bedrock e outros, para otimizar diferentes capacidades de raciocínio autônomo. Para obter mais informações, consulte [Amazon Bedrock](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/) na Strands Agents documentação. 
+ **Integração da API LLM — Integração** flexível com diferentes interfaces de serviço LLM, incluindo Amazon Bedrock, OpenAI e outras, para implantação em produção. Para obter mais informações, consulte [Uso básico do Amazon Bedrock](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/#basic-usage) na Strands Agents documentação.
+ **Capacidades multimodais** — Support para várias modalidades, incluindo processamento de texto, fala e imagem para interações abrangentes com agentes autônomos. Para obter mais informações, consulte [Amazon Bedrock Multimodal Support](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/#multimodal-support) na Strands Agents documentação.
+ **Ecossistema de ferramentas** — Conjunto rico de ferramentas para AWS service (Serviço da AWS) interação, com extensibilidade para ferramentas personalizadas que expandem as capacidades autônomas. Para obter mais informações, consulte [Visão geral das ferramentas](https://strandsagents.com/0.1.x/user-guide/concepts/tools/tools_overview/) na Strands Agents documentação.

## Quando utilizar Strands Agents
<a name="when-to-use-strands-agents"></a>

Strands Agentsé particularmente adequado para cenários de agentes autônomos, incluindo:
+ Organizações que se baseiam em uma AWS infraestrutura que desejam integração nativa com fluxos Serviços da AWS de trabalho autônomos
+ Equipes que exigem recursos de segurança, escalabilidade e conformidade de nível empresarial para sistemas autônomos de produção
+ Projetos que precisam de flexibilidade na seleção de modelos em diferentes fornecedores para tarefas autônomas especializadas
+ Casos de uso que exigem forte integração com AWS fluxos de trabalho e recursos existentes para processos autônomos de ponta a ponta

## Abordagem de implementação para Strands Agents
<a name="implementation-approach-for-strands-agents"></a>

Strands Agents[fornece uma abordagem de implementação direta para as partes interessadas da empresa, conforme descrito em seu Guia de Início Rápido.](https://strandsagents.com/0.1.x/user-guide/quickstart/) A estrutura permite que as organizações:
+ Selecione modelos básicos como o Amazon Nova (Premier, Pro, Lite ou Micro) no Amazon Bedrock com base em requisitos comerciais específicos.
+ Defina ferramentas personalizadas que se conectem a sistemas corporativos e fontes de dados.
+ Processe várias modalidades, incluindo texto, imagens e fala.
+ Implante agentes que possam responder de forma autônoma às consultas comerciais e realizar tarefas.

Essa abordagem de implementação permite que as equipes de negócios desenvolvam e implantem rapidamente agentes autônomos sem profundo conhecimento técnico no desenvolvimento de modelos de IA.

## Exemplo real de Strands Agents
<a name="real-world-example-of-strands-agents"></a>

AWS Transform for .NET usa Strands Agents para potencializar seus recursos de modernização de aplicativos, conforme descrito em [AWS Transform for .NET, o primeiro serviço de IA agente para modernizar aplicativos.NET em grande escala](https://aws.amazon.com/blogs/aws/aws-transform-for-net-the-first-agentic-ai-service-for-modernizing-net-applications-at-scale/) (AWS Blog). Este serviço de produção emprega vários agentes autônomos especializados. Os agentes trabalham juntos para analisar aplicativos.NET legados, planejar estratégias de modernização e executar transformações de código em arquiteturas nativas da nuvem sem intervenção humana. [AWS Transform for .NET](https://aws.amazon.com/transform/net/) demonstra a prontidão de produção de Strands Agents sistemas autônomos corporativos.

# LangChain e LangGraph
<a name="langchain-langgraph"></a>

LangChainé uma das estruturas mais estabelecidas no ecossistema de IA agente. LangGraph[amplia seus recursos para oferecer suporte a fluxos de trabalho de agentes complexos e dinâmicos, conforme descrito no LangChain Blog.](https://blog.langchain.dev/how-to-think-about-agent-frameworks/) Juntos, eles fornecem uma solução abrangente para criar agentes de IA autônomos sofisticados com recursos avançados de orquestração para operação independente.

## Principais características de LangChain e LangGraph
<a name="key-features-of-langchain-and-langgraph"></a>

LangChaine LangGraph inclua os seguintes recursos principais:
+ **Ecossistema de componentes** — Ampla biblioteca de componentes pré-construídos para vários recursos de agentes autônomos, permitindo o rápido desenvolvimento de agentes especializados. Para obter mais informações, consulte [Início rápido](https://docs.langchain.com/oss/python/langchain/quickstart) na LangChain documentação.
+ **Seleção de modelos** básicos — Suporte para diversos modelos de fundação, incluindo modelos Anthropic Claude, Amazon Nova (Premier, Pro, Lite e Micro) no Amazon Bedrock e outros para diferentes capacidades de raciocínio. Para obter mais informações, consulte [Entradas e saídas](https://python.langchain.com/docs/concepts/chat_models/#inputs-and-outputs) na LangChain documentação.
+ **Integração da API LLM** — Interfaces padronizadas para vários provedores de serviços de modelo de linguagem grande (LLM), incluindo Amazon Bedrock e outrosOpenAI, para implantação flexível. Para obter mais informações, consulte a [LLMs](https://python.langchain.com/docs/integrations/llms/) documentação do LangChain.
+ Processamento **multimodal — Suporte integrado para processamento** de texto, imagem e áudio para permitir interações ricas com agentes autônomos multimodais. Para obter mais informações, consulte [Multimodalidade](https://python.langchain.com/docs/concepts/chat_models/#multimodality) na LangChain documentação.
+ **Fluxos de trabalho baseados em gráficos** — LangGraph permitem definir comportamentos complexos de agentes autônomos como máquinas de estado, suportando uma lógica de decisão sofisticada. Para obter mais informações, consulte o anúncio da [LangGraphPlatform GA](https://blog.langchain.dev/langgraph-platform-ga/).
+ **Abstrações de memória** — Várias opções para gerenciamento de memória de curto e longo prazo, o que é essencial para agentes autônomos que mantêm o contexto ao longo do tempo. Para obter mais informações, consulte [Como adicionar memória aos chatbots](https://python.langchain.com/docs/how_to/chatbots_memory/) na LangChain documentação.
+ **Integração de ferramentas** — Ecossistema rico de integrações de ferramentas em vários serviços e ampliando APIs as capacidades de agentes autônomos. Para obter mais informações, consulte [Ferramentas](https://python.langchain.com/docs/how_to/#tools) na LangChain documentação.
+ **LangGraph plataforma** — Solução gerenciada de implantação e monitoramento para ambientes de produção, oferecendo suporte a agentes autônomos de longa duração. Para obter mais informações, consulte o anúncio da [LangGraphPlatform GA](https://blog.langchain.dev/langgraph-platform-ga/).

## Quando usar LangChain e LangGraph
<a name="when-to-use-langchain-and-langgraph"></a>

LangChaine LangGraph são particularmente adequados para cenários de agentes autônomos, incluindo:
+ Fluxos de trabalho complexos de raciocínio em várias etapas que exigem orquestração sofisticada para tomada de decisão autônoma
+ Projetos que precisam de acesso a um grande ecossistema de componentes e integrações pré-construídos para diversas capacidades autônomas
+ Equipes com infraestrutura e experiência Python em aprendizado de máquina (ML) existentes que desejam criar sistemas autônomos
+ Casos de uso que exigem gerenciamento complexo de estados em sessões de agentes autônomos de longa duração

## Abordagem de implementação para LangChain e LangGraph
<a name="implementation-approach-for-langchain-and-langgraph"></a>

LangChaine LangGraph forneça uma abordagem de implementação estruturada para as partes interessadas da empresa, conforme detalhado na [LangGraphdocumentação](https://python.langchain.com/docs/langgraph). A estrutura permite que as organizações:
+ Defina gráficos de fluxo de trabalho sofisticados que representem os processos de negócios.
+ Crie padrões de raciocínio em várias etapas com pontos de decisão e lógica condicional.
+ Integre recursos de processamento multimodal para lidar com diversos tipos de dados.
+ Implemente o controle de qualidade por meio de mecanismos integrados de revisão e validação.

Essa abordagem baseada em gráficos permite que as equipes de negócios modelem processos de decisão complexos como fluxos de trabalho autônomos. As equipes têm uma visibilidade clara de cada etapa do processo de raciocínio e a capacidade de auditar os caminhos de decisão.

## Exemplo real de e LangChain LangGraph
<a name="real-world-example-of-langchain-and-langgraph"></a>

Vodafoneimplementou agentes autônomos usando LangChain (eLangGraph) para aprimorar seus fluxos de trabalho de engenharia de dados e operações, conforme detalhado em seu [estudo de caso LangChain corporativo](https://blog.langchain.com/customers-vodafone/). Eles criaram assistentes internos de IA que monitoram de forma autônoma as métricas de desempenho, recuperam informações dos sistemas de documentação e apresentam insights acionáveis, tudo por meio de interações em linguagem natural.

A Vodafone implementação usa carregadores LangChain modulares de documentos, integração vetorial e suporte para vários LLMs (OpenAI, LLaMA 3 eGemini) para prototipar e comparar rapidamente esses pipelines. Em seguida, LangGraph costumavam estruturar a orquestração de vários agentes implantando subagentes modulares. Esses agentes realizam tarefas de coleta, processamento, resumo e raciocínio. LangGraphintegrou esses agentes APIs em seus sistemas em nuvem.

# CrewAI
<a name="crewai"></a>

CrewAIé uma estrutura de código aberto focada especificamente na orquestração autônoma de vários agentes, disponível em. [GitHub](https://github.com/crewAIInc/crewAI) Ele fornece uma abordagem estruturada para criar equipes de agentes autônomos especializados que colaboram para resolver tarefas complexas sem intervenção humana. CrewAIenfatiza a coordenação baseada em funções e a delegação de tarefas.

## Principais características do CrewAI
<a name="key-features-of-crewai"></a>

CrewAIfornece os seguintes recursos principais:
+ **Design de agente baseado em** funções — Agentes autônomos são definidos com funções, metas e histórias de fundo específicas para permitir conhecimentos especializados. Para obter mais informações, consulte [Criação de agentes eficazes](https://docs.crewai.com/en/guides/agents/crafting-effective-agents) na CrewAI documentação.
+ **Delegação de tarefas** — Mecanismos integrados para atribuir tarefas de forma autônoma aos agentes apropriados com base em suas capacidades. Para obter mais informações, consulte [Tarefas](https://docs.crewai.com/en/concepts/tasks) na CrewAI documentação.
+ **Colaboração de agentes** — Estrutura para comunicação autônoma entre agentes e compartilhamento de conhecimento sem mediação humana. Para obter mais informações, consulte [Colaboração](https://docs.crewai.com/en/concepts/collaboration) na CrewAI documentação.
+ **Gerenciamento de processos** — fluxos de trabalho estruturados para execução sequencial e paralela de tarefas autônomas. Para obter mais informações, consulte [Processos](https://docs.crewai.com/en/concepts/processes) na CrewAI documentação.
+ **Seleção de modelos** básicos — Suporte para vários modelos básicos, incluindo modelos Anthropic Claude, Amazon Nova (Premier, Pro, Lite e Micro) no Amazon Bedrock e outros para otimizar diferentes tarefas de raciocínio autônomo. Para obter mais informações, consulte a [LLMs](https://docs.crewai.com/en/concepts/llms) documentação do CrewAI.
+ **Integração da API LLM** — Integração flexível com várias interfaces de serviço LLM, OpenAI incluindo Amazon Bedrock e implantações de modelos locais. Para obter mais informações, consulte [Exemplos de configuração do provedor](https://docs.crewai.com/en/concepts/llms#provider-configuration-examples) na CrewAI documentação.
+ **Suporte multimodal** — Capacidades emergentes para lidar com texto, imagem e outras modalidades para interações abrangentes de agentes autônomos. Para obter mais informações, consulte [Usando agentes multimodais](https://docs.crewai.com/en/learn/multimodal-agents) na CrewAI documentação.

## Quando utilizar CrewAI
<a name="when-to-use-crewai"></a>

CrewAIé particularmente adequado para cenários de agentes autônomos, incluindo:
+ Problemas complexos que se beneficiam da experiência especializada e baseada em funções trabalhando de forma autônoma 
+ Projetos que exigem colaboração explícita entre vários agentes autônomos 
+ Casos de uso em que a decomposição de problemas baseada em equipe melhora a resolução autônoma de problemas
+ Cenários que exigem uma separação clara de preocupações entre diferentes funções de agentes autônomos

## Abordagem de implementação para CrewAI
<a name="implementation-approach-for-crewai"></a>

CrewAIfornece uma implementação baseada em funções da abordagem de equipes de agentes de IA para as partes interessadas da empresa, conforme detalhado em [Introdução](https://github.com/crewAIInc/crewAI?tab=readme-ov-file#getting-started) na CrewAI documentação. A estrutura permite que as organizações:
+ Defina agentes autônomos especializados com funções, metas e áreas de especialização específicas.
+ Atribua tarefas aos agentes com base em suas capacidades especializadas.
+ Estabeleça dependências claras entre as tarefas para criar fluxos de trabalho estruturados.
+ Organize a colaboração entre vários agentes para resolver problemas complexos.

Essa abordagem baseada em funções reflete as estruturas de equipes humanas, tornando-a intuitiva para os líderes de negócios entenderem e implementarem. As organizações podem criar equipes autônomas com áreas de especialização especializadas que colaboram para alcançar os objetivos de negócios, da mesma forma que as equipes humanas operam. No entanto, a equipe autônoma pode trabalhar continuamente sem intervenção humana.

## Exemplo real de CrewAI
<a name="real-world-example-of-crewai"></a>

AWS [implementou sistemas multiagentes autônomos usando o CrewAI integrado ao Amazon Bedrock, conforme detalhado no estudo de caso publicado. CrewAI](https://www.crewai.com/case-studies/aws-powers-bedrock-agents-with-crewai) AWS e CrewAI desenvolveu uma estrutura segura e neutra em relação ao fornecedor. A arquitetura “CrewAIflows‑and‑crews” de código aberto se integra perfeitamente aos modelos básicos, sistemas de memória e barreiras de conformidade do Amazon Bedrock.

Os principais elementos da implementação incluem:
+ **Planos e código aberto — AWS e designs de** [referência CrewAI lançados](https://aws.amazon.com/blogs/machine-learning/build-agentic-systems-with-crewai-and-amazon-bedrock/) que mapeiam CrewAI agentes para modelos e ferramentas de observabilidade do Amazon Bedrock. Eles também lançaram sistemas exemplares, como uma equipe de auditoria de AWS segurança multiagente, fluxos de modernização de código e automação de back-office de bens de consumo embalados (CPG).
+ **Integração da pilha de observabilidade** — A solução incorpora monitoramento com a Amazon e CloudWatch, AgentOps permitindo a rastreabilidade e a LangFuse depuração, desde a prova de conceito até a produção.
+ **Retorno sobre o investimento (ROI) demonstrado** — Os primeiros pilotos mostram grandes melhorias — execução 70% mais rápida para um grande projeto de modernização de código e cerca de 90% de redução no tempo de processamento de um fluxo de back-office de CPG.

# AutoGen
<a name="autogen"></a>

[https://www.microsoft.com/en-us/research/project/autogen/](https://www.microsoft.com/en-us/research/project/autogen/)é uma estrutura de código aberto que foi lançada inicialmente pelaMicrosoft. AutoGenconcentra-se em capacitar agentes de IA autônomos conversacionais e colaborativos. Ele fornece uma arquitetura flexível para criar sistemas multiagentes com ênfase em interações assíncronas e orientadas por eventos entre agentes para fluxos de trabalho autônomos complexos.

## Principais características do AutoGen
<a name="key-features-of-autogen"></a>

AutoGenfornece os seguintes recursos principais:
+ **Agentes conversacionais** — Construídos em torno de conversas em linguagem natural entre agentes autônomos, permitindo um raciocínio sofisticado por meio do diálogo. Para obter mais informações, consulte [Estrutura de conversação multiagente](https://microsoft.github.io/autogen/docs/Use-Cases/agent_chat) na AutoGen documentação.
+ **Arquitetura assíncrona** — design orientado por eventos para interações de agentes autônomos sem bloqueio, suportando fluxos de trabalho paralelos complexos. Para obter mais informações, consulte [Resolvendo várias tarefas em uma sequência de bate-papos assíncronos na documentação](https://microsoft.github.io/autogen/0.2/docs/notebooks/agentchat_multi_task_async_chats/). AutoGen
+ **H uman-in-the-loop** — Forte suporte à participação humana opcional em fluxos de trabalho de agentes autônomos, quando necessário. Para obter mais informações, consulte [Permitir feedback humano em agentes](https://microsoft.github.io/autogen/0.2/docs/tutorial/human-in-the-loop/) na AutoGen documentação.
+ **Geração e execução de código** — Recursos especializados para agentes autônomos focados em código que podem escrever e executar código. Para obter mais informações, consulte [Execução de código](https://microsoft.github.io/autogen/stable/user-guide/core-user-guide/design-patterns/code-execution-groupchat.html) na AutoGen documentação.
+ **Comportamentos personalizáveis** — Configuração flexível de agentes autônomos e controle de conversação para diversos casos de uso. Para obter mais informações, consulte [agentchat.conversable\$1agent](https://microsoft.github.io/autogen/docs/reference/agentchat/conversable_agent) na documentação. AutoGen
+ **Seleção de modelos** básicos — Suporte para vários modelos básicos, incluindo modelos Anthropic Claude, Amazon Nova (Premier, Pro, Lite e Micro) no Amazon Bedrock e outros para diferentes capacidades de raciocínio autônomo. Para obter mais informações, consulte [Configuração do LLM](https://microsoft.github.io/autogen/docs/topics/llm_configuration) na AutoGen documentação.
+ **Integração da API LLM** — Configuração padronizada para várias interfaces de serviço LLM, incluindo Amazon Bedrock, e. OpenAI Azure OpenAI Para obter mais informações, consulte [oai.openai\$1utils](https://microsoft.github.io/autogen/docs/reference/oai/openai_utils) na Referência da API. AutoGen
+ Processamento **multimodal — Support para processamento** de texto e imagem para permitir interações ricas com agentes autônomos multimodais. Para obter mais informações, consulte [Envolvendo-se com modelos multimodais: GPT-4V](https://microsoft.github.io/autogen/0.2/docs/notebooks/agentchat_lmm_gpt-4v/) na documentação. AutoGen AutoGen

## Quando utilizar AutoGen
<a name="when-to-use-autogen"></a>

AutoGené particularmente adequado para cenários de agentes autônomos, incluindo:
+ Aplicativos que exigem fluxos conversacionais naturais entre agentes autônomos para raciocínio complexo
+ Projetos que precisam de operação totalmente autônoma e recursos opcionais de supervisão humana
+ Casos de uso que envolvem geração, execução e depuração autônomas de código sem intervenção humana
+ Cenários que exigem padrões de comunicação de agentes autônomos flexíveis e assíncronos

## Abordagem de implementação para AutoGen
<a name="implementation-approach-for-autogen"></a>

AutoGenfornece uma abordagem de implementação conversacional para as partes interessadas da empresa, conforme detalhado em [Introdução](https://microsoft.github.io/autogen/docs/Getting-Started) na AutoGen documentação. A estrutura permite que as organizações:
+ Crie agentes autônomos que se comunicam por meio de conversas em linguagem natural.
+ Implemente interações assíncronas e orientadas por eventos entre vários agentes.
+ Combine operação totalmente autônoma com supervisão humana opcional quando necessário.
+ Desenvolva agentes especializados para diferentes funções de negócios que colaborem por meio do diálogo.

Essa abordagem conversacional torna o raciocínio do sistema autônomo transparente e acessível aos usuários corporativos. Os tomadores de decisão podem observar o diálogo entre os agentes para entender como as conclusões são alcançadas e, opcionalmente, participar da conversa quando o julgamento humano é necessário.

## Exemplo real de AutoGen
<a name="real-world-example-of-autogen"></a>

Magentic-One[é um sistema multiagente generalista e de código aberto projetado para resolver de forma autônoma tarefas complexas de várias etapas em diversos ambientes, conforme descrito no blog AI Frontiers. Microsoft ](https://www.microsoft.com/en-us/research/articles/magentic-one-a-generalist-multi-agent-system-for-solving-complex-tasks/) Em sua essência, está o agente Orchestrator, que decompõe metas de alto nível e acompanha o progresso usando livros contábeis estruturados. Esse agente delega subtarefas a agentes especializados (comoWebSurfer, FileSurferCoder, eComputerTerminal) e se adapta dinamicamente replanejando quando necessário. 

O sistema é baseado na AutoGen estrutura e é independente do modelo, usando como padrão o GPT‑4o. Ele alcança desempenho de última geração em benchmarks como, e —tudo sem ajustes específicos da tarefa. GAIA AssistantBench WebArena Além disso, ele oferece suporte à extensibilidade modular e à avaliação rigorosa por meio de sugestões. AutoGenBench

# LlamaIndex
<a name="llamaindex"></a>

[https://www.llamaindex.ai/](https://www.llamaindex.ai/)é uma estrutura de dados projetada especificamente para conectar grandes modelos de linguagem (LLMs) a fontes de dados externas para permitir aplicativos sofisticados de geração aumentada de recuperação (RAG) e inteligência artificial. A estrutura fornece abstrações e fluxos de trabalho de desenvolvimento acelerados para sistemas agentes, padrões de orquestração personalizados e integrações de sistemas que reduzem as soluções de IA orientadas pelo conhecimento. time-to-production

## Principais características do LlamaIndex
<a name="key-features-of-llamaindex"></a>

LlamaIndexfornece um conjunto abrangente de recursos que o torna particularmente adequado para aplicativos de IA de agentes corporativos:
+ **Arquitetura centrada em dados** — se destaca na ingestão, indexação e recuperação de informações de mais de 100 formatos de dados, incluindo documentos do Microsoft Word PDFs, planilhas e muito mais. A estrutura transforma dados corporativos em bases de conhecimento consultáveis que são otimizadas para agentes de IA. Para obter mais informações, consulte a [documentação do LlamaIndex](https://developers.llamaindex.ai/).
+ **Implantação pronta para produção —** LlamaIndex oferece estruturas de código aberto e serviços gerenciados por meio de recursos de nível corporativoLlamaCloud, incluindo controles de segurança, escalabilidade, integrações de observabilidade e flexibilidade de implantação. Para obter mais informações, consulte a [documentação da LlamaIndex estrutura](https://developers.llamaindex.ai/python/framework/). 
+ **Processamento avançado de documentos** — LlamaCloud fornece recursos de análise, extração, indexação e recuperação de documentos que lidam com layouts complexos, tabelas aninhadas, conteúdo multimodal e até anotações manuscritas. Essa análise sofisticada permite que os agentes trabalhem de forma eficaz com documentos corporativos reais que contêm gráficos, diagramas e formatação complexa. Para obter mais informações, consulte a [documentação do LlamaCloud](https://developers.llamaindex.ai/python/cloud/). 
+ **Orquestração de fluxos de trabalho — LlamaAgents fornece um mecanismo de orquestração** assíncrono e orientado por eventos para criar sistemas agentes de várias etapas. Os fluxos de trabalho oferecem suporte a padrões complexos, incluindo loops, execução paralela, ramificação condicional e retomada com estado, o que os torna ideais para interações sofisticadas com agentes. Para obter mais informações, consulte a [documentação dos LlamaIndex fluxos de trabalho](https://developers.llamaindex.ai/python/framework/understanding/workflows/).
+ **Capacidades de recuperação agente** — modos de recuperação avançados, incluindo pesquisa híbrida, pesquisa semântica e roteamento automático que determinam de forma inteligente a melhor estratégia de recuperação para cada consulta. A estrutura oferece suporte à recuperação composta em várias bases de conhecimento com reclassificação para maior precisão. Para obter mais informações, consulte a [documentação do LlamaIndex RAG](https://developers.llamaindex.ai/python/framework/understanding/rag/). 
+ **Observabilidade e avaliação** — LlamaIndex integra-se a uma variedade de ferramentas de observabilidade e avaliação. Esse recurso de integração ajuda você a rastrear e depurar seus aplicativos, avaliar seu desempenho e monitorar os custos. [Para obter mais informações, consulte a documentação [de rastreamento, depuração e](https://developers.llamaindex.ai/python/framework/understanding/tracing_and_debugging/tracing_and_debugging/) avaliação.](https://developers.llamaindex.ai/python/framework/module_guides/evaluating) LlamaIndex

## Quando utilizar LlamaIndex
<a name="when-to-use-llamaindex"></a>

LlamaIndexé particularmente adequado para cenários de IA agentes que enfatizam fluxos de trabalho intensivos em dados e gerenciamento de conhecimento:
+ Aplicativos com muitos documentos que exigem que os agentes processem, analisem e extraiam insights de grandes volumes de documentos corporativos, como contratos, relatórios, manuais e registros regulatórios
+ Prototipagem rápida para cenários de produção em que as organizações desejam criar e implantar rapidamente agentes centrados em documentos sem sobrecarga de gerenciamento de infraestrutura
+ Arquiteturas pioneiras que priorizam a precisão da recuperação e a relevância do contexto, especialmente ao trabalhar com documentos complexos e multimodais contendo tabelas, imagens e dados estruturados
+ Fluxos de trabalho de documentos multiagentes que exigem agentes especializados para diferentes aspectos do processamento de documentos, como análise, análise, resumo e verificação de conformidade

## Abordagem de implementação para LlamaIndex
<a name="implementation-approach-for-llamaindex"></a>

LlamaIndex fornece blocos de construção de baixo nível e abstrações de alto nível que acomodam diferentes abordagens de implementação:
+ Desenvolvimento rápido de aplicativos RAG funcionais em apenas algumas linhas de código usando LlamaIndex alto nível APIs. Essa abordagem torna LlamaIndex acessível para equipes de negócios e desenvolvedores que são novos na IA agente. 
+ Integração empresarial LlamaHub por meio de sistemas corporativos populares SharePoint, incluindo Amazon Simple Storage Service (Amazon S3), bancos de dados e. APIs Essa abordagem permite uma integração perfeita com a infraestrutura de dados existente.
+ Opções flexíveis de implantação entre implantações auto-hospedadas de código aberto para controle máximo ou serviços LlamaCloud gerenciados para reduzir a sobrecarga operacional e os recursos corporativos.
+ Os aplicativos podem começar com mecanismos de consulta simples e adicionar progressivamente recursos agentes, orquestração de vários agentes e fluxos de trabalho complexos à medida que os requisitos evoluem. 

## Exemplo real de LlamaIndex
<a name="real-world-example-llamaindex"></a>

Este exemplo se concentra em uma subsidiária de uma empresa aeroespacial especializada em soluções de navegação e operações de aviação. Eles precisam enfrentar um desafio crescente que envolve pilotar testes descoordenados de chatbots de IA. Os testes resultaram em trabalho repetido, longos ciclos de desenvolvimento, obstáculos de conformidade e implementações isoladas em toda a organização. 

Eles desenvolveram uma estrutura de agente unificada, uma solução reutilizável baseada em modelos criada na estrutura de LlamaIndex código aberto que torna a criação de agentes muito mais eficiente. Eles compararam várias estruturas concorrentes, tanto orientadas por cadeias quanto baseadas em gráficos. Por fim, eles LlamaIndex escolheram três vantagens essenciais: seu design flexível, componentes modulares e controles de orquestração prontos para produção.

A plataforma reduz o tempo de desenvolvimento e implantação do agente em 87%, de 512 para 64 horas. Essa redução foi alcançada ao permitir que as equipes criassem agentes com aproximadamente 50 linhas de código e um arquivo de configuração JSON. As equipes utilizaram uma estrutura unificada com segurança integrada, conformidade e acesso privilegiado ao sistema. Para obter mais detalhes, consulte os [estudos de caso de LlamaIndex clientes](https://www.llamaindex.ai/customers).

# Comparando estruturas de IA agênticas
<a name="comparing-agentic-ai-frameworks"></a>

Ao selecionar uma estrutura de IA agente para o desenvolvimento de agentes autônomos, considere como cada opção se alinha aos seus requisitos específicos. Considere não apenas suas capacidades técnicas, mas também sua adequação organizacional, incluindo a experiência da equipe, a infraestrutura existente e os requisitos de manutenção de longo prazo. Muitas organizações podem se beneficiar de uma abordagem híbrida, aproveitando várias estruturas para diferentes componentes de seu ecossistema autônomo de IA.

A tabela a seguir compara os níveis de maturidade (mais forte, forte, adequado ou fraco) de cada estrutura nas principais dimensões técnicas. Para cada estrutura, a tabela também inclui informações sobre as opções de implantação de produção e a complexidade da curva de aprendizado.


| 
| 
| **Framework** | **AWS integração** | **Suporte autônomo a vários agentes** | **complexidade do fluxo de trabalho autônomo** | **Capacidades multimodais** | **Seleção do modelo de fundação** | **Integração da API LLM** | **Implantação de produção** | **Curva de aprendizado** | 
| --- |--- |--- |--- |--- |--- |--- |--- |--- |
| AutoGen | Fraco | Forte | Forte | Adequado | Adequado | Forte | Faça você mesmo (DIY) | Íngreme | 
| CrewAI | Fraco | Forte | Adequado | Fraco | Adequado | Adequado | FAÇA VOCÊ MESMO | Moderada | 
| LangChain/LangGraph | Adequado | Forte | Mais forte | Mais forte | Mais forte | Mais forte | Plataforma ou faça você mesmo | Íngreme | 
|  LlamaIndex  |  Adequado  |  Adequado  |  Forte  |  Adequado  |  Forte  |  Forte  |  Plataforma ou faça você mesmo  |  Moderada  | 
| Strands Agents | Mais forte | Forte | Mais forte | Forte | Forte | Mais forte | FAÇA VOCÊ MESMO | Moderada | 

## Considerações na escolha de uma estrutura de IA agente
<a name="considerations-in-choosing-an-agentic-ai-framework"></a>

Ao desenvolver agentes autônomos, considere os seguintes fatores-chave:
+ **AWS integração de infraestrutura** — As organizações em que investem fortemente se AWS beneficiarão mais das integrações nativas do Strands Agents with Serviços da AWS para fluxos de trabalho autônomos. Para obter mais informações, consulte [Resumo AWS semanal](https://aws.amazon.com/blogs/aws/aws-weekly-roundup-strands-agents-aws-transform-amazon-bedrock-guardrails-aws-codebuild-and-more-may-19-2025/) (AWS blog).
+ **Seleção do modelo de fundação** — Considere qual estrutura fornece o melhor suporte para seus modelos de fundação preferidos (por exemplo, modelos Amazon Nova no Amazon Bedrock ou Anthropic Claude), com base nos requisitos de raciocínio do seu agente autônomo. Para obter mais informações, consulte [Criação de agentes eficazes](https://www.anthropic.com/engineering/building-effective-agents) no Anthropic site.
+ **Integração da API LLM** — Avalie as estruturas com base em sua integração com suas interfaces de serviço preferidas de modelo de linguagem grande (LLM) (por exemplo, Amazon Bedrock ouOpenAI) para implantação em produção. Para obter mais informações, consulte [Interfaces de modelo](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/#basic-usage) na  Strands Agents documentação.
+ **Requisitos multimodais** — Para agentes autônomos que precisam processar texto, imagens e fala, considere os recursos multimodais de cada estrutura. Para obter mais informações, consulte [Multimodalidade](https://python.langchain.com/docs/concepts/chat_models/#multimodality) na LangChain documentação.
+ **Complexidade do fluxo de trabalho autônomo** — Fluxos de trabalho autônomos mais complexos com gerenciamento de estado sofisticado podem favorecer os recursos avançados da máquina de estado. de. LangGraph
+ Colaboração **autônoma em equipe — Projetos que exigem colaboração** autônoma explícita baseada em funções entre agentes especializados podem se beneficiar da arquitetura orientada à equipe do. CrewAI
+ **Paradigma de desenvolvimento autônomo** — equipes que preferem padrões conversacionais e assíncronos para agentes autônomos podem preferir a arquitetura orientada a eventos do. AutoGen
+ **Abordagem gerenciada ou baseada em código** — Organizações que desejam uma experiência totalmente gerenciada com o mínimo de codificação devem considerar os Amazon Bedrock Agents. Organizações que exigem uma personalização mais profunda podem preferir Strands Agents outras estruturas com recursos especializados que se alinhem melhor aos requisitos específicos de agentes autônomos.
+ **Prontidão de produção para sistemas autônomos** — considere as opções de implantação, os recursos de monitoramento e os recursos corporativos para agentes autônomos de produção.