

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Frameworks
<a name="frameworks"></a>

[Foundations of Agentic AI on AWS](https://docs.aws.amazon.com/prescriptive-guidance/latest/agentic-ai-foundations/) untersucht die Kernmuster und Arbeitsabläufe, die autonomes, zielgerichtetes Verhalten ermöglichen. Im Mittelpunkt der Implementierung dieser Muster steht die Wahl des Frameworks. Ein *Framework* ist die Softwarebasis aus vordefiniertem Code, die eine strukturierte Umgebung und gemeinsame Funktionen für die Erstellung und Verwaltung von Tools und Orchestrierungsfunktionen bietet, die für die Entwicklung produktionsreifer autonomer KI-Agenten erforderlich sind. 

Effektive agentische KI-Frameworks bieten mehrere grundlegende Funktionen, die unbearbeitete Interaktionen mit einem Large Language Model (LLM) in koordinierte, intelligente Systeme umwandeln, die in der Lage sind, zu denken, zusammenzuarbeiten und zu handeln:
+ Die **Agentenorchestrierung** koordiniert den Informationsfluss und die Entscheidungsfindung zwischen einzelnen oder mehreren Agenten, um komplexe Ziele ohne menschliches Eingreifen zu erreichen.
+ **Die Toolintegration** ermöglicht es Agenten, mit externen Systemen und Datenquellen zu interagieren APIs, um ihre Fähigkeiten über die Sprachverarbeitung hinaus zu erweitern. Weitere Informationen finden Sie in der Strands Agents Dokumentation unter [Tool-Übersicht](https://strandsagents.com/0.1.x/user-guide/concepts/tools/tools_overview/).
+ Die **Speicherverwaltung** bietet einen dauerhaften oder sitzungsbasierten Status, um den Kontext zwischen Interaktionen aufrechtzuerhalten, was für lang andauernde oder adaptive Aufgaben unerlässlich ist. Fortgeschrittenere Frameworks verfügen über ein Langzeitgedächtnis zum Speichern von Zusammenfassungen und Benutzereinstellungen und ermöglichen so personalisierte und kontextsensitive Agentenerlebnisse. Weitere Informationen finden Sie im Blog unter [How to think about Agent Frameworks](https://blog.langchain.com/how-to-think-about-agent-frameworks/). LangChain 
+ Die **Workflow-Definition** unterstützt strukturierte Muster wie Ketten, Routing, Parallelisierung und Reflexionsschleifen, die ein ausgeklügeltes autonomes Denken ermöglichen.
+ **Einsatz und Überwachung** erleichtern den Übergang von der Entwicklung zur Produktion, wobei autonome Systeme beobachtbar sind. Weitere Informationen finden Sie in der Ankündigung zur [ AgentCore allgemeinen Verfügbarkeit von Amazon Bedrock](https://aws.amazon.com/blogs/machine-learning/amazon-bedrock-agentcore-is-now-generally-available/).

Diese Funktionen werden in der gesamten Framework-Landschaft mit unterschiedlichen Ansätzen und Schwerpunkten implementiert und bieten jeweils unterschiedliche Vorteile für unterschiedliche Anwendungsfälle autonomer Agenten und Unternehmenskontexte.

In diesem Abschnitt werden die führenden Frameworks für die Entwicklung agentischer KI-Lösungen vorgestellt und verglichen, wobei der Schwerpunkt auf ihren Stärken, Grenzen und idealen Anwendungsfällen für den autonomen Betrieb liegt:
+ [Strands & Agenten](strands-agents.md)
+ [LangChain und LangGraph](langchain-langgraph.md)
+ [Crew I](crewai.md)
+ [AutoGen](autogen.md)
+ [LlamaIndex](llamaindex.md)
+ [Vergleich agentischer KI-Frameworks](comparing-agentic-ai-frameworks.md)

**Anmerkung**  
In diesem Abschnitt werden die Frameworks behandelt, die speziell die Steuerung der KI unterstützen. Frontend-Schnittstellen oder generative KI ohne Agentur werden nicht behandelt.

# Strands Agents
<a name="strands-agents"></a>

Strands Agentsist ein Open-Source-SDK, das ursprünglich von veröffentlicht wurde AWS, wie im [AWS Open Source-Blog](https://aws.amazon.com/blogs/opensource/introducing-strands-agents-an-open-source-ai-agents-sdk/) beschrieben. Strands Agentswurde für die Entwicklung autonomer KI-Agenten mit einem Model-First-Ansatz entwickelt. Es bietet ein flexibles, erweiterbares Framework, das so konzipiert ist, dass es nahtlos funktioniert und AWS-Services gleichzeitig offen für die Integration mit Komponenten von Drittanbietern bleibt. Strands Agents ist ideal für den Aufbau vollständig autonomer Lösungen.

## Hauptmerkmale von Strands Agents
<a name="key-features-of-strands-agents"></a>

Strands Agentsumfasst die folgenden Hauptfunktionen:
+ **Modellorientiertes Design** — Es basiert auf dem Konzept, dass das Basismodell den Kern der Agentenintelligenz bildet und ausgeklügeltes autonomes Denken ermöglicht. Weitere Informationen finden Sie in der Dokumentation unter [Agent Loop](https://strandsagents.com/latest/user-guide/concepts/agents/agent-loop/). Strands Agents
+ **Muster für die Zusammenarbeit mehrerer Agenten** — Integrierte Koordinationsmodelle wie Swarm-, Graph- und Workflow-Muster, die eine skalierbare Zusammenarbeit und Steuerung über verteilte Agentennetzwerke hinweg ermöglichen. Weitere Informationen finden Sie unter [Muster für mehrere Agenten](https://strandsagents.com/docs/user-guide/concepts/multi-agent/multi-agent-patterns/) in der Dokumentation zu Strands Agents.
+ **MCP-Integration — Systemeigene** Unterstützung für das [Model Context Protocol](https://modelcontextprotocol.io/) (MCP), wodurch eine standardisierte Bereitstellung von Kontext LLMs für einen konsistenten autonomen Betrieb ermöglicht wird.
+ **AWS-Service Integration** — Nahtlose Verbindung zu Amazon Bedrock, AWS Lambda AWS Step Functions, und anderen AWS-Services für umfassende autonome Workflows. Weitere Informationen finden Sie unter [AWS Weekly Roundup (Blog](https://aws.amazon.com/blogs/aws/aws-weekly-roundup-strands-agents-aws-transform-amazon-bedrock-guardrails-aws-codebuild-and-more-may-19-2025/))AWS .
+ **Auswahl des Foundation-Modells** — Unterstützt verschiedene Foundation-Modelle, darunter Anthropic Claude, Amazon Nova (Premier, Pro, Lite und Micro) auf Amazon Bedrock und andere, um für verschiedene Funktionen des autonomen Denkens zu optimieren. Weitere Informationen finden Sie in der Strands Agents Dokumentation unter [Amazon Bedrock](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/). 
+ **LLM-API-Integration** — Flexible Integration mit verschiedenen LLM-Serviceschnittstellen wie Amazon Bedrock, OpenAI und anderen für den Produktionseinsatz. Weitere Informationen finden Sie in der Strands Agents Dokumentation unter [Amazon Bedrock Basic Usage](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/#basic-usage).
+ **Multimodale Funktionen** — Support mehrerer Modalitäten, einschließlich Text-, Sprach- und Bildverarbeitung für umfassende autonome Agenteninteraktionen. Weitere Informationen finden Sie in der [Dokumentation unter Amazon Bedrock Multimodal Support](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/#multimodal-support). Strands Agents
+ **Tool-Ökosystem** — Umfangreiches Angebot an Tools für die AWS-Service Interaktion mit Erweiterbarkeit für benutzerdefinierte Tools, die die autonomen Funktionen erweitern. Weitere Informationen finden Sie in der Strands Agents Dokumentation unter [Tool-Übersicht](https://strandsagents.com/0.1.x/user-guide/concepts/tools/tools_overview/).

## Wann sollte es verwendet werden Strands Agents
<a name="when-to-use-strands-agents"></a>

Strands Agentseignet sich besonders gut für Szenarien mit autonomen Agenten, darunter:
+ Organizations, die auf einer AWS Infrastruktur aufbauen und eine native Integration AWS-Services für autonome Workflows wünschen
+ Teams, die Sicherheits-, Skalierbarkeits- und Compliance-Funktionen auf Unternehmensebene für autonome Produktionssysteme benötigen
+ Projekte, die Flexibilität bei der Modellauswahl verschiedener Anbieter für spezielle autonome Aufgaben benötigen
+ Anwendungsfälle, die eine enge Integration mit bestehenden AWS Workflows und Ressourcen für durchgängige autonome Prozesse erfordern

## Implementierungsansatz für Strands Agents
<a name="implementation-approach-for-strands-agents"></a>

Strands Agentsbietet einen unkomplizierten Implementierungsansatz für Unternehmensbeteiligte, wie im [Schnellstartleitfaden](https://strandsagents.com/0.1.x/user-guide/quickstart/) beschrieben. Das Framework ermöglicht Organisationen:
+ Wählen Sie Basismodelle wie Amazon Nova (Premier, Pro, Lite oder Micro) auf Amazon Bedrock auf der Grundlage spezifischer Geschäftsanforderungen aus.
+ Definieren Sie benutzerdefinierte Tools, die eine Verbindung zu Unternehmenssystemen und Datenquellen herstellen.
+ Verarbeiten Sie mehrere Modalitäten, darunter Text, Bilder und Sprache.
+ Stellen Sie Agenten bereit, die selbstständig auf Geschäftsanfragen antworten und Aufgaben ausführen können.

Dieser Implementierungsansatz ermöglicht es Geschäftsteams, autonome Agenten schnell zu entwickeln und einzusetzen, ohne über fundiertes technisches Fachwissen in der Entwicklung von KI-Modellen zu verfügen.

## Beispiel aus der Praxis für Strands Agents
<a name="real-world-example-of-strands-agents"></a>

AWS Transform for.NET nutzt Strands Agents zur Unterstützung seiner Funktionen zur Anwendungsmodernisierung, wie in [AWS Transform for .NET beschrieben, dem ersten agentischen KI-Dienst für die Modernisierung von.NET-Anwendungen im großen Maßstab](https://aws.amazon.com/blogs/aws/aws-transform-for-net-the-first-agentic-ai-service-for-modernizing-net-applications-at-scale/) (Blog).AWS Dieser Produktionsservice setzt mehrere spezialisierte autonome Agenten ein. Die Agenten arbeiten zusammen, um ältere .NET-Anwendungen zu analysieren, Modernisierungsstrategien zu planen und Codetransformationen in cloudnative Architekturen ohne menschliches Eingreifen durchzuführen. [AWS Transform for .NET](https://aws.amazon.com/transform/net/) demonstriert die Produktionsreife von autonomen Strands Agents Unternehmenssystemen.

# LangChain und LangGraph
<a name="langchain-langgraph"></a>

LangChainist eines der etabliertesten Frameworks im agentischen KI-Ökosystem. LangGraph[erweitert seine Funktionen, um komplexe, zustandsbehaftete Agenten-Workflows zu unterstützen, wie im Blog beschrieben. LangChain](https://blog.langchain.dev/how-to-think-about-agent-frameworks/) Zusammen bieten sie eine umfassende Lösung für den Aufbau ausgeklügelter autonomer KI-Agenten mit umfangreichen Orchestrierungsfunktionen für einen unabhängigen Betrieb.

## Hauptmerkmale von und LangChain LangGraph
<a name="key-features-of-langchain-and-langgraph"></a>

LangChainund LangGraph beinhalten die folgenden Hauptmerkmale:
+ **Komponenten-Ökosystem** — Umfangreiche Bibliothek mit vorgefertigten Komponenten für verschiedene Funktionen autonomer Agenten, die die schnelle Entwicklung spezialisierter Agenten ermöglicht. Weitere Informationen finden Sie in der [Dokumentation unter Schnellstart](https://docs.langchain.com/oss/python/langchain/quickstart). LangChain
+ **Auswahl von Foundation-Modellen** — Support für verschiedene Foundation-Modelle, darunter Anthropic Claude, Amazon Nova-Modelle (Premier, Pro, Lite und Micro) auf Amazon Bedrock und andere für unterschiedliche Argumentationsfähigkeiten. Weitere Informationen finden Sie in der Dokumentation unter [Eingaben und Ausgaben](https://python.langchain.com/docs/concepts/chat_models/#inputs-and-outputs). LangChain
+ **LLM-API-Integration** — Standardisierte Schnittstellen für mehrere Large Language Model (LLM) -Dienstleister, darunter Amazon Bedrock und andereOpenAI, für eine flexible Bereitstellung. Weitere Informationen finden Sie unter [LLMs](https://python.langchain.com/docs/integrations/llms/) in der LangChain-Dokumentation.
+ **Multimodale Verarbeitung** — Integrierte Unterstützung für Text-, Bild- und Audioverarbeitung, um umfangreiche multimodale autonome Interaktionen mit Agenten zu ermöglichen. Weitere Informationen finden Sie in der Dokumentation unter [Multimodalität.](https://python.langchain.com/docs/concepts/chat_models/#multimodality) LangChain
+ **Graphbasierte Workflows** — LangGraph ermöglichen die Definition komplexer Verhaltensweisen autonomer Agenten als Zustandsmaschinen und unterstützen so eine ausgeklügelte Entscheidungslogik. Weitere Informationen finden Sie in der Ankündigung von [LangGraphPlatform GA](https://blog.langchain.dev/langgraph-platform-ga/).
+ **Speicherabstraktionen** — Mehrere Optionen für die Kurz- und Langzeitspeicherverwaltung, was für autonome Agenten, die den Kontext im Laufe der Zeit aufrechterhalten, unerlässlich ist. Weitere Informationen finden Sie in der [Dokumentation unter So fügen Sie Chatbots Speicher hinzu](https://python.langchain.com/docs/how_to/chatbots_memory/). LangChain
+ **Tool-Integration** — Umfangreiches Ökosystem von Tool-Integrationen für verschiedene Dienste und Erweiterung der APIs Funktionen autonomer Agenten. Weitere Informationen finden Sie in der LangChain Dokumentation unter [Tools](https://python.langchain.com/docs/how_to/#tools).
+ **LangGraph Plattform** — Verwaltete Bereitstellungs- und Überwachungslösung für Produktionsumgebungen, die autonome Agenten mit langer Laufzeit unterstützt. Weitere Informationen finden Sie in der Ankündigung von [LangGraphPlatform GA](https://blog.langchain.dev/langgraph-platform-ga/).

## Wann sollte man verwenden LangChain und LangGraph
<a name="when-to-use-langchain-and-langgraph"></a>

LangChainund LangGraph eignen sich besonders gut für Szenarien mit autonomen Agenten, darunter:
+ Komplexe, mehrstufige Argumentationsabläufe, die eine ausgeklügelte Orchestrierung für autonome Entscheidungen erfordern
+ Projekte, die Zugang zu einem großen Ökosystem vorgefertigter Komponenten und Integrationen für vielfältige autonome Funktionen benötigen
+ Teams mit vorhandener Python Infrastruktur und Fachwissen für maschinelles Lernen (ML), die autonome Systeme aufbauen möchten
+ Anwendungsfälle, die eine komplexe Statusverwaltung für lang andauernde autonome Agentensitzungen erfordern

## Implementierungsansatz für und LangChain LangGraph
<a name="implementation-approach-for-langchain-and-langgraph"></a>

LangChainund LangGraph bieten einen strukturierten Implementierungsansatz für Unternehmensbeteiligte, wie in der [LangGraphDokumentation](https://python.langchain.com/docs/langgraph) detailliert beschrieben. Das Framework ermöglicht Organisationen:
+ Definieren Sie ausgefeilte Workflow-Diagramme, die Geschäftsprozesse darstellen.
+ Erstellen Sie mehrstufige Argumentationsmuster mit Entscheidungspunkten und bedingter Logik.
+ Integrieren Sie multimodale Verarbeitungsfunktionen für den Umgang mit unterschiedlichen Datentypen.
+ Implementieren Sie die Qualitätskontrolle mithilfe integrierter Überprüfungs- und Validierungsmechanismen.

Dieser grafisch gestützte Ansatz ermöglicht es Geschäftsteams, komplexe Entscheidungsprozesse als autonome Workflows zu modellieren. Die Teams haben einen klaren Überblick über jeden Schritt des Argumentationsprozesses und können Entscheidungswege überprüfen.

## Ein Beispiel aus der Praxis für und LangChain LangGraph
<a name="real-world-example-of-langchain-and-langgraph"></a>

Vodafonehat autonome Agenten implementiert, die LangChain (undLangGraph) verwenden, um seine Workflows für Datentechnik und Betrieb zu verbessern, wie in der [Fallstudie LangChain Enterprise](https://blog.langchain.com/customers-vodafone/) detailliert beschrieben. Sie haben interne KI-Assistenten entwickelt, die selbstständig Leistungskennzahlen überwachen, Informationen aus Dokumentationssystemen abrufen und umsetzbare Erkenntnisse liefern — alles durch Interaktionen in natürlicher Sprache.

Die Vodafone Implementierung verwendet LangChain modulare Dokumentenlader, Vektorintegration und Unterstützung für mehrere LLMs (, LLaMA 3 undGemini), um diese Pipelines OpenAI schnell zu prototypisieren und zu vergleichen. Anschließend strukturierten sie die Orchestrierung LangGraph mit mehreren Agenten durch den Einsatz modularer Unteragenten. Diese Agenten führen Aufgaben zur Erfassung, Verarbeitung, Zusammenfassung und Argumentation durch. LangGraphhaben diese Agenten APIs in ihre Cloud-Systeme integriert.

# CrewAI
<a name="crewai"></a>

CrewAIist ein Open-Source-Framework, das sich speziell auf die autonome Orchestrierung mehrerer Agenten konzentriert und unter verfügbar ist. [GitHub](https://github.com/crewAIInc/crewAI) Es bietet einen strukturierten Ansatz zur Bildung von Teams spezialisierter autonomer Agenten, die zusammenarbeiten, um komplexe Aufgaben ohne menschliches Eingreifen zu lösen. CrewAIbetont die rollenbasierte Koordination und Aufgabendelegierung.

## Hauptmerkmale von CrewAI
<a name="key-features-of-crewai"></a>

CrewAIbietet die folgenden Hauptfunktionen:
+ **Rollenbasiertes Agentendesign** — Autonome Agenten werden mit spezifischen Rollen, Zielen und Hintergrundinformationen definiert, um spezialisiertes Fachwissen zu ermöglichen. Weitere Informationen finden Sie in der Dokumentation unter [Crefting Effective Agents](https://docs.crewai.com/en/guides/agents/crafting-effective-agents). CrewAI
+ **Aufgabendelegierung** — Integrierte Mechanismen für die autonome Zuweisung von Aufgaben an geeignete Agenten auf der Grundlage ihrer Fähigkeiten. Weitere Informationen finden Sie in der [CrewAIDokumentation unter Aufgaben](https://docs.crewai.com/en/concepts/tasks).
+ **Zusammenarbeit mit Agenten** — Framework für autonome Kommunikation und Wissensaustausch zwischen Agenten ohne menschliche Vermittlung. Weitere Informationen finden Sie in der CrewAI Dokumentation unter [Zusammenarbeit](https://docs.crewai.com/en/concepts/collaboration).
+ **Prozessmanagement** — Strukturierte Workflows für sequentielle und parallel autonome Aufgabenausführung. Weitere Informationen finden Sie in der CrewAI Dokumentation unter [Prozesse](https://docs.crewai.com/en/concepts/processes).
+ **Auswahl des Foundation-Modells** — Support für verschiedene Foundation-Modelle, darunter Anthropic Claude, Amazon Nova-Modelle (Premier, Pro, Lite und Micro) auf Amazon Bedrock und andere zur Optimierung für verschiedene Aufgaben des autonomen Denkens. Weitere Informationen finden Sie unter [LLMs](https://docs.crewai.com/en/concepts/llms) in der CrewAI-Dokumentation.
+ **LLM-API-Integration** — Flexible Integration mit mehreren LLM-Serviceschnittstellen, einschließlich Amazon BedrockOpenAI, und lokalen Modellbereitstellungen. Weitere Informationen finden Sie in der Dokumentation unter [Konfigurationsbeispielen für Anbieter](https://docs.crewai.com/en/concepts/llms#provider-configuration-examples). CrewAI
+ **Multimodale Unterstützung** — Neue Funktionen für den Umgang mit Text, Bildern und anderen Modalitäten für umfassende Interaktionen mit autonomen Agenten. Weitere Informationen finden Sie in der Dokumentation unter [Verwenden multimodaler Agenten](https://docs.crewai.com/en/learn/multimodal-agents). CrewAI

## Wann sollte es verwendet werden CrewAI
<a name="when-to-use-crewai"></a>

CrewAIeignet sich besonders gut für Szenarien mit autonomen Agenten, darunter:
+ Komplexe Probleme, die von spezialisiertem, rollenbasiertem Fachwissen profitieren, das autonom arbeitet 
+ Projekte, die eine ausdrückliche Zusammenarbeit zwischen mehreren autonomen Agenten erfordern 
+ Anwendungsfälle, in denen die teambasierte Problemzerlegung die autonome Problemlösung verbessert
+ Szenarien, die eine klare Trennung der Anliegen zwischen den verschiedenen Rollen autonomer Agenten erfordern

## Implementierungsansatz für CrewAI
<a name="implementation-approach-for-crewai"></a>

CrewAIbietet eine rollenbasierte Implementierung eines Ansatzes für Teams von KI-Agenten für Geschäftsbeteiligte, wie in der CrewAI Dokumentation [unter Erste Schritte](https://github.com/crewAIInc/crewAI?tab=readme-ov-file#getting-started) beschrieben. Das Framework ermöglicht Organisationen:
+ Definieren Sie spezialisierte autonome Agenten mit spezifischen Rollen, Zielen und Fachgebieten.
+ Weisen Sie Agenten Aufgaben auf der Grundlage ihrer speziellen Fähigkeiten zu.
+ Richten Sie klare Abhängigkeiten zwischen Aufgaben ein, um strukturierte Workflows zu erstellen.
+ Orchestrieren Sie die Zusammenarbeit zwischen mehreren Agenten, um komplexe Probleme zu lösen.

Dieser rollenbasierte Ansatz spiegelt die menschlichen Teamstrukturen wider und macht es Unternehmensleitern leicht, ihn zu verstehen und umzusetzen. Organizations können autonome Teams mit speziellen Fachgebieten bilden, die zusammenarbeiten, um Geschäftsziele zu erreichen, ähnlich wie menschliche Teams arbeiten. Das autonome Team kann jedoch kontinuierlich ohne menschliches Eingreifen arbeiten.

## Beispiel aus der Praxis für CrewAI
<a name="real-world-example-of-crewai"></a>

AWS hat autonome Multi-Agenten-Systeme mithilfe von CrewAI implementiert, die in Amazon Bedrock integriert sind, wie in der [CrewAIveröffentlichten](https://www.crewai.com/case-studies/aws-powers-bedrock-agents-with-crewai) Fallstudie detailliert beschrieben. AWS und CrewAI entwickelte ein sicheres, herstellerneutrales Framework. Die CrewAI Open-Source-Architektur „Flows‑and‑Crews“ lässt sich nahtlos in die Grundmodelle, Speichersysteme und Compliance-Richtlinien von Amazon Bedrock integrieren.

Zu den wichtigsten Elementen der Implementierung gehören:
+ **Blueprints und Open Sourcing** — AWS und CrewAI [veröffentlichte Referenzdesigns](https://aws.amazon.com/blogs/machine-learning/build-agentic-systems-with-crewai-and-amazon-bedrock/), die CrewAI Agenten Amazon Bedrock-Modellen und Observability-Tools zuordnen. Außerdem veröffentlichten sie beispielhafte Systeme wie ein Team für AWS Sicherheitsüberprüfungen mit mehreren Mitarbeitern, Abläufe zur Code-Modernisierung und Backoffice-Automatisierung für Konsumgüter (CPG).
+ **Integration des Observability‑Stacks** — Die Lösung integriert die Überwachung in Amazon CloudWatch und ermöglicht so Rückverfolgbarkeit und LangFuse Debugging vom Machbarkeitsnachweis bis zur Produktion. AgentOps
+ **Nachgewiesene Investitionsrendite (ROI) — Erste** Pilotprojekte zeigen wichtige Verbesserungen: 70 Prozent schnellere Ausführung bei einem großen Code-Modernisierungsprojekt und etwa 90 Prozent Verkürzung der Verarbeitungszeit für CPG-Backoffice-Abläufe.

# AutoGen
<a name="autogen"></a>

[https://www.microsoft.com/en-us/research/project/autogen/](https://www.microsoft.com/en-us/research/project/autogen/)ist ein Open-Source-Framework, das ursprünglich von veröffentlicht wurde. Microsoft AutoGenkonzentriert sich darauf, autonome KI-Agenten zur Konversation und Zusammenarbeit zu ermöglichen. Es bietet eine flexible Architektur für den Aufbau von Systemen mit mehreren Agenten, wobei der Schwerpunkt auf asynchronen, ereignisgesteuerten Interaktionen zwischen Agenten für komplexe autonome Workflows liegt.

## Hauptmerkmale von AutoGen
<a name="key-features-of-autogen"></a>

AutoGenbietet die folgenden Hauptfunktionen:
+ **Konversationsagenten** — Basiert auf Konversationen zwischen autonomen Agenten in natürlicher Sprache und ermöglicht so anspruchsvolles Denken im Dialog. Weitere Informationen finden Sie in der Dokumentation unter [Multi-Agent Conversation Framework](https://microsoft.github.io/autogen/docs/Use-Cases/agent_chat). AutoGen
+ **Asynchrone Architektur** — Ereignisgesteuertes Design für blockierungsfreie autonome Agenteninteraktionen, das komplexe parallel Workflows unterstützt. Weitere Informationen finden Sie in der Dokumentation unter [Mehrere Aufgaben in einer Folge von asynchronen Chats lösen](https://microsoft.github.io/autogen/0.2/docs/notebooks/agentchat_multi_task_async_chats/). AutoGen
+ **H uman-in-the-loop** — Starke Unterstützung für die optionale Beteiligung von Personen an ansonsten autonomen Agenten-Workflows, falls erforderlich. Weitere Informationen finden Sie [in der AutoGen Dokumentation unter Zulassen von menschlichem Feedback bei Agenten](https://microsoft.github.io/autogen/0.2/docs/tutorial/human-in-the-loop/).
+ **Codegenerierung und -ausführung** — Spezialisierte Funktionen für codeorientierte autonome Agenten, die Code schreiben und ausführen können. Weitere Informationen finden Sie in der [Dokumentation unter Codeausführung](https://microsoft.github.io/autogen/stable/user-guide/core-user-guide/design-patterns/code-execution-groupchat.html). AutoGen
+ **Individuell anpassbares Verhalten** — Flexible autonome Agentenkonfiguration und Konversationssteuerung für verschiedene Anwendungsfälle. Weitere Informationen finden Sie in der Dokumentation unter [agentchat.conversable\$1agent](https://microsoft.github.io/autogen/docs/reference/agentchat/conversable_agent). AutoGen
+ **Auswahl des Foundation-Modells** — Support für verschiedene Foundation-Modelle, darunter Anthropic Claude, Amazon Nova-Modelle (Premier, Pro, Lite und Micro) auf Amazon Bedrock und andere für verschiedene Funktionen für autonomes Denken. Weitere Informationen finden Sie in der Dokumentation unter [LLM-Konfiguration](https://microsoft.github.io/autogen/docs/topics/llm_configuration). AutoGen
+ **LLM-API-Integration** — Standardisierte Konfiguration für mehrere LLM-Serviceschnittstellen, darunter Amazon Bedrock, undOpenAI. Azure OpenAI Weitere Informationen finden Sie unter [oai.openai\$1utils](https://microsoft.github.io/autogen/docs/reference/oai/openai_utils) in der API-Referenz. AutoGen
+ **Multimodale Verarbeitung** — Support für Text- und Bildverarbeitung, um umfangreiche multimodale Interaktionen mit autonomen Agenten zu ermöglichen. Weitere Informationen finden Sie in der Dokumentation unter [Umgang mit multimodalen Modellen: GPT-4V](https://microsoft.github.io/autogen/0.2/docs/notebooks/agentchat_lmm_gpt-4v/). AutoGen AutoGen

## Wann sollte es verwendet werden AutoGen
<a name="when-to-use-autogen"></a>

AutoGeneignet sich besonders gut für Szenarien mit autonomen Agenten, darunter:
+ Anwendungen, die für komplexes Denken natürliche Konversationsabläufe zwischen autonomen Agenten erfordern
+ Projekte, die sowohl einen vollständig autonomen Betrieb als auch optionale Funktionen zur menschlichen Überwachung benötigen
+ Anwendungsfälle, die autonome Codegenerierung, Ausführung und Debugging ohne menschliches Eingreifen beinhalten
+ Szenarien, die flexible, asynchrone Kommunikationsmuster für autonome Agenten erfordern

## Implementierungsansatz für AutoGen
<a name="implementation-approach-for-autogen"></a>

AutoGenbietet einen dialogorientierten Implementierungsansatz für Geschäftsbeteiligte, wie in der AutoGen Dokumentation [unter Erste Schritte](https://microsoft.github.io/autogen/docs/Getting-Started) beschrieben. Das Framework ermöglicht Organisationen:
+ Erstellen Sie autonome Agenten, die über Konversationen in natürlicher Sprache kommunizieren.
+ Implementieren Sie asynchrone, ereignisgesteuerte Interaktionen zwischen mehreren Agenten.
+ Kombinieren Sie bei Bedarf einen vollständig autonomen Betrieb mit optionaler menschlicher Aufsicht.
+ Entwickeln Sie spezialisierte Agenten für verschiedene Geschäftsfunktionen, die im Dialog zusammenarbeiten.

Dieser dialogorientierte Ansatz macht die Argumentation des autonomen Systems transparent und für Geschäftsanwender zugänglich. Entscheidungsträger können den Dialog zwischen den Akteuren beobachten, um zu verstehen, wie Schlussfolgerungen gezogen werden, und optional an der Konversation teilnehmen, wenn menschliches Urteilsvermögen gefragt ist.

## Ein Beispiel aus der Praxis für AutoGen
<a name="real-world-example-of-autogen"></a>

Magentic-One[ist ein generalistisches Open-Source-Multiagentensystem, das entwickelt wurde, um komplexe, mehrstufige Aufgaben in unterschiedlichen Umgebungen autonom zu lösen, wie im AI Frontiers-Blog beschrieben. Microsoft ](https://www.microsoft.com/en-us/research/articles/magentic-one-a-generalist-multi-agent-system-for-solving-complex-tasks/) Sein Herzstück ist der Orchestrator-Agent, der übergeordnete Ziele zerlegt und Fortschritte mithilfe strukturierter Ledger verfolgt. Dieser Agent delegiert Unteraufgaben an spezialisierte Agenten (wieWebSurfer,, undComputerTerminal) und passt sich dynamisch an FileSurferCoder, indem er bei Bedarf neu plant. 

Das System basiert auf dem AutoGen Framework, ist modellunabhängig und verwendet standardmäßig GPT‑4o. Es erreicht bei Benchmarks wie, und eine Leistung auf dem neuesten Stand der Technik — und das alles ohne aufgabenspezifische Feinabstimmung. GAIA AssistantBench WebArena Darüber hinaus unterstützt es modulare Erweiterbarkeit und eine strenge Evaluierung anhand von Vorschlägen. AutoGenBench

# LlamaIndex
<a name="llamaindex"></a>

[https://www.llamaindex.ai/](https://www.llamaindex.ai/)ist ein Datenframework, das speziell für die Verbindung umfangreicher Sprachmodelle (LLMs) mit externen Datenquellen entwickelt wurde, um anspruchsvolle Retrieval Augmented Generation (RAG) und agentische KI-Anwendungen zu ermöglichen. Das Framework bietet Abstraktionen und beschleunigte Entwicklungsworkflows für agentische Systeme, benutzerdefinierte Orchestrierungsmuster und Systemintegrationen, die für wissensgestützte KI-Lösungen weniger Aufwand bedeuten. time-to-production

## Hauptmerkmale von LlamaIndex
<a name="key-features-of-llamaindex"></a>

LlamaIndexbietet einen umfassenden Funktionsumfang, der sich besonders für KI-Anwendungen in Unternehmen eignet:
+ **Datenzentrierte Architektur** — Hervorragend geeignet für das Erfassen, Indexieren und Abrufen von Informationen aus über 100 Datenformaten, darunter Word-Dokumenten PDFs, Microsoft Tabellen und mehr. Das Framework wandelt Unternehmensdaten in abfragbare Wissensdatenbanken um, die für KI-Agenten optimiert sind. Weitere Informationen finden Sie in der [LlamaIndex-Dokumentation](https://developers.llamaindex.ai/).
+ **Produktionsbereite Bereitstellung** — LlamaIndex bietet sowohl Open-Source-Frameworks als auch Managed Services und bietet Funktionen auf Unternehmensebene wie SicherheitskontrollenLlamaCloud, Skalierbarkeit, Integrationen zur Beobachtbarkeit und Flexibilität bei der Bereitstellung. [Weitere Informationen finden Sie in der Framework-Dokumentation. LlamaIndex](https://developers.llamaindex.ai/python/framework/) 
+ **Erweiterte Dokumentenverarbeitung** — LlamaCloud bietet Funktionen zum Analysieren, Extrahieren, Indexieren und Abrufen von Dokumenten, die komplexe Layouts, verschachtelte Tabellen, multimodale Inhalte und sogar handschriftliche Notizen verarbeiten. Dieses ausgeklügelte Parsing ermöglicht es Mitarbeitern, effektiv mit realen Unternehmensdokumenten zu arbeiten, die Diagramme, Diagramme und komplexe Formatierungen enthalten. Weitere Informationen finden Sie in der [LlamaCloud-Dokumentation](https://developers.llamaindex.ai/python/cloud/). 
+ **Workflow-Orchestrierung** — LlamaAgents bietet eine ereignisgesteuerte, asynchrone Orchestrierungs-Engine zum Aufbau mehrstufiger Agentensysteme. Workflows unterstützen komplexe Muster wie Schleifen, parallel Ausführung, bedingte Verzweigung und statusbehaftete Wiederaufnahme, wodurch sie sich ideal für anspruchsvolle Agenteninteraktionen eignen. [Weitere Informationen finden Sie in der LlamaIndex Workflow-Dokumentation.](https://developers.llamaindex.ai/python/framework/understanding/workflows/)
+ **Agentenabruffunktionen** — Erweiterte Abrufmodi wie Hybridsuche, semantische Suche und automatisches Routing, die auf intelligente Weise die beste Abrufstrategie für jede Abfrage bestimmen. Das Framework unterstützt den kombinierten Abruf mehrerer Wissensdatenbanken mit Neueinstufungen zur Erhöhung der Genauigkeit. [Weitere Informationen finden Sie in der LlamaIndex RAG-Dokumentation.](https://developers.llamaindex.ai/python/framework/understanding/rag/) 
+ **Beobachtbarkeit und Bewertung** — LlamaIndex lässt sich in eine Vielzahl von Beobachtungs- und Bewertungsinstrumenten integrieren. Diese Integrationsfunktion hilft Ihnen dabei, Ihre Anwendungen zu verfolgen und zu debuggen, ihre Leistung zu bewerten und die Kosten zu überwachen. [Weitere Informationen finden Sie in der Dokumentation [Tracing, Debugging and Evaluating](https://developers.llamaindex.ai/python/framework/understanding/tracing_and_debugging/tracing_and_debugging/).](https://developers.llamaindex.ai/python/framework/module_guides/evaluating) LlamaIndex

## Wann sollte es verwendet werden LlamaIndex
<a name="when-to-use-llamaindex"></a>

LlamaIndexeignet sich besonders gut für agentische KI-Szenarien, in denen datenintensive Workflows und Wissensmanagement im Vordergrund stehen:
+ Dokumentenintensive Anwendungen, bei denen Agenten große Mengen an Unternehmensdokumenten wie Verträgen, Berichten, Handbüchern und behördlichen Unterlagen verarbeiten, analysieren und Erkenntnisse daraus gewinnen müssen
+ Schnelles Prototyping bis hin zu Produktionsszenarien, in denen Unternehmen schnell dokumentenorientierte Agenten ohne großen Aufwand für das Infrastrukturmanagement erstellen und einsetzen möchten
+ RAG-First-Architekturen, bei denen Genauigkeit und Kontextrelevanz im Vordergrund stehen, insbesondere bei der Arbeit mit komplexen, multimodalen Dokumenten, die Tabellen, Bilder und strukturierte Daten enthalten
+ Dokumenten-Workflows mit mehreren Agenten, die spezialisierte Agenten für verschiedene Aspekte der Dokumentenverarbeitung erfordern, z. B. Analyse, Zusammenfassung und Konformitätsprüfung

## Implementierungsansatz für LlamaIndex
<a name="implementation-approach-for-llamaindex"></a>

LlamaIndex bietet sowohl Bausteine auf niedriger Ebene als auch Abstraktionen auf hoher Ebene, die unterschiedlichen Implementierungsansätzen Rechnung tragen:
+ Schnelle Entwicklung funktionaler RAG-Anwendungen in nur wenigen Codezeilen mithilfe LlamaIndex von High-Level. APIs Dieser Ansatz ist für Geschäftsteams und Entwickler LlamaIndex zugänglich, die noch keine Erfahrung mit agentischer KI haben. 
+ Unternehmensintegration durch LlamaHub für beliebte Unternehmenssysteme wie SharePoint Amazon Simple Storage Service (Amazon S3), Datenbanken und APIs. Dieser Ansatz ermöglicht eine nahtlose Integration in die bestehende Dateninfrastruktur.
+ Flexible Bereitstellungsoptionen zwischen selbst gehosteten Open-Source-Bereitstellungen für maximale Kontrolle oder LlamaCloud verwalteten Diensten für weniger Betriebskosten und Unternehmensfunktionen.
+ Anwendungen können mit einfachen Abfrage-Engines beginnen und nach und nach um Agentenfunktionen, Orchestrierung mehrerer Agenten und komplexe Workflows erweitern, wenn sich die Anforderungen ändern. 

## Ein Beispiel aus der Praxis für LlamaIndex
<a name="real-world-example-llamaindex"></a>

Dieses Beispiel konzentriert sich auf eine Tochtergesellschaft eines Luft- und Raumfahrtunternehmens, das sich auf Navigations- und Betriebslösungen für die Luftfahrt spezialisiert hat. Sie müssen sich einer wachsenden Herausforderung stellen, zu der die Erprobung unkoordinierter KI-Chatbot-Versuche gehört. Die Versuche führten zu wiederholter Arbeit, langen Entwicklungszyklen, Compliance-Hindernissen und isolierten Implementierungen im gesamten Unternehmen. 

Sie entwickelten ein einheitliches Agenten-Framework, eine wiederverwendbare, auf Vorlagen basierende Lösung, die auf dem LlamaIndex Open-Source-Framework basiert und die Agentenerstellung erheblich effizienter macht. Sie verglichen mehrere konkurrierende Frameworks, sowohl kettenorientiert als auch grafisch. Letztlich entschieden sie sich LlamaIndex für drei entscheidende Vorteile: das flexible Design, die modularen Komponenten und die produktionsreife Orchestrierungssteuerung.

Die Plattform reduziert die Zeit für die Entwicklung und Bereitstellung von Agenten um 87% von 512 auf 64 Stunden. Diese Reduzierung wurde dadurch erreicht, dass Teams Agenten mit etwa 50 Codezeilen und einer JSON-Konfigurationsdatei erstellen konnten. Die Teams nutzten ein einheitliches Framework mit integrierter Sicherheit, Compliance und privilegiertem Systemzugriff. Weitere Informationen finden Sie in den [Fallstudien von LlamaIndex Kunden](https://www.llamaindex.ai/customers).

# Vergleich agentischer KI-Frameworks
<a name="comparing-agentic-ai-frameworks"></a>

Berücksichtigen Sie bei der Auswahl eines agentischen KI-Frameworks für die Entwicklung autonomer Agenten, wie jede Option Ihren spezifischen Anforderungen entspricht. Berücksichtigen Sie nicht nur die technischen Fähigkeiten, sondern auch die organisatorische Eignung, einschließlich der Expertise des Teams, der vorhandenen Infrastruktur und der langfristigen Wartungsanforderungen. Viele Unternehmen könnten von einem hybriden Ansatz profitieren, bei dem mehrere Frameworks für verschiedene Komponenten ihres autonomen KI-Ökosystems genutzt werden.

In der folgenden Tabelle werden die Reifegrade (am stärksten, am stärksten, angemessen oder schwach) der einzelnen Frameworks anhand der wichtigsten technischen Dimensionen verglichen. Für jedes Framework enthält die Tabelle auch Informationen zu den Optionen für den Einsatz in der Produktion und zur Komplexität der Lernkurve.


| 
| 
| **Framework** | **AWS Integration** | **Autonome Unterstützung für mehrere Agenten** | **Komplexität des autonomen Workflows** | **Multimodale Fähigkeiten** | **Auswahl des Fundamentmodells** | **LLM-API-Integration** | **Einsatz in der Produktion** | **Lernkurve** | 
| --- |--- |--- |--- |--- |--- |--- |--- |--- |
| AutoGen | Schwach | Stark | Stark | Ausreichend | Ausreichend | Stark | Mach es selbst (DIY) | Steil | 
| CrewAI | Schwach | Stark | Ausreichend | Schwach | Ausreichend | Ausreichend | DIY | Mittel | 
| LangChain/LangGraph | Ausreichend | Stark | Am stärksten | Am stärksten | Am stärksten | Am stärksten | Plattform oder DIY | Steil | 
|  LlamaIndex  |  Ausreichend  |  Ausreichend  |  Stark  |  Ausreichend  |  Stark  |  Stark  |  Plattform oder DIY  |  Mittel  | 
| Strands Agents | Am stärksten | Stark | Am stärksten | Stark | Stark | Am stärksten | DIY | Mittel | 

## Überlegungen bei der Auswahl eines agentischen KI-Frameworks
<a name="considerations-in-choosing-an-agentic-ai-framework"></a>

Berücksichtigen Sie bei der Entwicklung autonomer Agenten die folgenden Schlüsselfaktoren:
+ **AWS Infrastrukturintegration** — Organizations, in die viel investiert AWS wird, werden am meisten von den nativen Integrationen von Strands Agents AWS-Services für autonome Workflows profitieren. Weitere Informationen finden Sie unter [AWS Weekly Roundup (Blog](https://aws.amazon.com/blogs/aws/aws-weekly-roundup-strands-agents-aws-transform-amazon-bedrock-guardrails-aws-codebuild-and-more-may-19-2025/))AWS .
+ **Auswahl des Foundation-Modells** — Überlegen Sie anhand der Argumentationsanforderungen Ihres autonomen Agenten, welches Framework Ihre bevorzugten Foundation-Modelle am besten unterstützt (z. B. Amazon Nova-Modelle auf Amazon Bedrock oder Anthropic Claude). Weitere Informationen finden Sie auf der Website unter [Building Effective Agents](https://www.anthropic.com/engineering/building-effective-agents). Anthropic
+ **LLM-API-Integration** — Evaluieren Sie Frameworks auf der Grundlage ihrer Integration mit Ihren bevorzugten Large Language Model (LLM) -Serviceschnittstellen (z. B. Amazon Bedrock oderOpenAI) für die Produktionsbereitstellung. Weitere Informationen finden Sie in der Dokumentation unter [Model Interfaces](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/#basic-usage).  Strands Agents
+ **Multimodale Anforderungen** — Bei autonomen Agenten, die Text, Bilder und Sprache verarbeiten müssen, sollten Sie die multimodalen Fähigkeiten der einzelnen Frameworks berücksichtigen. Weitere Informationen finden Sie in der Dokumentation unter [Multimodalität.](https://python.langchain.com/docs/concepts/chat_models/#multimodality) LangChain
+ **Komplexität autonomer Workflows — Komplexere** autonome Workflows mit ausgefeilter Zustandsverwaltung könnten die fortschrittlichen Funktionen von State Machines begünstigen. von. LangGraph
+ **Autonome Teamzusammenarbeit** — Projekte, die eine explizite, rollenbasierte, autonome Zusammenarbeit zwischen spezialisierten Mitarbeitern erfordern, können von der teamorientierten Architektur von profitieren. CrewAI
+ **Paradigma der autonomen Entwicklung** — Teams, die asynchrone Konversationsmuster für autonome Agenten bevorzugen, bevorzugen möglicherweise die ereignisgesteuerte Architektur von. AutoGen
+ **Verwalteter oder codebasierter Ansatz** — Organizations, die eine vollständig verwaltete Erfahrung mit minimalem Programmieraufwand wünschen, sollten Amazon Bedrock Agents in Betracht ziehen. Organizations, die eine tiefere Anpassung benötigen, bevorzugen Strands Agents möglicherweise andere Frameworks mit speziellen Funktionen, die besser auf die spezifischen Anforderungen autonomer Agenten zugeschnitten sind.
+ **Produktionsreife autonomer Systeme** — Erwägen Sie Bereitstellungsoptionen, Überwachungsmöglichkeiten und Unternehmensfunktionen für autonome Produktionsagenten.