

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# LLM-Workflows
<a name="llm-workflows"></a>

Im Rahmen von Agentenmustern haben wir die gängigen Muster von KI-Agenten untersucht, die jeweils auf einer Reihe modularer Funktionen basieren: Wahrnehmung, Handlung, Lernen und Kognition. Das Herzstück des kognitiven Moduls vieler Agentenmuster ist ein großes Sprachmodell (LLM), das in der Lage ist, zu argumentieren, zu planen und Entscheidungen zu treffen. Der alleinige Aufruf eines LLM reicht jedoch nicht aus, um intelligentes, zielgerichtetes Verhalten zu erzeugen.

Um komplexe Aufgaben zuverlässig ausführen zu können, müssen Agenten das LLM in einen strukturierten Workflow einbetten, in dem die Funktionen des Modells durch Tools, Speicher, Planungsschleifen und Koordinationslogik erweitert werden. Diese LLM-Workflows ermöglichen es einem Agenten, Ziele aufzuschlüsseln, Unteraufgaben weiterzuleiten, externe Dienste in Anspruch zu nehmen, Ergebnisse zu analysieren und sich mit anderen Agenten abzustimmen.

In diesem Kapitel werden die wichtigsten Entwurfsmuster für die Erstellung robuster, erweiterbarer und intelligenter LLM-gestützter kognitiver Module vorgestellt, die auf wiederverwendbaren Workflows basieren.

**Topics**
+ [Überblick über LLM-erweiterte Kognition](overview-of-llm-augmented-cognition.md)
+ [Arbeitsablauf für schnelle Verkettung](workflow-for-prompt-chaining.md)
+ [Arbeitsablauf für das Routing](workflow-for-routing.md)
+ [Workflow für die Parallelisierung](workflow-for-parallelization.md)
+ [Workflow für die Orchestrierung](workflow-for-orchestration.md)
+ [Arbeitsablauf für Evaluatoren und Reflect-Refine-Schleifen](workflow-for-evaluators-and-reflect-refine-loops.md)
+ [Schlussfolgerung](conclusion-llm-workflows.md)

# Überblick über LLM-erweiterte Kognition
<a name="overview-of-llm-augmented-cognition"></a>

Im Kern kann das kognitive Modul eines Softwareagenten als ein in Erweiterungen verpacktes LLM betrachtet werden. Der Agent kann die folgenden Bausteine verwenden, um in seiner Umgebung effektiv zu argumentieren:
+ **Eingabeaufforderung** — Eingaben anhand von Kontext, Anweisungen, Beispielen und Speicher strukturieren
+ **Abruf** — Bereitstellung von up-to-date domänenspezifischem Wissen an die LLM-Eingabeaufforderung durch Vektorsuche oder semantisches Gedächtnis, z. B. durch Retrieval-Augmented Generation (RAG)
+ **Verwendung von Tools** — Ermöglicht es dem LLM, Funktionen aufzurufen oder aufzurufen, um Informationen abzurufen oder darauf zu reagieren APIs 
+ **Speicher** — Einbindung eines dauerhaften Zustands oder eines sitzungsbasierten Zustands in die Argumentationsschleife, entweder mithilfe strukturierter Datenbanken oder kontextueller Zusammenfassungen

Diese Erweiterungen bestehen aus Workflows, die definieren, wie das LLM im Laufe der Zeit und aufgabenübergreifend genutzt wird, wodurch es von einer zustandslosen Engine in einen dynamischen Argumentationsmechanismus umgewandelt wird.

![\[LLM-Erweiterung.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/agentic-ai-patterns/images/llm-augmentation.png)


# Arbeitsablauf für schnelle Verkettung
<a name="workflow-for-prompt-chaining"></a>

Prompt Chaining zerlegt komplexe Aufgaben in eine Abfolge von Schritten, wobei jeder Schritt ein diskreter LLM-Aufruf ist, der die Ausgabe des vorherigen verarbeitet oder darauf aufbaut.

![\[Workflow für die sofortige Verkettung.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/agentic-ai-patterns/images/workflow-for-prompt-chaining.png)


Der Workflow zur Verkettung von Eingabeaufforderungen eignet sich für Szenarien, in denen Aufgaben logisch in sequentielle Argumentationsschritte unterteilt werden können und in denen Zwischenergebnisse als Grundlage für die nächste Phase dienen. Er eignet sich hervorragend für Workflows, die strukturiertes Denken, fortschreitende Transformation oder mehrschichtige Analysen erfordern, wie z. B. die Überprüfung von Dokumenten, die Codegenerierung, die Extraktion von Wissen und die Verfeinerung von Inhalten.

## Description
<a name="description-prompt-chaining"></a>
+ Die Komplexität der Aufgabe übersteigt das Kontextfenster oder die Argumentationstiefe eines einzelnen LLM-Anrufs.
+ Die Ergebnisse eines Schritts (z. B. Analyse, Zusammenfassung oder Planung) werden zu Inputs für eine Folgeentscheidungs- oder Generierungsphase.
+ Sie benötigen Transparenz und Kontrolle in allen Phasen der Argumentation (z. B. überprüfbare Zwischenergebnisse).
+ Sie möchten zwischen den Schritten eine externe Validierungs-, Filter- oder Anreicherungslogik einbauen.
+ Es ist ideal für Agenten, die in Denkschleifen im Pipeline-Stil arbeiten, wie z. B. Rechercheagenten, Redaktionsassistenten, Planungssysteme und mehrstufige Copiloten.

## Capabilities
<a name="capabilities-prompt-chaining"></a>
+ Lineare oder verzweigte Ketten von LLM-Aufrufen
+ Zwischenergebnisse wurden als strukturierte Eingabe weitergegeben oder in Folgeaufforderungen eingebettet
+ Kann mit, oder agentenspezifischen AWS Step Functions Runnern AWS Lambda orchestriert werden

## Häufige Anwendungsfälle
<a name="common-use-cases-prompt-chaining"></a>
+ Mehrstufige Aufgaben zum Argumentieren (z. B. „Kritik zusammenfassen, neu schreiben“)
+ Wissenschaftliche Mitarbeiter, die mehrschichtige Ergebnisse zusammenfassen (z. B. „Suchen, Fakten extrahieren, Frage beantworten“)
+ Pipelines zur Codegenerierung („Plan generieren, Code schreiben, Testcode erklären, Ausgabe erklären“)

# Arbeitsablauf für das Routing
<a name="workflow-for-routing"></a>

Im Routing-Muster verwendet ein Classifier oder Router-Agent ein LLM, um die Absicht oder Kategorie einer Abfrage zu interpretieren, und leitet die Eingabe dann an eine spezialisierte Downstream-Aufgabe oder einen Agenten weiter.

![\[Workflow für das Routing.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/agentic-ai-patterns/images/workflow-for-routing.png)


Der Routing-Workflow wird in Szenarien verwendet, in denen ein Agent die Eingabeabsicht, den Aufgabentyp oder die Domäne schnell klassifizieren und die Anfrage dann an einen speziellen Subagenten, ein Tool oder einen Workflow delegieren muss. Er ist besonders nützlich für Capability Agents, z. B. solche, die als allgemeine Assistenten, Eingangstüren zu Unternehmensfunktionen oder domänenübergreifende KI-Benutzeroberflächen für Benutzer dienen.

Routing ist besonders effektiv, wenn:
+ Sortierung von Anfragen anhand einer Vielzahl von Aufgaben (z. B. Suche, Zusammenfassung, Buchung, Berechnungen).
+ Eingaben müssen vorverarbeitet oder normalisiert werden, bevor sie in speziellere Workflows aufgenommen werden können.
+ Verschiedene Eingabetypen (z. B. Bilder im Vergleich zu Text, strukturierte und unstrukturierte Abfragen) erfordern eine individuelle Handhabung.
+ Ein Agent fungiert als Konversationszentrale und delegiert Aufgaben an spezialisierte Agenten oder Microservices.
+ Dieser Workflow ist bei domänenspezifischen Copiloten, Bots für den Kundensupport, Enterprise Service Routern und multimodalen Agenten üblich, bei denen intelligentes Dispatching sowohl die Qualität als auch die Effizienz des Agentenverhaltens bestimmt.

## Capabilities
<a name="capabilities-routing"></a>
+ Ein First-Pass-LM fungiert als Dispatcher
+ Routen können unterschiedliche Workflows oder sogar andere Agentenmuster aufrufen
+ Unterstützt die modulare Erweiterung von Funktionen

## Häufige Anwendungsfälle
<a name="common-use-cases-routing"></a>
+ Multidomain-Assistenten („Ist das eine rechtliche, medizinische oder finanzielle Frage?“)
+ Die Entscheidungsbäume wurden durch LLM-Argumentation erweitert
+ Dynamische Werkzeugauswahl (z. B. Suche im Vergleich zur Codegenerierung)

# Workflow für die Parallelisierung
<a name="workflow-for-parallelization"></a>

Dieser Workflow beinhaltet die Unterteilung einer Aufgabe in unabhängige Unteraufgaben, die gleichzeitig von mehreren LLM-Aufrufen oder Agenten bearbeitet werden können. Die Ergebnisse werden dann programmgesteuert aggregiert und zu einem Ergebnis zusammengefasst.

![\[Workflow für die Parallelisierung.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/agentic-ai-patterns/images/workflow-patterns-llm-parallelization.png)


Der Parallelisierungs-Workflow wird verwendet, wenn eine Aufgabe in unabhängige, nicht sequentielle Unteraufgaben aufgeteilt werden kann, die gleichzeitig verarbeitet werden können, wodurch Effizienz, Durchsatz und Skalierbarkeit erheblich verbessert werden. Er ist besonders leistungsstark in datenintensiven, stapelorientierten oder multiperspektivischen Problembereichen, in denen der Agent Inhalte für mehrere Eingaben analysieren oder generieren muss.

Parallelisierung ist besonders effektiv, wenn:
+ Teilaufgaben hängen nicht von den Zwischenergebnissen der jeweils anderen ab, sodass sie ohne Koordination parallel ausgeführt werden können.
+ Eine Aufgabe besteht darin, denselben Argumentationsprozess für viele Aufgaben zu wiederholen (z. B. das Zusammenfassen mehrerer Dokumente oder das Auswerten einer Liste von Optionen).
+ Mehrere Hypothesen oder Perspektiven werden parallel untersucht, um Vielfalt, Kreativität oder Robustheit zu fördern.
+ Sie müssen die Latenz für Anfragen mit hohem Volumen oder hoher Frequenz durch gleichzeitige LLM-Ausführung reduzieren.
+ Dieser Workflow wird häufig in Dokumentenverarbeitungsagenten, Umfrage- oder Vergleichs-Engines, Batchzusammenfassungen, Brainstormern mit mehreren Agenten und skalierbaren Klassifizierungs- oder Kennzeichnungsaufgaben verwendet, insbesondere dort, wo schnelles, paralleles Denken einen Leistungsvorteil darstellt.

## Capabilities
<a name="capabilities-parallelization"></a>
+ Parallele Ausführung von LLM-Aufgaben (mithilfe von, oder einem Map-Status) AWS Lambda AWS Fargate AWS Step Functions 
+ Erfordert die Abstimmung, Validierung oder Deduplizierung der Ergebnisse in der Synthesephase
+ Gut geeignet für Stateless Agent-Loops

## Häufige Anwendungsfälle
<a name="common-use-cases-parallelization"></a>
+ parallel Analyse mehrerer Dokumente oder Perspektiven
+ Generierung verschiedener Entwürfe, Zusammenfassungen oder Pläne
+ Beschleunigung des Durchsatzes bei Batch-Aufträgen

# Workflow für die Orchestrierung
<a name="workflow-for-orchestration"></a>

Ein zentraler Orchestrator-Agent verwendet ein LLM, um Unteraufgaben zu planen, zu zerlegen und an spezialisierte Worker Agents oder Modelle zu delegieren, die jeweils über eine bestimmte Rolle oder Fachkompetenz verfügen. Dies spiegelt die menschlichen Teamstrukturen wider und unterstützt aufkommendes Verhalten mehrerer Agenten.

![\[Workflow für die Orchestrierung.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/agentic-ai-patterns/images/workflow-for-orchestration.png)


Der Orchestrierungs-Workflow ist ideal für komplexe, hierarchische oder multidisziplinäre Szenarien, die eine strukturierte Zerlegung und spezielle Ausführung erfordern. Er eignet sich besonders gut für Aufgaben, die Arbeitsteilung erfordern und bei denen verschiedene Teilkomponenten einer Aufgabe am besten von Mitarbeitern mit unterschiedlichen Fähigkeiten, Kenntnissen oder Toolsets erledigt werden können.

Dieser Workflow ist besonders effektiv, wenn:
+ Aufgaben können in Unteraufgaben unterteilt werden, die sich in Umfang, Art oder Argumentation unterscheiden (z. B. Planung, Recherche, Implementierung und Test).
+ Ein LLM oder Metaagent muss andere Agenten koordinieren, den Fortschritt überwachen und die Ergebnisse zusammenfassen.
+ Sie möchten die Zuständigkeiten der Agenten modularisieren, um Skalierbarkeit, Wiederverwendung und spezielle Anpassungen zu ermöglichen.
+ Das System erfordert ein rollenbasiertes Verhalten, das nachahmt, wie menschliche Teams (z. B. Projektmanager, Entwickler und Prüfer) zusammenarbeiten.

Die Orchestrierung ist ideal für Multiturn-Planungsagenten, Co-Piloten für die Softwareentwicklung, Prozessagenten im Unternehmen und autonome Projektausführer. Sie ist besonders nützlich bei der Implementierung von Systemen mit mehreren Agenten, die eine zentrale Aufschlüsselung der Aufgaben, aber eine verteilte Ausführungslogik erfordern, wodurch Erweiterbarkeit und ein besser erklärbares Verhalten auf allen Agentenebenen ermöglicht werden.

## Capabilities
<a name="capabilities-orchestration"></a>
+ Orchestrator führt Meta-Argumentation zum Ziel durch
+ Worker-Agents können Toolzugriff, Speicher- oder domänenspezifische Eingabeaufforderungen beinhalten
+ Kann hierarchisch sein (d. h. mehrstufige Aufgabendelegierung)

## Häufige Anwendungsfälle
<a name="common-use-cases-orchestration"></a>
+ Projektmanager, koordinierende Forscher, Autoren und Qualitätssicherungsbeauftragte
+ Codierungs-Copiloten, die Planung, Ausführung und Testen kombinieren
+ Agenten, die Toolchains oder API-Zugriffsmuster überwachen

# Arbeitsablauf für Evaluatoren und Reflect-Refine-Schleifen
<a name="workflow-for-evaluators-and-reflect-refine-loops"></a>

Dieser Workflow bietet eine Feedback-Schleife, in der ein LLM ein Ergebnis generiert und ein anderer das Ergebnis bewertet oder kritisiert. Dies fördert Selbstreflexion, Optimierung und iterative Verbesserungen.

![\[Arbeitsablauf für den Evaluator.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/agentic-ai-patterns/images/workflow-patterns-evaluator-reflect-refine-feedback-loop.png)


Der Arbeitsablauf für Evaluatoren ist ideal für Szenarien, in denen Qualität, Genauigkeit und Ausrichtung der Ergebnisse wichtig sind und in denen die Generierung in einem Durchgang unzuverlässig oder unzureichend ist. Dieser Workflow eignet sich hervorragend, wenn Agenten ihre Ergebnisse selbst kritisieren, iterieren und verfeinern müssen — entweder, um einen höheren Korrektheitsstandard zu erreichen oder um auf der Grundlage von Feedback verbesserte Alternativen zu untersuchen.

Dieser Workflow ist besonders effektiv, wenn:
+ Das Ergebnis umfasst subjektive Qualitätskennzahlen (z. B. Stil, Ton und Lesbarkeit) oder objektive Kriterien (z. B. Richtigkeit, Sicherheit und Leistung).
+ Der Mitarbeiter muss Kompromisse abwägen, Einschränkungen abwägen oder auf ein Ziel hin optimieren.
+ Sie benötigen integrierte Redundanz und Qualitätssicherung, insbesondere in regulierten, kundenorientierten oder kreativen Bereichen.
+ Human-in-the-loop Eine Überprüfung ist teuer oder nicht verfügbar, und eine unabhängige Validierung ist erwünscht.

Dieser Workflow wird für die Generierung von Inhalten, die Codesynthese und -überprüfung, die Durchsetzung von Richtlinien, die Überprüfung der Ausrichtung, die Anpassung von Anweisungen und die RAG-Nachbearbeitung verwendet. Er eignet sich auch für Mitarbeiter, die sich selbst verbessern, da kontinuierliches Feedback dazu beiträgt, im Laufe der Zeit bessere Antworten zu entwickeln, um vertrauenswürdige, autonome Entscheidungsschleifen aufzubauen.

## Häufige Anwendungsfälle
<a name="common-use-cases-evaluators"></a>
+ Agenten im roten Team im Vergleich zu Agenten mit blauem Team
+ Agenten, die Code oder Pläne generieren, auswerten und überarbeiten
+ Qualitätssicherung, Erkennung von Halluzinationen und Durchsetzung von Stilen

## Capabilities
<a name="capabilities-evaluators"></a>
+ Unterstützt die entkoppelte Generierung und Auswertung mithilfe verschiedener Modelle (z. B. Claude für die Generierung und Mistral für die Bewertung)
+ Feedback wird strukturiert und verwendet, um zu überarbeiteten Ergebnissen zu gelangen
+ Unterstützt mehrere Iterationen oder Konvergenzschwellenwerte

# Schlussfolgerung
<a name="conclusion-llm-workflows"></a>

LLMs bilden den kognitiven Kern moderner Softwareagenten, aber der Aufruf von Rohmodellen reicht nicht aus, um zielgerichtete, robuste und kontrollierbare Intelligenz zu erreichen. Um von der Generierung von Output zu strukturiertem Denken und zielgerichtetem Verhalten überzugehen, LLMs muss der Übergang in bewusste Workflow-Muster erfolgen, die definieren, wie Modelle Eingaben verarbeiten, Kontexte verwalten und Aktionen koordinieren.

LLM-Workflows bieten Grundlagen für den Aufbau des kognitiven Moduls eines Agenten:
+ Prompt Chaining unterteilt komplexes Denken in modulare, überprüfbare Schritte.
+ Routing ermöglicht eine intelligente Aufgabenklassifizierung und gezielte Delegierung.
+ Parallelisierung beschleunigt den Durchsatz und fördert vielfältige Argumentationsmöglichkeiten.
+ Die Agentenorchestrierung strukturiert die Zusammenarbeit mehrerer Agenten durch Aufgabenzerlegung und rollenbasierte Ausführung.
+ Der Evaluator (Reflect-Refine-Loop) ermöglicht Selbstverbesserung, Qualitätskontrolle und Überprüfung der Ausrichtung.

Jeder Workflow stellt ein zusammensetzbares Muster dar, das an die Bedürfnisse des Agenten, die Komplexität der Aufgabe und die Erwartungen des Benutzers angepasst werden kann. Diese Workflows schließen sich nicht gegenseitig aus. Sie sind Bausteine, die häufig zu Hybridarchitekturen kombiniert werden, die dynamisches Denken, Koordination mehrerer Agenten und Zuverlässigkeit auf Unternehmensniveau unterstützen.

Wenn Sie zum nächsten Kapitel über behördliche Workflow-Muster übergehen, werden diese LLM-Workflows wieder als eingebettete Strukturen in größeren Systemen auftauchen und die Delegierung von Zielen, die Orchestrierung von Tools, Entscheidungsschleifen und die Autonomie des Lebenszyklus unterstützen. Die Beherrschung dieser LLM-Workflows ist entscheidend für die Entwicklung von Softwareagenten, die nicht nur Text vorhersagen, sondern auch logisch denken, sich anpassen und zielgerichtet handeln.