Muster 2: Agentische KI-Orchestrierung mit Amazon Bedrock - AWS Präskriptive Leitlinien

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Muster 2: Agentische KI-Orchestrierung mit Amazon Bedrock

Wenn Unternehmen versuchen, die Benutzerinteraktion zu verbessern, inhaltsintensive Workflows zu automatisieren und intelligentere Assistenten zu entwickeln, stehen sie vor einer Reihe von Herausforderungen:

  • Die Generierung von Inhalten ist arbeitsintensiv, inkonsistent und langsam (z. B. das Verfassen von Marketingtexten, Hilfeartikeln und Statuszusammenfassungen).

  • Benutzeroberflächen erfordern zunehmend personalisierte Konversationserlebnisse, die mit herkömmlichen Logikbäumen nicht unterstützt werden können. FAQs

  • Entwickler haben Schwierigkeiten, mehrere Systeme zu integrieren, relevante Informationen abzurufen und kohärente, kontextreiche Antworten in Echtzeit zu präsentieren.

Herkömmliche Automatisierungstools können starr sein. Sie folgen festen Regeln und können ihre Ergebnisse nicht an den Kontext, die Sprachnuance oder den Benutzerton anpassen.

Das Agentenmuster der KI-Orchestrierung: Flexibel, intelligent, zielorientiert

Das Agentic-KI-Orchestrierungsmuster führt mithilfe von Amazon Bedrock eine auf Large Language Model (LLM) basierende Orchestrierung in serverlosen Architekturen ein und ermöglicht Foundation Models (): FMs

  • Interpretieren Sie Eingabeaufforderungen in natürlicher Sprache.

  • Rufen Sie Tools oder nach APIs Bedarf auf.

  • Grundlegende Ergebnisse in Bezug auf Unternehmenswissen.

  • Generieren Sie dynamisch strukturierte, maßgeschneiderte Inhalte.

Mit Amazon Bedrock-Agenten wird die Orchestrierung autonom und zielgerichtet. Das LLM entscheidet, welche Tools aufgerufen, welche Informationen abgerufen werden und wie eine endgültige Antwort formuliert wird. Der agentische, zielorientierte Ansatz ist die Grundlage für digitale Assistenten, Content-Pipelines und intelligente Schnittstellen mit LLM-Unterstützung.

Die Referenzarchitektur implementiert jede Ebene wie folgt:

  • Ereignisauslöser — Verwendet Amazon API Gateway für Benutzereingaben, Chatbot-Nachrichten oder Business-Workflow-Auslöser

  • Vorverarbeitung — Implementiert AWS Lambda, um die Eingabe zu formatieren und die Absicht an den entsprechenden Amazon Bedrock-Agenten weiterzuleiten

  • Orchestrierung — Stellt den Amazon Bedrock-Agenten bereit, um die Aufforderung zu analysieren, Tools aufzurufen (z. B. Lambda und Daten APIs) und den Wissensdatenbankkontext abzurufen

  • Inferenz — Verwendet den Agenten, um das FM aufzurufen (z. B. Anthropic Claude oder Amazon Nova Pro), um die Antwort zu generieren

  • Nachbearbeitung — Verwendet Lambda, um die Ausgabe vor der Auslieferung zu protokollieren, zu validieren oder anzureichern

  • Ausgabe — Liefert Antworten ins Internet, in Apps oder speichert sie in Amazon Simple Storage Service (Amazon S3) oder Amazon OpenSearch Service.

Anwendungsfall: Automatisierte Generierung von Marketinginhalten

Ein Marketingteam verbringt Stunden damit, Produktzusammenfassungen, Auszüge aus der Suchmaschinenoptimierung (SEO) und E-Mail-Texte für neue Produkteinführungen in mehreren Regionen und Sprachen zu schreiben. Manuelles Verfassen von Texten ist teuer, langsam und inkonsistent.

Für diesen Anwendungsfall besteht die generative KI-Orchestrierungslösung aus den folgenden Schritten:

  1. Ein Marketer gibt minimale Produktdetails wie Name, Merkmale und Zielmarkt über ein Webformular ein.

  2. API Gateway leitet die Eingabe an einen Amazon Bedrock-Agenten weiter.

  3. Der Agent macht Folgendes:

    • Fragt in einer Wissensdatenbank nach dem Markenton, bestehenden Produktbeschreibungen und behördlichen Richtlinien

    • Ruft eine Lambda-Funktion auf, um Daten zur Wettbewerbspositionierung aus internen Quellen abzurufen APIs

    • Erstellt mit Amazon Nova Pro eine lokalisierte, markenkonsistente Produktbeschreibung

  4. Die generierte Kopie wird über die Benutzeroberfläche zurückgegeben und zur Qualitätssicherung und Verteilung in Amazon S3 archiviert.

Dieser gesamte Workflow ist in Sekundenschnelle orchestriert und bietet vollständige Rückverfolgbarkeit und Anpassungsfähigkeit.

Warum Orchestrierung mit Amazon Bedrock Agents wichtig ist

Mit Amazon Bedrock Agents definieren Entwickler Tools und Ziele, keine komplexen Workflows. Das LLM fördert die Orchestrierung mithilfe natürlicher Sprache.

In der folgenden Tabelle werden traditionelle Orchestrierungsansätze mit agentischer KI-Orchestrierung mithilfe von Amazon Bedrock Agents verglichen.

Challenge

Traditioneller Orchestrierungsansatz

Agenturseitige KI-Orchestrierung

Unstrukturierter Input

Manuelles Routing

LLMs Bedeutung und Absicht interpretieren.

Koordination der Tools

Hartcodierte Integrationslogik

Der Agent wählt die Tools zur Laufzeit aus.

Generierung von Inhalten

Menschliches Bemühen oder Vorlagen

Generierung auf Abruf und anpassungsfähig.

Personalisierung

Statische Regeln oder Benutzersegmente

Semantisch fundierte Anpassung in Echtzeit.

Überlegungen zur Unternehmensführung bei der LLM-Orchestrierung

Mit einer leistungsstarken Orchestrierung geht Verantwortung einher. Unternehmen, die dieses Muster anwenden, sollten:

  • Eingabeaufforderungen, Tools und Agentenkonfigurationen für Versionen und Überprüfungen.

  • Implementieren Sie Grounding mithilfe von Amazon Bedrock Knowledge Bases.

  • Verwenden Sie IAM-Rollen, um den Agentenzugriff auf Funktionen und Daten zu steuern.

  • Aktivieren Sie die Protokollierung und Moderation, um Überprüfbarkeit und Vertrauen zu gewährleisten.

Durch die Nutzung des generativen KI-Orchestrierungsmusters, das von Amazon Bedrock unterstützt wird, können Unternehmen über Chatbots und Vorlagen hinausgehen und in den Bereich kontextueller, automatisierter Intelligenz einsteigen.

Von Marketinginhalten über Support-Antworten und interne Kommunikation bis hin zur Produktdokumentation ermöglicht dieses Muster skalierbare Kreativität und Entscheidungsfindung. Es bietet die Zuverlässigkeit, Beobachtbarkeit und Sicherheit, die in Cloud-Umgebungen von Unternehmen erwartet wird.

Geschäftlicher Nutzen des generativen KI-Orchestrierungsmusters

Das generative KI-Orchestrierungsmuster bietet in den folgenden Bereichen einen Mehrwert:

  • Geschwindigkeit — Verkürzt die Bearbeitungszeit für die Erstellung von Inhalten von Stunden auf Sekunden

  • Konsistenz — Sorgt dafür, dass Ton, Richtlinien und Richtlinien in allen Sprachen und Teams eingehalten werden

  • Skalierbarkeit — Ermöglicht es kleinen Teams, globale Abläufe zu unterstützen

  • Agilität — Ermöglicht eine einfache Anpassung an neue Inhaltstypen oder Benutzerabläufe

  • Kosteneffizienz — Reduziert die Abhängigkeit von manuellen Prozessen und senkt time-to-market