Erweiterte Generierung durch Erdung und Abruf - AWS Präskriptive Leitlinien

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Erweiterte Generierung durch Erdung und Abruf

Vertrauen, Genauigkeit und Erklärbarkeit sind für den Einsatz von KI-Systemen in Produktionsumgebungen von Unternehmen unerlässlich. Fundamentmodelle (FMs) bieten beeindruckende allgemeine Funktionen. Sie sind jedoch in großen öffentlichen Unternehmen geschult und kennen sich häufig nicht mit firmeneigenen Daten, Geschäftsregeln oder aktuellen Änderungen aus.

Um diese Sensibilisierungslücken zu schließen, AWS ermöglicht Retrieval Augmented Generation (RAG) über Amazon Bedrock Knowledge Bases. RAG ist ein leistungsstarkes Architekturmuster, das FM-Antworten auf externes, domänenspezifisches Wissen stützt und so sowohl sachliche Genauigkeit als auch kontextuelle Relevanz bietet.

RAG verbessert die Ausgabe von Large Language Model (LLM), indem es zwei Prozesse kombiniert:

  • Abrufen — Verwenden Sie einen semantischen Suchmechanismus (in der Regel mithilfe von Vektoreinbettungen), um relevante Inhalte aus einer kuratierten Wissensquelle zu identifizieren (z. B. interne Dokumente, Produkthandbücher und Fallprotokolle).

  • Generieren — Stellen Sie dem LLM den abgerufenen Kontext als Teil der Aufforderung zur Verfügung, sodass das LLM auf der Grundlage dieser maßgeblichen Informationen eine Antwort erstellen kann.

Dieser Ansatz ermöglicht es Stiftungsmodellen, nach dem Prinzip „Closed Book“ zu arbeiten, als ob sie Zugriff auf Ihre aktuellen, kuratierten Unternehmensdaten hätten, und das ohne Umschulung.

Ein Mitarbeiter fragt beispielsweise einen internen KI-Assistenten: „Wie lauten unsere Reiserichtlinien?“ Die Antwort des Assistenten wird mithilfe der Dokumentation der Personalabteilung (HR) erstellt, die in Amazon Simple Storage Service (Amazon S3) gehostet wird, ohne dass ein Modell verfeinert werden muss.

Erdung im Amazonas-Grundgestein

Amazon Bedrock unterstützt Grounding über seine Knowledge Bases-Funktion, mit der Entwickler Unternehmensinhalte konfigurieren und mit Basismodellen verknüpfen können, ohne die Infrastruktur verwalten zu müssen.

Zu den wichtigsten Funktionen von Grounding in Amazon Bedrock gehören:

  • Automatisiertes Einbetten von Dokumenten mithilfe unterstützter FM-Anbieter

  • Semantische Suche in HTML- PDFs, Word-Dokumenten oder Textdateien, die in Amazon S3 gespeichert sind

  • Grounding ohne Feinabstimmung, da der Inhalt in das Kontextfenster des LLM eingefügt wird

  • Arbeitet mit Amazon Bedrock Agents zusammen, um komplexe Überlegungen durchzuführen oder Tools in mehreren Schritten zu verwenden

Zu den unterstützten Informationsquellen in Amazon Bedrock Knowledge Bases gehören die folgenden:

  • Amazon S3 (native Unterstützung) und, Confluence SalesforceSharePoint, oder Web Crawler (in der Vorschauversion)

  • Vorab eingebettete Indizes mithilfe von Vektorspeichern wie Amazon Aurora, Amazon OpenSearch Serverless, Amazon Neptune Analytics,MongoDB, Pinecone und Enterprise Cloud. Redis

Die Modellunterstützung von Grounding in Amazon Bedrock umfasst Folgendes:

  • Alle LLMs , die mit Amazon Bedrock kompatibel sind, unterstützen Grounding.

  • Amazon Nova-Modelle sind für die Erfassung von Text, Bild und Video mithilfe hybrider Abruftechniken optimiert.

  • Fundierte Ergebnisse können von Amazon Bedrock-Agenten zur Argumentation und Entscheidungsfindung weiter orchestriert werden.

Integration mit agentischer KI

RAG arbeitet besonders gut mit Amazon Bedrock-Agenten zusammen, da es ihnen ermöglicht, kontextuell und politikbewusst zu handeln. Im Folgenden finden Sie ein Beispiel für einen Agenten-Workflow:

  1. Benutzereingaben werden an Amazon gesendet EventBridge, das sie an einen Amazon Bedrock-Agenten sendet.

  2. Der Agent ruft eine Wissensdatenbank auf, um interne Dokumente zu durchsuchen.

  3. Der abgerufene Kontext ist in die LLM-Eingabeaufforderung eingebettet.

  4. Das LLM generiert eine fundierte Ausgabe mit Referenzen und Rückverfolgbarkeit.

  5. (Optional) Der Agent speichert Ausgaben und unterstützende Beweise für future Aktionen im Speicher.

Dieser Workflow ermöglicht es dem Agenten, anhand eines fundierten Kontextes zu argumentieren und erklärbare Entscheidungen zu treffen, wodurch die Lücke zwischen allgemeiner Intelligenz und domänenspezifischer Anwendung geschlossen wird.

Hinzufügung von Leitplanken für Sicherheit und Einhaltung gesetzlicher Vorschriften

Grounding verbessert die Genauigkeit, aber KI in Produktionsqualität erfordert explizite Kontrollen darüber, was das Modell sagen oder tun kann und was nicht. Die Amazon Bedrock Guardrails-Funktion schränkt das Verhalten der Agenten ein und setzt Unternehmensrichtlinien durch.

Guardrails bietet unter anderem folgende Funktionen:

  • Inhaltsfilter — Verhindern Sie Ausgaben, die gegen Sicherheits- oder Compliance-Standards verstoßen, einschließlich der Maskierung personenbezogener Daten.

  • Ablehnungsthemen — Blockieren Sie bestimmte Kategorien von Antworten (z. B. keine medizinische Beratung).

  • Sofortige Prüfung — Identifizieren und entfernen Sie sensible Eingaben, bevor daraus Rückschlüsse gezogen werden.

  • Zugriffskontrolle auf Benutzerebene — Mithilfe von AWS Identity and Access Management (IAM) können Sie Antworten auf der Grundlage von Identität und Rollen individuell anpassen.

  • Einschränkungen im Sitzungskontext — Vermeiden Sie Modellabweichungen, indem Sie den Agenten auf eine bestimmte Aufgabe beschränken.

Mithilfe von Leitplanken können Unternehmen Argumentation und Entscheidungsfindung sicher an Agenten delegieren und gleichzeitig die Kontrolle über Ton, Verhalten und Grenzen behalten.

Automatisiertes Denken zusätzlich zu RAG

Fundierte Inhalte reichen nicht aus. Agenten müssen über diesen Inhalt nachdenken. An dieser Stelle wird automatisiertes Denken auf Basis von LLM entscheidend. Automatisiertes Denken konzentriert sich darauf, Agenten in die Lage zu versetzen, logisch zu argumentieren, z. B. Schlussfolgerungen zu ziehen, Entscheidungen zu treffen oder Probleme zu lösen, ohne dass ein direkter menschlicher Eingriff erforderlich ist.

Automatisiertes Denken ermöglicht Folgendes:

  • Synthese — Mehrere abgerufene Dokumente vergleichen, gegenüberstellen oder zusammenfassen.

  • Multi-Hop-Logik — Connect Fakten über Dokumente oder Abschnitte hinweg, um Schlüsse zu ziehen.

  • Entscheidungsfindung — Wählen Sie zwischen widersprüchlichen Daten auf der Grundlage von Regeln oder Präferenzen.

  • Evidenzbasierte Antworten — Geben Sie Zitate und Begründungen für jede Entscheidung an.

Diese Funktionen verwandeln eine fundierte Antwort in eine begründete Antwort und einen Amazon Bedrock-Agenten von einem Abruftool in einen domänenbewussten Berater.

Mithilfe von Tools wie Prompt-Chaining, Reflexions- und Bewertungsschleifen und der Orchestrierung mehrerer Agenten können agentische KI-Systeme die Argumentationsmuster von Experten wie Diagnose, Triage, Planung oder Risikoanalyse simulieren.

Amazon Nova-Modelle und Grounded Generation

Mit Amazon Nova Pro und Amazon Nova Premier erstrecken sich fundierte RAG-Workflows auf multimodale Eingaben, sodass Agenten die folgenden Quellen interpretieren und begründen können:

  • Kommentierte Dokumente und PDF-Dateien

  • Diagramme, Diagramme und eingebettete Bilder

  • Screenshots, Formulare und strukturierte Datenvisualisierungen

  • Videotranskripte und Foliendecks

Durch diese Fähigkeit eignet sich Amazon Nova hervorragend für Branchen, die ein tiefes Verständnis von Rich-Media-Inhalten benötigen, wie z. B. Rechtsfälle, Versicherungsgutachten, klinische Aufzeichnungen oder behördliche Unterlagen.

Sicherheit und Unternehmensführung bei RAG

Durch die Verankerung von Unternehmensmodellen entstehen, z. B. durch RAG, Wissensdatenbanken oder Feinabstimmungen neue Verantwortlichkeiten. Sie fügen Ihre eigenen Daten und Ihren eigenen Kontext in ein Basismodell ein. Dies führt zu neuen Verantwortlichkeiten, die über die bloße Modellauswahl und die schnelle Erstellung hinausgehen. AWS empfiehlt die folgenden Steuerelemente, die zusammen mit Leitplanken für eine sichere Implementierung im Unternehmen sorgen:

  • Qualitätssicherung der Quelldaten — Fundierte Antworten sind nur so zuverlässig wie die Dokumente, Datenbanken oder die, auf APIs denen sie basieren.

  • Datenklassifizierung und Rückverfolgbarkeit — Klassifizieren und kennzeichnen Sie Inhaltsquellen, um nachzuweisen, woher eine fundierte Antwort stammt.

  • Zugriffskontrolle — Das Einfügen privater Dokumente in Eingabeaufforderungen birgt Sicherheits- und Datenschutzrisiken. Beschränken Sie den Zugriff auf bestimmte Dokumente oder Einbettungen über IAM.

  • Update- und Drift-Management — Fundiertes Wissen muss sich mit Ihrem Unternehmen weiterentwickeln. Es müssen Versionierung, Aktualisierungsrichtlinien und automatische Neuindizierung eingeführt werden, um Abweichungen oder veraltete Informationen in den Modellausgaben zu verhindern.

  • Steuerung eingebetteter Intelligenz — Sie setzen jetzt organisatorisches Wissen mithilfe von KI ein. Diese Fähigkeit geht mit der Pflicht einher, die Art und Weise, wie es ausgedrückt wird, zu validieren, zu überwachen und zu kontrollieren, insbesondere in regulierten Bereichen wie dem Gesundheitswesen und dem Finanzwesen.

  • Schnelle Beobachtbarkeit — Systemgestützte Systeme müssen die Rechte an geistigem Eigentum, regulatorische Anforderungen und unternehmensinterne Haftungsausschlüsse respektieren. Erfassen Sie zur Einhaltung der Vorschriften die vollständige Eingabeaufforderung, den Kontext und die Reaktionswege.

  • Protokollierung von Audits — Verfolgen Sie Datenabrufe und Rückschlüsse anhand strukturierter AWS CloudTrail CloudWatch Protokolle.

  • Benutzerfeedback und Korrekturschleifen — Unternehmen sind dafür verantwortlich, es Benutzern zu ermöglichen, schlechte Begründungen, falsche Antworten oder irrelevante Quellen zu melden und dieses Feedback weiterzuleiten, um die future Relevanz zu verbessern.

  • Speicherkontrolle — Wählen Sie aus, ob abgeleitete Erkenntnisse über Sitzungen hinweg beibehalten werden sollen.

  • Optimierung des Token-Budgets — Wenn Grounding große Textblöcke hinzufügt, erhöht dies die Token-Nutzung (und die Kosten). Sie müssen ein ausgewogenes Verhältnis zwischen RAG-Präzision und zeitnaher Wirtschaftlichkeit finden, häufig durch Zusammenfassen, Filtern oder Filtern von Metadaten.

Zusammenfassung von Grounding und RAG

RAG ist eine grundlegende Strategie für sichere und skalierbare KI in Unternehmen. RAG stützt grundlegende Modelle auf verlässlichem internem Wissen und wandelt umfangreiche Sprachmodelle von Allzweckgeneratoren in domänenspezifische, richtlinienorientierte und erklärbare KI-Assistenten um. Dieser Ansatz reduziert Halluzinationen, erzwingt die Einhaltung interner Richtlinien und ermöglicht faktenbasierte, kontextbezogene Antworten. Dadurch eignet sich generative KI sowohl für kunden- als auch für mitarbeiterorientierte Anwendungen.

In Kombination mit automatisiertem Denken und Leitplanken werden fundierte Modelle nicht nur zu Tools, sondern auch zu rechenschaftspflichtigen und vertrauenswürdigen Agenten. Mit der serverlosen RAG-Unterstützung von Amazon Bedrock und den multimodalen Funktionen von Amazon Nova können Unternehmen sichere, leistungsstarke KI in ihrem gesamten Unternehmen skalieren, ohne die Infrastruktur verwalten zu müssen.