Entwickeln Sie mithilfe von Amazon Bedrock-Agenten und Wissensdatenbanken einen vollautomatischen Chat-basierten Assistenten - AWS Prescriptive Guidance

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Entwickeln Sie mithilfe von Amazon Bedrock-Agenten und Wissensdatenbanken einen vollautomatischen Chat-basierten Assistenten

Jundong Qiao, Shuai Cao, Noah Hamilton, Kiowa Jackson, Praveen Kumar Jeyarajan und Kara Yang, Amazon Web Services

Zusammenfassung

Viele Unternehmen stehen vor Herausforderungen, wenn es darum geht, einen chatbasierten Assistenten zu entwickeln, der in der Lage ist, verschiedene Datenquellen zu orchestrieren, um umfassende Antworten zu bieten. Dieses Muster bietet eine Lösung für die Entwicklung eines Chat-basierten Assistenten, der Anfragen sowohl aus der Dokumentation als auch aus Datenbanken beantworten kann, und das bei einer einfachen Bereitstellung.

Beginnend mit Amazon Bedrock bietet dieser vollständig verwaltete Service für generative künstliche Intelligenz (KI) eine breite Palette fortschrittlicher Basismodelle (FMs). Dies erleichtert die effiziente Erstellung generativer KI-Anwendungen mit einem starken Fokus auf Datenschutz und Sicherheit. Im Zusammenhang mit dem Abruf von Dokumenten ist die Retrieval Augmented Generation (RAG) ein zentrales Merkmal. Es verwendet Wissensdatenbanken, um FM-Eingabeaufforderungen um kontextrelevante Informationen aus externen Quellen zu erweitern. Ein Amazon OpenSearch Serverless-Index dient als Vektordatenbank hinter den Wissensdatenbanken für Amazon Bedrock. Diese Integration wird durch sorgfältiges, zeitnahes Engineering verbessert, um Ungenauigkeiten zu minimieren und sicherzustellen, dass die Antworten in einer sachlichen Dokumentation verankert sind. Für Datenbankabfragen transformieren Amazon Bedrock Textanfragen in strukturierte SQL-Abfragen, die spezifische Parameter enthalten. FMs Dies ermöglicht den präzisen Abruf von Daten aus Datenbanken, die von Datenbanken verwaltet werden.AWS Glue Amazon Athena wird für diese Abfragen verwendet.

Um kompliziertere Anfragen zu bearbeiten und umfassende Antworten zu erhalten, sind Informationen erforderlich, die sowohl aus der Dokumentation als auch aus Datenbanken stammen. Agents for Amazon Bedrock ist eine generative KI-Funktion, mit der Sie autonome Agenten erstellen können, die komplexe Aufgaben verstehen und sie für die Orchestrierung in einfachere Aufgaben aufteilen können. Die Kombination der Erkenntnisse aus den vereinfachten Aufgaben, die durch die autonomen Agenten von Amazon Bedrock unterstützt werden, verbessert die Informationssynthese und führt zu gründlicheren und umfassenderen Antworten. Dieses Muster zeigt, wie Sie mithilfe von Amazon Bedrock und den zugehörigen generativen KI-Diensten und -Funktionen innerhalb einer automatisierten Lösung einen chatbasierten Assistenten erstellen können.

Voraussetzungen und Einschränkungen

Voraussetzungen

Einschränkungen

  • Diese Lösung wird in einer einzigen Lösung bereitgestellt. AWS-Konto

  • Diese Lösung kann nur dort eingesetzt werden AWS-Regionen , wo Amazon Bedrock und Amazon OpenSearch Serverless unterstützt werden. Weitere Informationen finden Sie in der Dokumentation für Amazon Bedrock und Amazon OpenSearch Serverless.

Produktversionen

  • LLAMA-Index Version 0.10.6 oder höher

  • Sqlalchemy Version 2.0.23 oder höher

  • OpenSearch-PY Version 2.4.2 oder höher

  • Requests_AWS4Auth Version 1.2.3 oder höher

  • AWS SDK für Python (Boto3) Version 1.34.57 oder höher

Architektur

Zieltechnologie-Stack

Das AWS Cloud Development Kit (AWS CDK)ist ein Open-Source-Framework für die Softwareentwicklung, mit dem Cloud-Infrastruktur im Code definiert und bereitgestellt werden kann. AWS CloudFormation Der in diesem Muster verwendete AWS CDK Stack stellt die folgenden AWS Ressourcen bereit: 

  • AWS Key Management Service (AWS KMS)

  • Amazon Simple Storage Service (Amazon-S3)

  • AWS Glue Data Catalog, für die AWS Glue Datenbankkomponente

  • AWS Lambda

  • AWS Identity and Access Management (ICH BIN)

  • Amazon OpenSearch Serverlos

  • Amazon Elastic Container Registry (Amazon ECR) 

  • Amazon Elastic Container Service (Amazon ECS)

  • AWS Fargate

  • Amazon Virtual Private Cloud (Amazon VPC)

  • Application Load Balancer

Zielarchitektur

Architekturdiagramm mit einer Amazon Bedrock-Wissensdatenbank und einem Agenten

Das Diagramm zeigt ein umfassendes AWS cloudnatives Setup in einem einzigen System AWS-Region, wobei mehrere verwendet werden. AWS-Services Die primäre Schnittstelle für den Chat-basierten Assistenten ist eine Streamlit-Anwendung, die auf einem Amazon ECS-Cluster gehostet wird. Ein Application Load Balancer verwaltet die Barrierefreiheit. Über diese Schnittstelle gestellte Abfragen aktivieren die Invocation Lambda-Funktion, die dann eine Schnittstelle zu Agenten für Amazon Bedrock herstellt. Dieser Agent beantwortet Benutzeranfragen, indem er entweder die Wissensdatenbanken für Amazon Bedrock konsultiert oder eine Agent executor Lambda-Funktion aufruft. Diese Funktion löst nach einem vordefinierten API-Schema eine Reihe von Aktionen aus, die dem Agenten zugeordnet sind. Die Wissensdatenbanken für Amazon Bedrock verwenden einen OpenSearch serverlosen Index als Grundlage für ihre Vektordatenbank. Darüber hinaus generiert die Agent executor Funktion SQL-Abfragen, die über Amazon Athena für die AWS Glue Datenbank ausgeführt werden.

Tools

AWS-Services

  • Amazon Athena ist ein interaktiver Abfrageservice, mit dem Sie Daten mithilfe von Standard-SQL direkt in Amazon Simple Storage Service (Amazon S3) analysieren können.

  • Amazon Bedrock ist ein vollständig verwalteter Service, der Ihnen leistungsstarke Basismodelle (FMs) von führenden KI-Startups und Amazon über eine einheitliche API zur Verfügung stellt.

  • AWS Cloud Development Kit (AWS CDK)ist ein Softwareentwicklungs-Framework, das Ihnen hilft, AWS Cloud-Infrastruktur im Code zu definieren und bereitzustellen.

  • AWS Command Line Interface (AWS CLI) ist ein Open-Source-Tool, mit dem Sie AWS-Services über Befehle in Ihrer Befehlszeilen-Shell interagieren können.

  • Amazon Elastic Container Service (Amazon ECS) ist ein hoch skalierbarer, schneller Container-Management-Service, der das Ausführen, Beenden und Verwalten von Containern in einem Cluster vereinfacht.

  • Elastic Load Balancing verteilt den eingehenden Anwendungs- oder Netzwerkverkehr auf mehrere Ziele. Sie können beispielsweise den Datenverkehr auf Amazon Elastic Compute Cloud (Amazon EC2) -Instances, Container und IP-Adressen in einer oder mehreren Availability Zones verteilen.

  • AWS Glueist ein vollständig verwalteter ETL-Service (Extrahieren, Transformieren und Laden). Er hilft Ihnen dabei, Daten zuverlässig zu kategorisieren, zu bereinigen, anzureichern und zwischen Datenspeichern und Datenströmen zu verschieben. Dieses Muster verwendet einen AWS Glue Crawler und eine AWS Glue Data Catalog Tabelle.

  • AWS Lambda ist ein Datenverarbeitungsservice, mit dem Sie Code ausführen können, ohne dass Sie Server bereitstellen oder verwalten müssen. Es führt Ihren Code nur bei Bedarf aus und skaliert automatisch, sodass Sie nur für die tatsächlich genutzte Rechenzeit zahlen.

  • Amazon OpenSearch Serverless ist eine serverlose On-Demand-Konfiguration für Amazon OpenSearch Service. In diesem Muster dient ein OpenSearch serverloser Index als Vektordatenbank für die Wissensdatenbanken für Amazon Bedrock.

  • Amazon Simple Storage Service (Amazon S3) ist ein cloudbasierter Objektspeicherservice, der Sie beim Speichern, Schützen und Abrufen beliebiger Datenmengen unterstützt.

Andere Tools

  • Streamlit ist ein Open-Source-Python-Framework zur Erstellung von Datenanwendungen.

Code-Repository

Der Code für dieses Muster ist im GitHub genai-bedrock-agent-chatbotRepository verfügbar. Das Code-Repository enthält die folgenden Dateien und Ordner:

  • assetsOrdner — Die statischen Elemente, wie das Architekturdiagramm und der öffentliche Datensatz.

  • code/lambdas/action-lambdafolder — Der Python-Code für die Lambda-Funktion, die als Aktion für den Amazon Bedrock-Agenten fungiert.

  • code/lambdas/create-index-lambdafolder — Der Python-Code für die Lambda-Funktion, die den OpenSearch Serverless-Index erstellt.

  • code/lambdas/invoke-lambdafolder — Der Python-Code für die Lambda-Funktion, die den Amazon Bedrock-Agenten aufruft, der direkt aus der Streamlit-Anwendung aufgerufen wird.

  • code/lambdas/update-lambdafolder — Der Python-Code für die Lambda-Funktion, die Ressourcen aktualisiert oder löscht, nachdem die AWS Ressourcen über die bereitgestellt wurden. AWS CDK

  • code/layers/boto3_layerfolder — Der AWS CDK Stapel, der eine Boto3-Ebene erstellt, die von allen Lambda-Funktionen gemeinsam genutzt wird.

  • code/layers/opensearch_layerOrdner — Der AWS CDK Stack, der eine OpenSearch serverlose Schicht erstellt, die alle Abhängigkeiten installiert, um den Index zu erstellen.

  • code/streamlit-appfolder — Der Python-Code, der als Container-Image in Amazon ECS ausgeführt wird.

  • code/code_stack.py— Das AWS CDK Konstrukt Python-Dateien, die AWS Ressourcen erstellen.

  • app.py— Die AWS CDK Stapel-Python-Dateien, die AWS Ressourcen im AWS Zielkonto bereitstellen.

  • requirements.txt— Die Liste aller Python-Abhängigkeiten, die für die installiert werden müssen AWS CDK.

  • cdk.json— Die Eingabedatei zur Bereitstellung der Werte, die zum Erstellen von Ressourcen erforderlich sind. Außerdem können Sie die Lösung in den context/config Feldern entsprechend anpassen. Weitere Informationen zur Anpassung finden Sie im Abschnitt Zusätzliche Informationen.

Best Practices

Epen

AufgabeDescriptionErforderliche Fähigkeiten

Exportieren Sie Variablen für das Konto und die Region.

Führen Sie die folgenden Befehle aus, um mithilfe AWS CDK von Umgebungsvariablen AWS Anmeldeinformationen für bereitzustellen.

export CDK_DEFAULT_ACCOUNT=<12-digit AWS account number> export CDK_DEFAULT_REGION=<Region>
AWS DevOps, DevOps Ingenieur

Richten Sie das AWS CLI benannte Profil ein.

Folgen Sie den Anweisungen unter Konfiguration und Einstellungen der Anmeldeinformationsdatei, um das AWS CLI benannte Profil für das Konto einzurichten.

AWS DevOps, DevOps Ingenieur
AufgabeDescriptionErforderliche Fähigkeiten

Klonen Sie das Repo auf Ihre lokale Workstation.

Um das Repository zu klonen, führen Sie den folgenden Befehl in Ihrem Terminal aus.

git clone https://github.com/awslabs/genai-bedrock-agent-chatbot.git
DevOps Ingenieur, AWS DevOps

Richten Sie die virtuelle Python-Umgebung ein.

Führen Sie die folgenden Befehle aus, um die virtuelle Python-Umgebung einzurichten.

cd genai-bedrock-agent-chatbot python3 -m venv .venv source .venv/bin/activate

Führen Sie den folgenden Befehl aus, um die erforderlichen Abhängigkeiten einzurichten.

pip3 install -r requirements.txt
DevOps Ingenieur, AWS DevOps

Richten Sie die AWS CDK Umgebung ein.

Führen Sie den Befehl aus, um den Code in eine AWS CloudFormation Vorlage zu konvertierencdk synth.

AWS DevOps, DevOps Ingenieur
AufgabeDescriptionErforderliche Fähigkeiten

Stellen Sie Ressourcen im Konto bereit.

Gehen Sie wie folgt vor AWS CDK, um Ressourcen im mithilfe AWS-Konto von bereitzustellen:

  1. Geben Sie im Stammverzeichnis des geklonten Repositorys, in der cdk.json Datei, Eingaben für die Protokollierungsparameter ein. Beispielwerte sindINFO, DEBUGWARN, undERROR.

    Diese Werte definieren Nachrichten auf Protokollebene für die Lambda-Funktionen und die Streamlit-Anwendung.

  2. Die cdk.json Datei im Stammverzeichnis des geklonten Repositorys enthält den AWS CloudFormation Stack-Namen, der für die Bereitstellung verwendet wird. Der Standard-Stack-Name istchatbot-stack. Der Standardname des Amazon Bedrock-Agenten istChatbotBedrockAgent, und der Standard-Alias für Amazon Bedrock-Agenten ist. Chatbot_Agent

  3. Führen Sie den Befehl aus, um Ressourcen bereitzustellen. cdk deploy Der cdk deploy Befehl verwendet Layer-3-Konstrukte, um mehrere Lambda-Funktionen zum Kopieren von Dokumenten und CSV-Datensatzdateien in S3-Buckets zu erstellen. Außerdem werden der Amazon Bedrock-Agent, die Wissensdatenbanken und die Action group Lambda-Funktion für den Amazon Bedrock-Agenten bereitgestellt.

  4. Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie dann die Konsole.CloudFormation

  5. Vergewissern Sie sich, dass der Stack erfolgreich bereitgestellt wurde. Anweisungen finden Sie unter Überprüfen Ihres Stacks auf der AWS CloudFormation Konsole.

Nach erfolgreicher Bereitstellung können Sie über die URL auf der Registerkarte Outputs in der Konsole auf die Chat-basierte Assistentenanwendung zugreifen. CloudFormation

DevOps Ingenieur, AWS DevOps
AufgabeDescriptionErforderliche Fähigkeiten

Entfernen Sie die AWS Ressourcen.

Nachdem Sie die Lösung getestet haben, führen Sie den Befehl aus, um die Ressourcen zu bereinigencdk destroy.

AWS DevOps, DevOps Ingenieur

Zugehörige Ressourcen

AWS Dokumentation

Andere AWS Ressourcen

Sonstige Ressourcen

Zusätzliche Informationen

Passen Sie den Chat-basierten Assistenten mit Ihren eigenen Daten an

Folgen Sie diesen strukturierten Richtlinien, um Ihre benutzerdefinierten Daten für die Bereitstellung der Lösung zu integrieren. Diese Schritte sollen einen nahtlosen und effizienten Integrationsprozess gewährleisten, sodass Sie die Lösung effektiv mit Ihren maßgeschneiderten Daten implementieren können.

Für die Datenintegration in der Wissensdatenbank

Datenaufbereitung

  1. Suchen Sie das assets/knowledgebase_data_source/ Verzeichnis.

  2. Platzieren Sie Ihren Datensatz in diesem Ordner.

Anpassungen der Konfiguration

  1. Öffnen Sie die cdk.json Datei.

  2. Navigieren Sie zu dem context/configure/paths/knowledgebase_file_name Feld und aktualisieren Sie es dann entsprechend.

  3. Navigieren Sie zu dem bedrock_instructions/knowledgebase_instruction Feld, und aktualisieren Sie es dann, damit es die Nuancen und den Kontext Ihres neuen Datensatzes genau wiedergibt.

Für die Integration von Strukturdaten

Organisation der Daten

  1. Erstellen Sie innerhalb des assets/data_query_data_source/ Verzeichnisses ein Unterverzeichnis, z. B. tabular_data

  2. Platzieren Sie Ihren strukturierten Datensatz (akzeptable Formate umfassen CSV, JSON, ORC und Parquet) in diesem neu erstellten Unterordner.

  3. Wenn Sie eine Verbindung zu einer vorhandenen Datenbank herstellen, aktualisieren Sie die Funktion create_sql_engine() unter So stellen Sie eine Verbindung code/lambda/action-lambda/build_query_engine.py zu Ihrer Datenbank her.

Konfiguration und Code-Updates

  1. Aktualisieren Sie das context/configure/paths/athena_table_data_prefix Feld in der cdk.json Datei so, dass es dem neuen Datenpfad entspricht.

  2. Überarbeiten Sie, code/lambda/action-lambda/dynamic_examples.csv indem Sie neue text-to-SQL Beispiele einbeziehen, die Ihrem Datensatz entsprechen.

  3. Überarbeiten Siecode/lambda/action-lambda/prompt_templates.py, um die Attribute Ihres strukturierten Datensatzes widerzuspiegeln.

  4. Aktualisieren Sie das context/configure/bedrock_instructions/action_group_description Feld in der cdk.json Datei, um den Zweck und die Funktionalität der Action group Lambda-Funktion zu erläutern.

  5. Erläutern Sie in der assets/agent_api_schema/artifacts_schema.json Datei die neuen Funktionen Ihrer Action group Lambda-Funktion.

Allgemeines Update

Geben Sie in der cdk.json Datei im context/configure/bedrock_instructions/agent_instruction Abschnitt eine umfassende Beschreibung der beabsichtigten Funktionalität und des Entwurfszwecks des Amazon Bedrock-Agenten unter Berücksichtigung der neu integrierten Daten.