Erstellen Sie eine Wissensdatenbank für multimodale Inhalte - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Erstellen Sie eine Wissensdatenbank für multimodale Inhalte

Sie können multimodale Wissensdatenbanken entweder mit der Konsole oder der API erstellen. Wählen Sie Ihren Ansatz auf der Grundlage Ihrer multimodalen Verarbeitungsanforderungen.

Wichtig

Multimodale Unterstützung ist nur verfügbar, wenn eine Wissensdatenbank mit unstrukturierten Datenquellen erstellt wird. Strukturierte Datenquellen unterstützen keine multimodale Inhaltsverarbeitung.

Console
Um eine multimodale Wissensdatenbank von der Konsole aus zu erstellen
  1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die berechtigt ist, die Amazon Bedrock-Konsole zu verwenden. Öffnen Sie dann die Amazon Bedrock-Konsole unter https://console.aws.amazon.com/bedrock.

  2. Wählen Sie im linken Navigationsbereich Wissensdatenbank aus.

  3. Wählen Sie im Abschnitt Wissensdatenbanken die Option Erstellen und dann Wissensdatenbank mit Vektorspeicher aus.

  4. (Optional) Ändern Sie unter Details zur Wissensdatenbank den Standardnamen und geben Sie eine Beschreibung für Ihre Wissensdatenbank ein.

  5. Wählen Sie im Abschnitt IAM-Berechtigungen eine IAM-Rolle aus, die Amazon Bedrock Berechtigungen zum Zugriff auf andere erforderliche AWS-Services gewährt. Sie können entweder Amazon Bedrock die Servicerolle für Sie erstellen lassen oder Sie können Ihre eigene benutzerdefinierte Rolle verwenden. Informationen zu multimodalen Berechtigungen finden Sie unter. Genehmigungen für multimodale Inhalte

  6. Wählen Sie Amazon S3 als Datenquelle und dann Weiter, um Ihre Datenquelle zu konfigurieren.

    Anmerkung

    Sie können während der Erstellung der Wissensdatenbank bis zu 5 Amazon S3 S3-Datenquellen hinzufügen. Zusätzliche Datenquellen können hinzugefügt werden, nachdem die Wissensdatenbank erstellt wurde.

  7. Geben Sie die S3-URI des Buckets an, der Ihren multimodalen Inhalt enthält, und konfigurieren Sie bei Bedarf ein Inklusionspräfix. Das Inklusionspräfix ist ein Ordnerpfad, mit dem Sie einschränken können, welche Inhalte aufgenommen werden.

  8. Wählen Sie unter Chunking- und Parsing-Konfigurationen Ihre Parsing-Strategie aus:

    • Bedrock-Standardparser: Wird für die reine Textverarbeitung von Inhalten empfohlen. Dieser Parser verarbeitet gängige Textformate und ignoriert dabei multimodale Dateien. Unterstützt Textdokumente wie Word-, Excel-, HTML-, Markdown-, TXT- und CSV-Dateien.

    • Bedrock Data Automation (BDA): Konvertiert multimodale Inhalte in durchsuchbare Textdarstellungen. Verarbeitet Bilder PDFs, Audio- und Videodateien, um Text zu extrahieren, Beschreibungen für visuelle Inhalte zu generieren und Transkriptionen für Audio- und Videoinhalte zu erstellen.

    • Foundation Model Parser: Bietet erweiterte Analysefunktionen für komplexe Dokumentstrukturen. Prozesse PDFs, Bilder, strukturierte Dokumente, Tabellen und visuell ansprechende Inhalte zum Extrahieren von Text und Generieren von Beschreibungen für visuelle Elemente.

  9. Wählen Sie Weiter und wählen Sie Ihr Einbettungsmodell und Ihren multimodalen Verarbeitungsansatz aus.

    • Amazon Nova Multimodal Embeddings V1.0: Wählen Sie Amazon Nova Embedding V1.0 für direkte visuelle und akustische Ähnlichkeitssuchen. Konfigurieren Sie die Dauer von Audio- und Videoabschnitten (1—30 Sekunden, Standard 5 Sekunden), um zu steuern, wie Inhalte segmentiert werden.

      Anmerkung

      Audio- und Video-Chunking-Parameter werden auf Ebene des Einbettungsmodells konfiguriert, nicht auf Datenquellenebene. Eine Validierungsausnahme tritt auf, wenn Sie diese Konfiguration für nicht multimodale Einbettungsmodelle angeben. Konfigurieren Sie die Dauer von Audio- und Videoabschnitten (Standard: 5 Sekunden, Bereich: 1—30 Sekunden), um zu steuern, wie Inhalte segmentiert werden. Kürzere Abschnitte ermöglichen einen präzisen Inhaltsabruf, während längere Abschnitte einen größeren semantischen Kontext beibehalten.

      Wichtig

      Amazon Nova Embedding v1.0 bietet eingeschränkte Unterstützung für die Suche nach Sprachinhalten in audio/video Daten. Wenn Sie Sprache unterstützen müssen, verwenden Sie Bedrock Data Automation als Parser.

    • Texteinbettungen mit BDA: Wählen Sie ein Texteinbettungsmodell (wie Titan Text Embeddings v2), wenn Sie die BDA-Verarbeitung verwenden. Modelle zur Texteinbettung beschränken den Abruf auf reine Textinhalte, aber Sie können den multimodalen Abruf aktivieren, indem Sie entweder Amazon Bedrock Data Automation oder Foundation Model als Parser auswählen.

      Anmerkung

      Wenn Sie den BDA-Parser mit Nova Multimodal Embeddings verwenden, verwendet Amazon Bedrock Knowledge Bases zuerst das BDA-Parsing. In diesem Fall generiert das Einbettungsmodell keine systemeigenen multimodalen Einbettungen für Bilder, Audio und Video, da BDA diese in Textdarstellungen konvertiert.

  10. Wenn Sie Nova Multimodal Embeddings verwenden, konfigurieren Sie das multimodale Speicherziel, indem Sie einen Amazon S3 S3-Bucket angeben, in dem verarbeitete Dateien für den Abruf gespeichert werden. Knowledge Bases speichern geparste Bilder in einem einzigen Amazon S3 S3-Bucket mit einem Ordner, der für einen einfachen Zugriff als .bda erstellt wurde.

    Empfehlung zur Lebenszyklus-Richtlinie

    Wenn Sie Nova Multimodal Embeddings verwenden, speichert Amazon Bedrock transiente Daten in Ihrem multimodalen Speicherziel und versucht, sie nach Abschluss der Verarbeitung zu löschen. Wir empfehlen, eine Lebenszyklusrichtlinie für den transienten Datenpfad anzuwenden, um eine ordnungsgemäße Bereinigung sicherzustellen. Detaillierte Anweisungen finden Sie unter Verwaltung vorübergehender Daten mit Amazon S3 S3-Lebenszyklusrichtlinien.

  11. Wählen Sie im Bereich Vector-Datenbank Ihre Vector Store-Methode aus und konfigurieren Sie die entsprechenden Dimensionen auf der Grundlage Ihres ausgewählten Einbettungsmodells.

  12. Wählen Sie Weiter und überprüfen Sie die Details Ihrer Wissensdatenbank-Konfiguration. Wählen Sie dann Wissensdatenbank erstellen aus.

CLI
Um eine multimodale Wissensdatenbank mit dem zu erstellen AWS CLI
  • Erstellen Sie eine Wissensdatenbank mit Nova Multimodal Embeddings. Senden Sie eine Anfrage: CreateKnowledgeBase

    aws bedrock-agent create-knowledge-base \ --cli-input-json file://kb-nova-mme.json

    Inhalt von kb-nova-mme.json (ersetzen Sie die Platzhalterwerte durch Ihre spezifische Konfiguration):

    { "knowledgeBaseConfiguration": { "vectorKnowledgeBaseConfiguration": { "embeddingModelArn": "arn:aws:bedrock:us-east-1::foundation-model/amazon.nova-2-multimodal-embeddings-v1:0", "supplementalDataStorageConfiguration": { "storageLocations": [ { "type": "S3", "s3Location": { "uri": "s3://<multimodal-storage-bucket>/" } } ] } }, "type": "VECTOR" }, "storageConfiguration": { "opensearchServerlessConfiguration": { "collectionArn": "arn:aws:aoss:us-east-1:<account-id>:collection/<collection-id>", "vectorIndexName": "<index-name>", "fieldMapping": { "vectorField": "<vector-field>", "textField": "<text-field>", "metadataField": "<metadata-field>" } }, "type": "OPENSEARCH_SERVERLESS" }, "name": "<knowledge-base-name>", "description": "Multimodal knowledge base with Nova Multimodal Embeddings" }

    Ersetzen die folgenden Platzhalter:

    • <multimodal-storage-bucket>- S3-Bucket zum Speichern multimodaler Dateien

    • <account-id>- Ihre AWS-Konto-ID

    • <collection-id>- ID für die OpenSearch serverlose Erfassung

    • <index-name>- Name des Vektorindex in Ihrer OpenSearch Sammlung (konfiguriert mit den entsprechenden Abmessungen für das von Ihnen gewählte Einbettungsmodell)

    • <vector-field>- Feldname zum Speichern von Einbettungen

    • <text-field>- Feldname zum Speichern von Textinhalten

    • <metadata-field>- Feldname zum Speichern von Metadaten