Multimodale Wissensdatenbanken testen und abfragen - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Multimodale Wissensdatenbanken testen und abfragen

Nachdem Sie Ihre multimodalen Inhalte aufgenommen haben, können Sie Ihre Wissensdatenbank mithilfe der Konsole oder API testen und abfragen. Die verfügbaren Abfragetypen hängen von Ihrem gewählten Verarbeitungsansatz ab.

Console
Um Ihre Wissensdatenbank von der Konsole aus zu testen
  1. Scrollen Sie auf Ihrer Wissensdatenbank-Detailseite zum Abschnitt Wissensdatenbank testen.

  2. Wählen Sie Ihren Abfragetyp:

    • Nur Standardabruf: Informationen aus Datenquellen in einer einzigen Knowledge Base abfragen und abrufen.

    • Abrufen und Generierung von Antworten: Fragen Sie eine einzelne Wissensdatenbank ab und generieren Sie mithilfe eines Basismodells Antworten auf der Grundlage der abgerufenen Ergebnisse.

      Anmerkung

      Wenn Sie über multimodale Inhalte verfügen, müssen Sie den BDA-Parser für den Abruf und die Generierung von Antworten verwenden.

  3. Konfigurieren Sie bei Bedarf zusätzliche Optionen:

    • Quell-Chunks: Geben Sie die maximale Anzahl von Quell-Chunks an, die zurückgegeben werden sollen

    • Suchtyp: Wählen Sie den Suchtyp aus, um die Abfragestrategie anzupassen

    • Metadatenfilter: Wenden Sie Filter an, um die Suchergebnisse einzugrenzen

    • Leitplanken: Wählen Sie eine bestehende Leitplanke aus oder erstellen Sie eine neue

  4. Geben Sie eine Textabfrage ein oder laden Sie ein Bild hoch (nur Nova Multimodal Embeddings), um Ihre multimodalen Inhalte zu durchsuchen. Verwenden Sie die Schaltfläche für den Anhang, um Bilder für die Suche nach visueller Ähnlichkeit hochzuladen.

  5. Sehen Sie sich die Ergebnisse an, die Folgendes beinhalten:

    • Abgerufene Inhaltsblöcke mit Relevanzwerten

    • Quelldateiverweise und Zeitstempel (für Audio/Video)

    • Metadaten, einschließlich Dateitypen und Verarbeitungsinformationen

    • Für Multimediainhalte bietet die Wiedergabesteuerung eine automatische Segmentpositionierung auf der Grundlage der abgerufenen Zeitstempel

API

Die folgenden Beispiele zeigen, wie Sie die Amazon Bedrock Agent Runtime API verwenden, um Ihre multimodale Wissensdatenbank programmgesteuert abzufragen:

Beispiel für eine Textabfrage

Suche mit Texteingabe:

aws bedrock-agent-runtime retrieve \ --knowledge-base-id <knowledge-base-id> \ --retrieval-query text="robot automation in manufacturing"
Beispiel für eine Bildabfrage (nur Nova Multimodal Embeddings)

Suchen Sie mit einem hochgeladenen Bild:

{ "knowledgeBaseId": "<knowledge-base-id>", "retrievalQuery": { "imageQuery": { "inlineContent": { "mimeType": "image/jpeg", "data": "<base64-encoded-image>" } } } }

Unterstützte Abfragetypen

Textabfragen

Wird sowohl mit Nova Multimodal Embeddings als auch mit BDA-Ansätzen unterstützt. Suchen Sie mit Text in natürlicher Sprache, um relevante Inhalte in allen Medientypen zu finden.

Bildanfragen

Wird nur mit Nova Multimodal Embeddings unterstützt. Laden Sie Bilder hoch, um visuell ähnliche Inhalte in Ihrer Wissensdatenbank zu finden.

Die Metadaten der Antworten verstehen

Multimodale Abfrageantworten enthalten zusätzliche Metadaten für Multimediainhalte:

Quellenangabe

Speicherort der Originaldatei (SourceURI) und multimodaler Speicherort (SupplementalURI) für zuverlässigen Zugriff

Temporäre Metadaten

Start- und Endzeitstempel für Audio- und Videosegmente ermöglichen eine präzise Navigation zu relevanten Inhalten

Informationen zum Inhaltstyp

Indikatoren für das Dateiformat, die Verarbeitungsmethode und die Modalität, die Anwendungen dabei unterstützen, unterschiedliche Inhaltstypen angemessen zu handhaben

Struktur der Vektordatenbank-Metadaten

Wenn multimodaler Inhalt verarbeitet und gespeichert wird, wird die folgende Metadatenstruktur in der Vektordatenbank verwendet:

  • Textfeld: Bei Multimediadateien, die mit Nova Multimodal Embeddings verarbeitet wurden, enthält dieses Feld eine leere Zeichenfolge, da der Inhalt als natives Multimedia und nicht als Text eingebettet ist

  • Metadatenfeld: Enthält strukturierte Informationen, einschließlich Quellenangaben und Verweise auf verwandte Inhalte:

    { "source": { "sourceType": "S3", "s3Location": { "uri": "s3://source-bucket/path/to/file.mp4" } }, "relatedContent": [{ "type": "S3", "s3Location": { "uri": "s3://multimodal-storage-bucket/processed/file.mp4" } }] }
  • Automatisch erstellte Felder: Zusätzliche Felder zum Filtern und Identifizieren:

    • x-amz-bedrock-kb-source-uri: Ursprünglicher Quell-URI für Filtervorgänge

    • x-amz-bedrock-kb-data-source-id: Datenquellen-ID zur Nachverfolgung der Herkunft von Inhalten

    • x-amz-bedrock-kb-chunk-start-time-in-millis: Startzeitstempel in Millisekunden für Audio- und Videosegmente

    • x-amz-bedrock-kb-chunk-end-time-in-millis: Endzeitstempel in Millisekunden für Audio- und Videosegmente

    • x-amz-bedrock-kb-source-file-mime-type: MIME-Typ der Quelldatei

    • x-amz-bedrock-kb-source-file-modality: Modalität der Quelldatei (TEXT, BILD, AUDIO, VIDEO)

Wichtig

Anwendungen müssen die bereitgestellten Zeitstempel verwenden, um bestimmte Segmente aus Audio- und Videodateien zu extrahieren und abzuspielen. Die Wissensdatenbank gibt Verweise auf vollständige Dateien zurück, nicht auf vorsegmentierte Clips.