

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Verwandeln Sie unstrukturierte Daten mithilfe von Amazon Bedrock Data Automation in aussagekräftige Erkenntnisse
<a name="bda"></a>

## Was ist Bedrock Data Automation?
<a name="bda-what-is"></a>

Bedrock Data Automation (BDA) ist ein cloudbasierter Service, der das Extrahieren wertvoller Erkenntnisse aus unstrukturierten Inhalten wie Dokumenten, Bildern, Video und Audio vereinfacht. BDA nutzt generative KI, um die Umwandlung multimodaler Daten in strukturierte Formate zu automatisieren, sodass Entwickler Anwendungen erstellen und komplexe Workflows schneller und genauer automatisieren können.

Nachfolgend sind einige beispielhafte Anwendungsfälle aufgeführt:
+ **Dokumentenverarbeitung:** Mit BDA können Sie Workflows zur intelligenten Dokumentenverarbeitung (IDP) in großem Umfang automatisieren, ohne dass komplexe Aufgaben der Dokumentenverarbeitung wie Klassifizierung, Extraktion, Normalisierung oder Validierung orchestriert werden müssen. Auf diese Weise können Sie unstrukturierte Dokumente in geschäftsspezifische, strukturierte Datenausgaben umwandeln. Sie können die BDA-Ausgabe so anpassen, dass sie in vorhandene Systeme und Workflows integriert werden kann.
+ **Medienanalyse:** Fügen Sie unstrukturierten Videos aussagekräftige Erkenntnisse hinzu. Erstellen Sie Zusammenfassungen jeder Szene, helfen Sie dabei, unsichere oder explizite Inhalte zu identifizieren, extrahieren Sie Text, der im Video erscheint, und klassifizieren Sie Inhalte anhand von Werbung oder Marken. Sie können diese Erkenntnisse dann nutzen, um eine intelligente Videosuche zu ermöglichen, die kontextbezogene Werbeplatzierung zu verbessern und die Markensicherheit und -konformität zu verbessern.
+ **Generative KI-Assistenten:** Verbessern Sie die Leistung Ihrer auf Retrieval-Augmented Generation (RAG) gestützten Anwendungen zur Beantwortung von Fragen, indem Sie ihnen umfangreiche, modalitätsspezifische Datendarstellungen zur Verfügung stellen, die aus Ihren Dokumenten, Bildern, Video und Audio extrahiert wurden.

BDA bietet ein einheitliches, API-gesteuertes Erlebnis, das es Ihnen ermöglicht, multimodale Inhalte über eine einzige Schnittstelle zu verarbeiten, sodass Sie nicht mehrere KI-Modelle und -Services verwalten und orchestrieren müssen. Mit integrierten Sicherheitsvorkehrungen wie visuellen Begründungen und Konfidenzwerten hilft Ihnen BDA dabei, die Genauigkeit und Vertrauenswürdigkeit der gewonnenen Erkenntnisse zu verbessern und sie so einfacher in Ihre Unternehmensabläufe zu integrieren.

# Funktionsweise von Bedrock Data Automation
<a name="bda-how-it-works"></a>

Mit Bedrock Data Automation (BDA) können Sie die Ausgabe auf der Grundlage Ihrer Verarbeitungsanforderungen für einen bestimmten Datentyp konfigurieren: Dokumente, Bilder, Video oder Audio. BDA kann eine Standardausgabe oder eine benutzerdefinierte Ausgabe generieren. Im Folgenden finden Sie einige wichtige Konzepte zum Verständnis der Funktionsweise von BDA. Wenn Sie noch keine Erfahrung mit BDA haben, beginnen Sie mit den Informationen zur Standardausgabe.
+ Standardausgabe – Wenn eine Datei ohne weitere Informationen an BDA gesendet wird, wird die Standardausgabe zurückgegeben. Diese enthält die basierend auf dem Datentyp am häufigsten benötigten Informationen. Beispiele hierfür sind Audio-Transkriptionen, Szenenzusammenfassungen für Videos und Dokumentzusammenfassungen. Diese Ausgaben können mithilfe von Projekten an Ihren Anwendungsfall angepasst werden. Weitere Informationen finden Sie unter [Standardausgabe in Bedrock Data Automation](bda-standard-output.md).
+ Benutzerdefinierte Ausgabe – Nur für Dokumente, Audio und Bilder. Verwenden Sie die benutzerdefinierte Ausgabe, um genau zu definieren, welche Informationen Sie mithilfe einer Vorlage extrahieren möchten. Eine Vorlage besteht aus einer Liste erwarteter Felder, die Sie aus einer Datei abrufen möchten. Jedes Feld stellt eine Information dar, die extrahiert werden muss, um Ihren spezifischen Anwendungsfall zu erfüllen. Sie können Ihre eigenen Vorlagen erstellen oder vordefinierte Vorlagen aus dem BDA-Vorlagenkatalog auswählen. Weitere Informationen finden Sie unter [Benutzerdefinierte Ausgabe und Vorlagen](bda-custom-output-idp.md).
+ Projekte – Ein Projekt ist eine BDA-Ressource, mit der Sie Ausgabekonfigurationen ändern und organisieren können. Jedes Projekt kann Konfigurationen der Standardausgabe für Dokumente, Bilder, Video und Audio sowie benutzerdefinierte Ausgabevorlagen für Dokumente, Audio und Bilder enthalten. Im `InvokeDataAutomationAsync`-API-Aufruf wird auf Projekte verwiesen, um BDA Anweisungen zur Verarbeitung der Dateien zu geben. Weitere Informationen zu Projekten und Anwendungsfällen finden Sie unter [Projekte in Bedrock Data Automation](bda-projects.md).

# Projekte in Bedrock Data Automation
<a name="bda-projects"></a>

Eine Möglichkeit, Dateien mit Amazon Bedrock Data Automation (BDA) zu verarbeiten, besteht darin, ein Projekt zu erstellen. Ein Projekt ist eine Gruppierung von Standard- und benutzerdefinierten Ausgabekonfigurationen. Standardausgaben sind in Projekten erforderlich, benutzerdefinierte Ausgaben sind jedoch optional. Wenn Sie die `InvokeDataAutomationAsync`-API mit einem Projekt-ARN aufrufen, wird die Datei automatisch mit den in diesem Projekt definierten Konfigurationseinstellungen verarbeitet. Die Ausgabe wird dann basierend auf der Konfiguration des Projekts generiert.

Einem Projekt kann eine Phase zugewiesen werden, `LIVE` oder `DEVELOPMENT`. Jede Phase ist eine eindeutige und veränderbare Version des Projekts. Das bedeutet, dass Sie die `DEVELOPMENT`-Phase für Bearbeitungen oder Tests verwenden und in der `LIVE`-Phase Kundenanfragen verarbeiten können. `DEVELOPMENT`-Projekte können nicht in der Konsole aufgerufen werden und müssen über die API geändert und aufgerufen werden.

Ein Projekt ermöglicht es Ihnen, eine einzelne Ressource für mehrere Dateitypen zu verwenden. Beispielsweise wird eine Audiodatei, die mit dem Projektnamen „ABC“ an BDA gesendet wird, mit der Standard-Audioausgabekonfiguration des Projekts „ABC“ verarbeitet. Ein Dokument, Das mit dem Projektnamen „ABC“ an BDA gesendet wird, wird mit der Standard-Ausgabekonfiguration für Dokumente des Projekts „ABC“ verarbeitet.

Projekte bieten Ihnen mehr Flexibilität bei der Einrichtung von Standardausgaben. Jede Standardausgabe hat ihre eigenen konfigurierbaren Optionen, z. B. Transkripte oder Zusammenfassungen, und Projekte ermöglichen es Ihnen, diese Optionen so zu ändern, dass sie besser zu Ihrem Anwendungsfall passen. Sie können ein Projekt auch mit Vorlagen für Dokumente, Audio und Bilder konfigurieren, um eine benutzerdefinierte Ausgabe zu definieren. Ein Projekt, das für die Generierung einer benutzerdefinierten Ausgabe konfiguriert ist, generiert automatisch auch eine Standardausgabe.

In den folgenden Abschnitten werden einige Beispiele für die Verwendung von Projekten beschrieben.

## Verwenden von Projekten mit der Standardausgabe
<a name="bda-standard-example"></a>

Betrachten Sie einen Anwendungsfall, in dem Sie nur Transkript-Zusammenfassungen Ihrer vollständigen Audio- und Videodateien extrahieren möchten. Wenn Sie Audio- und Videodateien an BDA senden, erhalten Sie standardmäßig die Transkript-Zusammenfassungen zusammen mit vollständigen Transkripten, Zusammenfassungen auf Szenenebene, erkanntem Text und anderen Informationen. Für diesen Anwendungsfall möchten Sie nicht die zusätzliche Zeit und Ressourcen aufwenden, um Informationen zu erfassen, die Sie nicht benötigen. Also können Sie für diesen Anwendungsfall ein Standardausgabeprojekt so konfigurieren, dass nur die Zusammenfassungsfunktion für Audio- und Videodateien aktiviert wird.

Erstellen Sie dazu mithilfe der API oder in der Konsole ein Projekt und ändern Sie die Standardausgabeeinstellungen für Audio und Video. Aktivieren Sie für Videos die Option **Zusammenfassung des gesamten Videos**, stellen Sie jedoch sicher, dass andere Extraktionen (z. B. vollständiges Audio-Transkript, Szenenzusammenfassungen, Inhaltsmoderation usw.) deaktiviert sind. Wiederholen Sie diese Konfiguration für Audioinhalte. Nachdem Sie das Projekt so konfiguriert haben, dass nur Zusammenfassungen generiert werden, speichern Sie das Projekt und notieren Sie sich seinen Amazon-Ressourcennamen (ARN). Dieser ARN kann für die `InvokeDataAutomationAsync`-Operation verwendet werden, um Dateien in großem Umfang zu verarbeiten. Wenn Sie eine Audio- oder Videodatei an BDA übergeben und den Projekt-ARN angeben, erhalten Sie als Ausgabe nur die Zusammenfassungen für jede der Dateien. Beachten Sie, dass in diesem Beispiel keine Konfiguration für Dokumente oder Bilder durchgeführt wurde. Das bedeutet, dass Sie, wenn Sie ein Bild oder Dokument mit diesem Projekt-ARN an BDA übergeben, für diese Dateitypen die Standardausgabe erhalten.

## Verwenden von Projekten mit benutzerdefinierter Ausgabe und Standardausgabe
<a name="bda-mixed-example"></a>

Gehen wir für diesen Anwendungsfall davon aus, dass Sie Standardausgabe-Zusammenfassungen für Dokumente und Audiodateien generieren und außerdem benutzerdefinierte Felder aus Ihren Dokumenten extrahieren möchten. Nachdem Sie ein Projekt erstellt haben, konfigurieren Sie die Standardausgabe für Audio so, dass **Vollständige Audiozusammenfassung** aktiviert ist, und stellen Sie sicher, dass andere Extraktionen nicht aktiviert sind. Wiederholen Sie diese Konfiguration der Standardausgabe für Dokumente. Anschließend können Sie die benutzerdefinierte Ausgabe für Dokumente konfigurieren, indem Sie eine neue Vorlage oder eine bereits vorhandene Vorlage aus dem globalen BDA-Katalog hinzufügen. Für Dokumente, die mit diesem Projekt-ARN an BDA übergeben werden, werden die Zusammenfassungen des vollständigen Dokuments der Standardausgabe und die Ausgabe der Vorlage für die definierten benutzerdefinierten Felder generiert. Für Audiodateien, die mit diesem Projekt-ARN an BDA übergeben werden, werden vollständige Zusammenfassungen generiert.

Bei der Verarbeitung von Dokumenten sollten Sie möglicherweise mehrere Vorlagen für verschiedene Arten von Dokumenten verwenden, die an Ihr Projekt übergeben werden. An ein Projekt können bis zu 40 Dokumentvorlagen angehängt werden. BDA ordnet Ihre Dokumente automatisch der entsprechenden Vorlage zu, die in Ihrem Projekt konfiguriert ist, und generiert anhand dieser Vorlage eine benutzerdefinierte Ausgabe. Außerdem können Sie auch mehrere Dokumente gleichzeitig übergeben. Wenn Sie eine Datei übergeben, die mehrere Dokumente enthält, können Sie das Dokument bei der Erstellung Ihres Projekts aufteilen. Falls Sie sich dafür entscheiden, scannt BDA die Datei und teilt sie je nach Kontext in einzelne Dokumente auf. Diese einzelnen Dokumente werden dann zur Verarbeitung der passenden Vorlage zugeordnet.

Derzeit wird für Bilder nur eine Vorlagendefinition pro Projekt unterstützt. Die Bilddateitypen JPG und PNG können aufgrund ihres Inhalts als Bilder oder als gescannte Dokumente behandelt werden. Wir empfehlen Ihnen, bei der Verarbeitung der benutzerdefinierten Ausgabe für Dokumente eine benutzerdefinierte Vorlage für Bilder zu erstellen, damit BDA die gewünschte Ausgabe für Bilddateien bereitstellt, die Text enthalten.

Für Audiodateien wird ebenfalls nur eine Vorlagendefinition pro Projekt unterstützt.

# Aufteilen von Dokumenten bei der Verwendung von Projekten
<a name="bda-document-splitting"></a>

Amazon Bedrock Data Automation (BDA) unterstützt das Teilen von Dokumenten bei Verwendung der Amazon Bedrock API. Wenn diese Option aktiviert ist, kann BDA eine PDF-Datei mit mehreren logischen Dokumenten zur Verarbeitung in separate Dokumente aufteilen. 

Sobald die Aufteilung abgeschlossen ist, wird jedes Segment des geteilten Dokuments unabhängig verarbeitet. Das bedeutet, dass ein Eingabedokument verschiedene Dokumenttypen enthalten kann. Wenn Sie beispielsweise über eine PDF-Datei mit 3 Kontoauszügen und einem W2-Formular verfügen, wird beim Aufteilen versucht, diese in 4 separate Dokumente aufzuteilen, die einzeln verarbeitet werden.

Die automatische Aufteilung in BDA unterstützt Dateien mit bis zu 3 000 Seiten und einzelne Dokumente mit jeweils bis zu 20 Seiten.

Die Option zum Aufteilen von Dokumenten ist standardmäßig deaktiviert, kann aber bei Verwendung der API aktiviert werden. Im Folgenden finden Sie ein Beispiel für die Erstellung eines Projekts, bei dem die Aufteilung aktiviert ist. Die Auslassungspunkte stellen weitere Vorlagen dar, die für das Projekt bereitgestellt wurden.

```
   response = client.create_data_automation_project(
    projectName=project_name,
    projectDescription="Provide a project description",
    projectStage='LIVE',
    standardOutputConfiguration=output_config,
    customOutputConfiguration={
    'blueprints': [
        {
        'blueprintArn': Blueprint ARN,
        'blueprintStage': 'LIVE'
        },
        ...
        ]
        },
         overrideConfiguration={'document': {'splitter': {'state': 'ENABLED'}}}
)
```

Der Teil, der den Aufteilungsprozess ermöglicht, ist die overrideConfiguration-Zeile. Diese Zeile richtet die Aufteilung ein und ermöglicht es Ihnen, mehrere Dokumente innerhalb derselben Datei zu übergeben.

Dokumente werden nach den semantischen Grenzen im Dokument aufgeteilt. 

Die Aufteilung von Dokumenten erfolgt unabhängig von der Anwendung von Vorlagen und aufgeteilte Dokumente werden der passendsten Vorlage zugeordnet. Weitere Informationen zur Zuordnung von Vorlagen durch BDA finden Sie unter [Grundlagen zur Zuordnung von Vorlagen](#bda-blueprint-matching).

## Grundlagen zur Zuordnung von Vorlagen
<a name="bda-blueprint-matching"></a>

Die Zuordnung von Vorlagen basiert auf den folgenden Elementen:
+  Name der Vorlage 
+  Beschreibung der Vorlage 
+  Vorlagenfelder 

Bei der Verarbeitung von Dokumenten können Sie mehrere Vorlagen zum Abgleichen angeben. Dies ermöglicht die Verarbeitung verschiedener Dokumenttypen mit entsprechenden Vorlagen. Sie können IDs beim Aufrufen der Datenautomatisierungs-API mehrere Blueprints angeben, und BDA versucht, jedes Dokument dem am besten passenden Blueprint zuzuordnen. Dies ermöglicht die Verarbeitung von gemischten Dokumenttypen in einem einzigen Batch. Dies ist nützlich, wenn zu erwarten ist, dass Dokumente unterschiedliche Typen aufweisen (z. B. Kontoauszüge, Rechnungen, Reisepässe).

Wenn Sie separate Vorlagen benötigen, weil die Dokumentformate sehr unterschiedlich sind oder spezielle Prompts erfordern, kann die Erstellung einer Vorlage pro Dokumenttyp beim Abgleich helfen. Weitere Informationen zum Erstellen hilfreicher Vorlagen finden Sie unter [Best Practices für die Erstellung von Vorlagen](#bda-blueprint-best-practices).

## Best Practices für die Erstellung von Vorlagen
<a name="bda-blueprint-best-practices"></a>

 Halten Sie sich an die folgenden bewährten Methoden, um Ihre Vorlagen optimal zu nutzen: 
+ Geben Sie die Namen und Beschreibungen der Vorlagen explizit und detailliert an, um den Abgleich zu erleichtern. 
+ Durch die Bereitstellung mehrerer relevanter Vorlagen kann BDA die beste Übereinstimmung auswählen. Erstellen Sie separate Vorlagen für deutlich unterschiedliche Dokumentformate. 
+ Erwägen Sie, spezielle Blueprints für jede vendor/document Quelle zu erstellen, wenn Sie maximale Genauigkeit benötigen
+ Nehmen Sie nicht zwei Vorlagen desselben Typs in ein Projekt auf (z. B. zwei W2-Vorlagen). Für die Verarbeitung eines Dokuments werden Informationen aus dem Dokument selbst und aus der Vorlage verwendet. Wenn mehrere Vorlagen desselben Typs in einem Projekt vorhanden sind, führt dies zu einer schlechteren Leistung. 

Durch die Aufteilung von Dokumenten und den Abgleich mit mehreren Vorlagen kann BDA unterschiedliche Dokumentensätze flexibler handhaben und gleichzeitig für jedes Dokument die am besten geeignete Extraktionslogik anwenden.

# Modalitäten für die Deaktivierung und Weiterleitung von Dateitypen
<a name="bda-routing-enablement"></a>

Standardmäßig verarbeiten Projekte in BDA unterstützte Dateitypen, indem sie nach verschiedenen semantischen Modalitäten sortiert werden. Wenn Sie Ihr Projekt erstellen oder bearbeiten, können Sie ändern, welche Modalitäten verarbeitet werden und welche Dateitypen an welche Modalitäten gesendet werden. In diesem Abschnitt werden wir uns mit der Aktivierung und Deaktivierung verschiedener Modalitäten, der Weiterleitung von Dateien an bestimmte Modalitäten und dem Standard-Weiterleitungsverfahren für BDA befassen.

## Deaktivieren der Modalitätsverarbeitung
<a name="bda-modality-enablement"></a>

Wenn Sie ein Projekt erstellen, denken Sie dabei möglicherweise an einen Anwendungsfall, für den nicht alle Arten von Dateien verarbeitet werden müssen. Sie könnten beispielsweise nur Dokumente und Audiodateien verarbeiten wollen. Wenn dies der Fall ist, möchten Sie nicht, dass BDA ein JPEG sendet, das als Bild oder als Video verarbeitet werden MP4 soll. Mit der Modalitätsaktivierung können Sie bestimmte Modalitäten in einem Projekt deaktivieren und so die Antworten der BDA-Verarbeitung kuratieren.

**Deaktivieren von Modalitäten mit der BDA-Konsole**  
Wenn Sie die BDA-Konsole verwenden, erfolgt die Modalitätsaktivierung anhand einer Checkliste, in der Sie einfach jede Modalität aus- oder abwählen, während Sie Ihr Projekt bearbeiten oder erstellen. Diese Optionen befinden sich auf der Registerkarte „Erweiterte Einstellungen“. Für ein Projekt muss mindestens eine Modalität ausgewählt werden.

![\[Modality enablement options with checkboxes for document, image, video, and audio.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/bda/modalityenableconsole.png)


**Deaktivieren von Modalitäten mit der BDA-API**  
Bei Verwendung der BDA-API erfolgt die Modalitätsaktivierung über das `overrideConfiguration`-Anfrageselement, das sich in der `CreateDataAutomation`-Operation befindet. Jede Modalität hat einen zugehörigen Abschnitt, in dem Sie die Modalität `ENABLED` oder `DISABLED` deklarieren können. Im Folgenden finden Sie ein Beispiel für das `overrideConfiguration`-Element, bei dem nur die Dokument- und Audiomodalitäten aktiviert sind. Das Flag `modalityProcessing` ist standardmäßig auf `ENABLED` gesetzt.

```
"overrideConfiguration" : {
    "document": {
        "splitter": {
            "state": ENABLED
        },
        "modalityProcessing": {
            "state": ENABLED
        },
    },
    "image": {
        "modalityProcessing": {
            "state": DISABLED
        }
    },
    "video": {
        "modalityProcessing": {
            "state": DISABLED 
        }
    },
    "audio": {
        "modalityProcessing": {
            "state": ENABLED
        }
    },
    ...
}
```

Die Auslassungspunkte am Ende dieses Abschnitts zeigen, dass das `modalityRouting`-Element entfernt wurde. Darauf werden wir im nächsten Abschnitt näher eingehen.

## Weiterleiten von Dateien an bestimmte Verarbeitungsarten
<a name="bda-modality-routing"></a>

Bestimmte Dateitypen können auf der Grundlage einer Vielzahl von Faktoren an unterschiedliche Modalitäten weitergeleitet werden. Mit Modalitäts-Routing können Sie festlegen, dass bestimmte Dateitypen manuell an eine bestimmte Modalität weitergeleitet werden. JPEGs und PNGs kann entweder zur Dokument- oder Bildverarbeitung weitergeleitet werden. MP4s und MOVs kann entweder zur Video- oder Audioverarbeitung weitergeleitet werden.

**Weiterleitung mit der BDA-Konsole**  
Wenn Sie sich auf der Registerkarte „Erweiterte Einstellungen“ befinden, können Sie beim Erstellen oder Bearbeiten einer Vorlage wählen, ob Sie eine neue manuelle Modalitätsweiterleitung hinzufügen möchten. Auf diese Weise können Sie einen der 4 verfügbaren Dateitypen auswählen und dann festlegen, an welche Verarbeitungsmodalität er weitergeleitet werden soll. Unten sehen Sie einen Screenshot der Konsole mit einer manuellen Modalitätsweiterleitung, die PNG-Dateien an die Dokumentverarbeitungsmodalität sendet.

**Anmerkung**  
Die Einstellungen für JPEG-Dateien gelten sowohl für „.jpeg“- als auch für „.jpg“-Dateien. Die MP4 Einstellungen gelten für beide „.mp4“ - „.m4v“ -Dateien.

![\[Eine Abbildung der AWS-Konsole mit zwei Dropdown-Menüs für Dateityp und Modalitätsziel. Als Werte sind PNG und Dokument ausgewählt.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/bda/manualrouting.png)


**Weiterleitung mit der BDA-API**  
Ähnlich wie bei der Modalitätsaktivierung erfolgt die Modalitätsweiterleitung über das `overrideConfiguration`-Anfrageselement. Im Folgenden finden Sie ein Beispiel für den `modalityRouting`-Teil von `overrideConfiguration`. In diesem Beispiel wird vorausgesetzt, dass alle Modalitäten aktiviert sind, und es werden JPEG- und PNG-Dateien an die Dokumentmodalität MP4 und MOV-Dateien an die Audiomodalität weitergeleitet.

```
...
   "modalityRouting": {
        "jpeg": DOCUMENT, 
        "png": DOCUMENT,  
        "mp4": AUDIO,     
        "mov": AUDIO      
    }
}
```

Die Auslassungszeichen am Anfang des Beispiels zeigen, dass der Rest von `overrideConfiguration` entfernt wurde. Weitere Informationen finden Sie im Abschnitt zur Aktivierung von Modalitäten und zur Funktion für die Dokumentaufteilung.

## Standard-Routing für die API InvokeDataAutomationAsync
<a name="bda-standard-routing-async"></a>

Wenn Sie keine eigenen Weiterleitungsverfahren einrichten, verwendet BDA eine Reihe von Standardprozeduren, die anhand des Dateityps bestimmen, zu welcher Modalität BDA weiterleitet. Die Standardverfahren sind in der folgenden Tabelle aufgeführt.

PNGs und JPEGs listet Semantic Classifer als Standardverhalten auf. Das bedeutet, dass BDA anhand interner Modelle Indikatoren dafür betrachtet, ob es sich bei einer übergebenen Datei um ein Bild oder ein Dokument handelt, und die Weiterleitung automatisch durchführt.


| Dateitypen | Standardverhalten für Weiterleitung | 
| --- | --- | 
|  PNG  |  Semantischer Klassifikator; entweder Bild oder Dokument  | 
|  JPEG  |  Semantischer Klassifikator; entweder Bild oder Dokument  | 
|  PDF, TIFF  |  Dokument  | 
|  MP4, MOV  |  Video  | 
|  AMR, FLAC, M4A, OGG, WEBM MP3, WAV  |  Audio  | 

## InvokeDataAutomation Standard-Routing für die API
<a name="bda-standard-routing-sync"></a>

Die [InvokeDataAutomation](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_data-automation-runtime_InvokeDataAutomation.html)API berücksichtigt auch anhand interner Modelle Indikatoren dafür, ob es sich bei einer eingereichten PNG- oder JPEG-Datei um ein Bild oder ein Dokument handelt, und führt das Routing automatisch durch. Die Standardverfahren sind in der folgenden Tabelle aufgeführt.

PNGs und JPEGs listet Semantic Classifier als Standardverhalten auf. Das bedeutet, dass BDA anhand interner Modelle Indikatoren dafür betrachtet, ob es sich bei einer übergebenen Datei um ein Bild oder ein Dokument handelt, und die Weiterleitung automatisch durchführt. PDF- und TIFF-Dateien werden zur Verarbeitung an die Modalität Dokumente weitergeleitet. InvokeDataAutomation Die API unterstützt derzeit keine Audio- und Videodateien.


| Dateitypen | Standardverhalten für Weiterleitung | 
| --- | --- | 
|  PNG  |  Semantischer Klassifikator; entweder Bild oder Dokument  | 
|  JPEG  |  Semantischer Klassifikator; entweder Bild oder Dokument  | 
|  PDF, TIFF  |  Dokument  | 

# Erforderliche regionsübergreifende Unterstützung für Bedrock Data Automation
<a name="bda-cris"></a>

Für BDA müssen Benutzer bei der Verarbeitung von Dateien die Unterstützung für regionsübergreifende Inferenzen verwenden. Mit regionsübergreifender Inferenz wählt Amazon Bedrock Data Automation automatisch die optimale Region innerhalb Ihrer Region aus (wie in der Tabelle unten beschrieben), um Ihre Inferenzanfrage zu bearbeiten, die verfügbaren Rechenressourcen und Modellverfügbarkeit zu maximieren und das beste Kundenerlebnis zu bieten. Für die Nutzung von regionsübergreifender Inferenz fallen keine zusätzlichen Kosten an. Regionsübergreifende Inferenzanfragen bleiben innerhalb von AWS-Regionen, die Teil des Bereichs sind, in dem sich die Daten ursprünglich befinden. Beispielsweise verbleibt eine in den USA gestellte Anfrage innerhalb der AWS-Regionen in den USA. Auch wenn die Daten nur in der Quellregion gespeichert bleiben, können Ihre Anforderungen und Ausgabeergebnisse bei Verwendung der regionsübergreifenden Inferenz möglicherweise Ihre primäre Region verlassen. Alle Daten werden bei der Übertragung über das sichere Netzwerk von Amazon verschlüsselt. 

Die folgende Tabelle enthält die ARNs für verschiedene Inferenzprofile. Ersetzen Sie „Konto-ID“ durch die Konto-ID, die Sie verwenden.


| Quellregion | Amazon-Ressourcenname (ARN) | Unterstützte Regionen | 
| --- | --- | --- | 
|  USA Ost (Nord-Virginia)  |  arn:aws:bedrock:us-east-1:*Konto-ID*:data-automation-profile/us.data-automation-v1  |  us-east-1 us-east-2 us-west-1 us-west-2  | 
|  USA West (Oregon)  |  arn:aws:bedrock:us-west-2:*Konto-ID*:data-automation-profile/us.data-automation-v1  |  us-east-1 us-east-2 us-west-1 us-west-2  | 
|  Europa (Frankfurt)  |  arn:aws:bedrock:eu-central-1:*Konto-ID*:data-automation-profile/eu.data-automation-v1  |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
|  Europa (Irland)  |  arn:aws:bedrock:eu-west-1:*Konto-ID*:data-automation-profile/eu.data-automation-v1  |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
|  Europa (London)  |  arn:aws:bedrock:eu-west-2:*Konto-ID*:data-automation-profile/eu.data-automation-v1  |  eu-west-2  | 
|  Asien-Pazifik (Mumbai)  |  arn:aws:bedrock:ap-south-1:*Konto-ID*:data-automation-profile/apac.data-automation-v1  |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
|  Asien-Pazifik (Sydney)  |  arn:aws:bedrock:ap-southeast-2:*Konto-ID*:data-automation-profile/apac.data-automation-v1  |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
|  AWS GovCloud (USA-West)  |  arn:aws:bedrock:gov-cloud:*Konto-ID*:data-automation-profile/us-gov.data-automation-v1  |  us-gov-west-1  | 

Im Folgenden finden Sie eine IAM-Beispielrichtlinie für die Verarbeitung von Dokumenten, bei denen CRIS für `us-east-1` oder `us-west-2` aktiviert ist.

```
{"Effect": "Allow",
 "Action": ["bedrock:InvokeDataAutomationAsync"],
 "Resource": [
  "arn:aws:bedrock:us-east-1:account_id:data-automation-profile/us.data-automation-v1",
  "arn:aws:bedrock:us-east-2:account_id:data-automation-profile/us.data-automation-v1",
  "arn:aws:bedrock:us-west-1:account_id:data-automation-profile/us.data-automation-v1",
  "arn:aws:bedrock:us-west-2:account_id:data-automation-profile/us.data-automation-v1"]}
```

# Standardausgabe in Bedrock Data Automation
<a name="bda-standard-output"></a>

Die Standardausgabe ist die Standardmethode für die Interaktion mit Amazon Bedrock Data Automation (BDA). Wenn Sie ein Dokument ohne feste Vorlage oder festes Projekt an die BDA-API übergeben, wird die Standardausgabe für diesen Dateityp zurückgegeben. Die Standardausgabe kann mithilfe von Projekten geändert werden, in denen Konfigurationsinformationen für jeden Datentyp gespeichert werden. Sie können für jedes Projekt eine Standardausgabekonfiguration pro Datentyp verwenden. BDA stellt immer eine Standardausgabeantwort bereit, auch wenn diese zusammen mit einer benutzerdefinierten Ausgabeantwort erfolgt.

Für jeden Datentyp gibt es unterschiedliche Standardausgabeoptionen. Einige dieser Optionen sind Teil der Standardantwort von Bedrock Data Automation, während andere nur als Umschalter für die Arbeit mit dem Datentyp in einem Projekt existieren. In den folgenden Abschnitten werden die individuellen Antwortoptionen der einzelnen Datentypen beschrieben, wobei angegeben wird, welche Standardoptionen und welche optionale Optionen sind.

# Dokumente
<a name="bda-output-documents"></a>

Mit der Standardausgabe für Dokumente können Sie die Granularität der Antwort festlegen, an der Sie interessiert sind, sowie das Ausgabeformat und das Textformat für die Ausgabe festlegen. Im Folgenden finden Sie einige der Ausgaben, die Sie aktivieren können.

**Anmerkung**  
BDA kann DOCX-Dateien verarbeiten. Um DOCX-Dateien zu verarbeiten, werden sie konvertiert in PDFs. Das bedeutet, dass die Zuordnung von Seitenzahlen für DOCX-Dateien nicht funktioniert. Bilder der konvertierten Datei PDFs werden in Ihren Ausgabe-Bucket hochgeladen, wenn die Option JSON\$1 und die Seitengranularität ausgewählt sind.

## Antwortgranularität
<a name="document-granularity"></a>

Die Granularität der Antwort bestimmt, welche Art von Antwort Sie bei der Textextraktion eines Dokuments erhalten möchten. Mit jeder Granularitätsebene erhalten Sie mehr separate Antworten, wobei mit „Seite“ der gesamte extrahierte Text zusammen bereitgestellt wird und mit „Wort“ jedes Wort als separate Antwort angezeigt wird. Dies sind die verfügbaren Granularitätsstufen:
+ Granularität auf Seitenebene – Dies ist standardmäßig aktiviert. Durch die Granularität auf Seitenebene wird jede Seite des Dokuments im von Ihnen ausgewählten Textausgabeformat bereitgestellt. Wenn Sie eine PDF-Datei verarbeiten und diese Granularitätsebene aktiviert ist, werden eingebettete Hyperlinks erkannt und zurückgegeben.
+ Granularität auf Elementebene (Layout) – Diese Option ist standardmäßig aktiviert. Stellt den Text des Dokuments im von Ihnen ausgewählten Ausgabeformat bereit, aufgeteilt in verschiedene Elemente. Diese Elemente, z. B. Abbildungen, Tabellen oder Absätze, werden in logischer Lesereihenfolge zurückgegeben, die auf der Struktur des Dokuments basiert. Wenn Sie eine PDF-Datei verarbeiten und diese Granularitätsebene aktiviert ist, werden eingebettete Hyperlinks erkannt und zurückgegeben.
+ Granularität auf Wortebene – Stellt Informationen zu einzelnen Wörtern bereit, ohne dass eine umfassendere Kontextanalyse verwendet wird. Es werden jedes Wort und seine Position auf der Seite bereitgestellt.

## Ausgabeeinstellungen
<a name="document-output-settings"></a>

Die Ausgabeeinstellungen bestimmen, wie die heruntergeladenen Ergebnisse strukturiert werden. Diese Einstellung gilt ausschließlich für die Konsole. Dies sind die Optionen für die Ausgabeeinstellungen:
+ JSON – Die Standardausgabestruktur für die Dokumentenanalyse. Stellt eine JSON-Ausgabedatei mit den Informationen aus Ihren Konfigurationseinstellungen bereit.
  + Asynchrone [InvokeDataAutomationAsync](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_data-automation-runtime_InvokeDataAutomationAsync.html)API: Die JSON-Ausgabe für die Async-API erfolgt nur in S3.
  + [InvokeDataAutomation](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_data-automation-runtime_InvokeDataAutomation.html)Sync-API: Die JSON-Ausgabe kann durch Leveraging auf S3 oder Inline gesetzt werden. `outputconfiguration` Wenn S3 ausgewählt ist, geht die JSON-Ausgabe nur an S3 (nicht Inline). Wenn S3 nicht bereitgestellt wird, unterstützt die Sync-API-Ausgabe nur JSON inline.
+ JSON\$1-Dateien — Nur für Async-API verfügbar. [InvokeDataAutomationAsync](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_data-automation-runtime_InvokeDataAutomationAsync.html) Mit dieser Einstellung werden sowohl eine JSON-Ausgabe als auch Dateien generiert, die unterschiedlichen Ausgaben entsprechen. Mit dieser Einstellung erhalten Sie beispielsweise eine Textdatei für die gesamte Textextraktion, eine Markdown-Datei für den Text mit strukturellem Markdown und CSV-Dateien für jede Tabelle, die im Text gefunden wird. Abbildungen in einem Dokument werden ebenso gespeichert wie zugeschnittene Abbildungen und korrigierte Bilder. Wenn Sie eine DOCX-Datei verarbeiten und diese Option ausgewählt haben, wird außerdem die konvertierte PDF-Datei Ihrer DOCX-Datei im Ausgabeordner gespeichert. Diese Ausgaben befinden sich in `standard_output/logical_doc_id/assets/` in Ihrem Ausgabeordner.

**Anmerkung**  
Die Sync-API gibt außer der JSON-Datei keine weiteren Dateien aus. Das Ausgabe-JSON enthält nur das Textformat, das als Teil des Standardausgabetextformats ausgewählt wurde. Die Sync-API gibt keine Bildausschnitte oder korrigierte Bilder aus.
DocX wird von der Sync-API nicht unterstützt.

## Textformat
<a name="document-text-format"></a>

Das Textformat bestimmt die verschiedenen Arten von Text, die über verschiedene Extraktionsvorgänge bereitgestellt werden. Sie können eine beliebige Anzahl der folgenden Optionen für Ihr Textformat auswählen.
+ Klartext – Diese Einstellung ermöglicht eine reine Textausgabe ohne Angabe von Formatierungs- oder anderen Markdown-Elementen.
+ Text mit Markdown – Die Standardausgabeeinstellung für die Standardausgabe. Stellt Text mit integrierten Markdown-Elementen bereit.
+ Text mit HTML – Stellt Text mit HTML-Elementen bereit, die in die Antwort integriert sind.
+ CSV – Stellt eine strukturierte CSV-Ausgabe für Tabellen innerhalb des Dokuments bereit. Dies gibt nur eine Antwort für Tabellen und nicht für andere Elemente des Dokuments zurück.

## Begrenzungsrahmen und generative Felder
<a name="additional-response-document"></a>

Für Dokumente gibt es zwei Antwortoptionen, deren Ausgabe auf der Grundlage der ausgewählten Granularität geändert wird. Dies sind Begrenzungsrahmen und generative Felder. Wenn Sie „Begrenzungsrahmen“ auswählen, erhalten Sie eine visuelle Markierung des Elements oder Worts, auf das Sie in der Dropdown-Liste der Konsolenantwort klicken. Auf diese Weise können Sie bestimmte Elemente Ihrer Antwort leichter finden. Begrenzungsrahmen werden in Ihrem JSON-Code als Koordinaten der vier Ecken des Felds zurückgegeben.

Wenn Sie „Generative Felder“ auswählen, wird eine Zusammenfassung des Dokuments generiert, sowohl in einer Version mit 10 Wörtern als auch in einer Version mit 250 Wörtern. Wenn Sie dann Elemente als Antwortgranularität auswählen, generieren Sie für jede im Dokument gefundene Abbildung eine beschreibende Überschrift. Zu Abbildungen gehören z. B. Diagramme, Grafiken und Bilder.

------
#### [ Async ]

Dieser Abschnitt konzentriert sich auf die verschiedenen Antwortobjekte, die Sie erhalten, wenn Sie den API-Vorgang InvokeDataAutomationAsync für eine Dokumentdatei ausführen. Im Folgenden werden die einzelnen Abschnitte des Antwortobjekts aufgeschlüsselt und dann eine vollständige, ausgefüllte Antwort für ein Beispieldokument angezeigt. Der erste Abschnitt, den wir erhalten, ist `metadata`.

```
"metadata":{
   "logical_subdocument_id":"XXXX-XXXX-XXXX-XXXX",
   "semantic_modality":"DOCUMENT",
   "s3_bucket":"bucket",
   "s3_prefix":"prefix"
},
```

Der erste Abschnitt oben bietet einen Überblick über die mit dem Dokument verknüpften Metadaten. Neben den S3-Informationen erhalten Sie in diesem Abschnitt auch Informationen darüber, welche Modalität für Ihre Antwort ausgewählt wurde.

```
"document":{
   "representation":{
      "text":"document text",
      "html":"document title document content",
      "markdown":"# text"
   },
   "description":"document text",
   "summary":"summary text",
   "statistics":{
      "element_count":5,
      "table_count":1,
      "figure_count":1,
      "word_count":1000,
      "line_count":32
   }
},
```

Der obige Abschnitt enthält Informationen zur Granularität auf Dokumentebene. Die Abschnitte für Beschreibung und Zusammenfassung sind die generierten Felder, die auf dem Dokument basieren. Der Abschnitt „representation“ enthält den tatsächlichen Inhalt des Dokuments mit verschiedenen Formatierungsstilen. Schließlich enthält die Statistik Informationen zum tatsächlichen Inhalt des Dokuments, z. B. wie viele semantische Elemente es gibt, wie viele Abbildungen, Wörter, Zeilen usw.

Dies sind die Informationen für eine Tabellenentität. Bei InvokeDataAutomationAsync (asynchronen) Anfragen geben sie zusätzlich zu den Standortinformationen, den verschiedenen Textformaten, Tabellen und der Lesereihenfolge speziell CSV-Informationen und zugeschnittene Bilder der Tabelle in S3-Buckets zurück. Die CSV-Informationen zeigen die verschiedenen Kopf- und Fußzeilen sowie Titel. Die Bilder werden an den S3-Bucket mit dem in der Anfrage festgelegten Präfix weitergeleitet. InvokeDataAutomationAsync Bei InvokeDataAutomation (Sync-) Anfragen werden CSV und das zugeschnittene Bild der Tabelle in S3-Buckets nicht unterstützt.

Wenn Sie eine PDF-Datei verarbeiten, enthält der Statistikbereich der Antwort auch `hyperlinks_count`. Dies gibt an, wie viele Hyperlinks in Ihrem Dokument vorhanden sind.

```
{
   "id":"entity_id",
   "type":"TEXT",
   "representation":{
      "text":"document text",
      "html":"document title document content",
      "markdown":"# text"
   },
   "reading_order":2,
   "page_indices":[
      0
   ],
   "locations":[
      {
         "page_index":0,
         "bounding_box":{
            "left":0.0,
            "top":0.0,
            "width":0.05,
            "height":0.5
         }
      }
   ],
   "sub_type":"TITLE/SECTION_TITLE/HEADER/FOOTER/PARAGRAPH/LIST/PAGE_NUMBER"
},
```

Dies ist die Entität, die für Text innerhalb eines Dokuments verwendet wird, und wird durch die Zeile `TYPE` in der Antwort gekennzeichnet. Auch hier zeigt die Darstellung den Text in verschiedenen Formaten. `reading_order` zeigt, wann ein Leser den Text logischerweise sehen würde. Dies ist eine semantische Reihenfolge, die auf zugehörigen Schlüsseln und Werten basiert. Beispielsweise werden die Absatzüberschriften dem jeweiligen Absatz in Lesereihenfolge zugeordnet. `page_indices` gibt an, auf welchen Seiten sich der Text befindet. Als Nächstes werden die Positionsinformationen angezeigt, ggf. mit einem Begrenzungsrahmen, falls dies für die Antwort aktiviert wurde. Schließlich gibt es den Entitätsuntertyp. Dieser Untertyp liefert detailliertere Informationen dazu, welche Art von Text erkannt wurde. Eine vollständige Liste von Untertypen finden Sie in der API-Referenz.

```
{
   "id":"entity_id",
   "type":"TABLE",
   "representation":{
      "html":"table.../table",
      "markdown":"| header | ...",
      "text":"header \t header",
      "csv":"header, header, header\n..."
   },
   "csv_s3_uri":"s3://",
   "headers":[
      "date",
      "amount",
      "description",
      "total"
   ],
   "reading_order":3,
   "title":"Title of the table",
   "footers":[
      "the footers of the table"
   ],
   "crop_images":[
      "s3://bucket/prefix.png",
      "s3://bucket/prefix.png"
   ],
   "page_indices":[
      0,
      1
   ],
   "locations":[
      {
         "page_index":0,
         "bounding_box":{
            "left":0,
            "top":0,
            "width":1,
            "height":1
         }
      },
      {
         "page_index":1,
         "bounding_box":{
            "left":0,
            "top":0,
            "width":1,
            "height":1
         }
      }
   ],
   "sub_type":"TITLE/SECTION_TITLE/HEADER/FOOTER/PARAGRAPH/LIST/PAGE_NUMBER"
},
```

Dies sind die Informationen für eine Tabellenentität. Zusätzlich zu den Positionsinformationen, den verschiedenen Textformaten, Tabellen und der Lesereihenfolge geben sie insbesondere CSV-Informationen und zugeschnittene Bilder der Tabelle in S3-Buckets zurück. Die CSV-Informationen zeigen die verschiedenen Kopf- und Fußzeilen sowie Titel. Die Bilder werden an den S3-Bucket mit dem in der Anfrage festgelegten Präfix weitergeleitet. InvokeDataAutomation 

```
{

   "id":"entity_id",

   "type":"FIGURE",

   "summary":"",

   "representation":{

      "text":"document text",

      "html":"document title document content",

      "markdown":"# text"

   },

   "crop_images":[

      "s3://bucket/prefix.png",

      "s3://bucket/prefix.png"

   ],

   "locations":[

      {

         "page_index":0,

         "bounding_box":{

            "left":0,

            "top":0,

            "width":1,

            "height":1

         }

      }

   ],

   "sub_type":"CHART",

   "title":"figure title",

   "rai_flag":"APPROVED/REDACTED/REJECTED",

   "reading_order":1,

   "page_indices":[

      0

   ]

}
,
```

Dies ist die Entität, die für Abbildungen verwendet wird, z B. Grafiken und Diagramme im Dokument. Ähnlich wie bei Tabellen werden diese Abbildungen zugeschnitten und die Bilder an den im Präfix festgelegten S3-Bucket gesendet. Zusätzlich erhalten Sie einen `sub_type`-Wert und eine Antwort mit dem Titel der Abbildung für den Titeltext sowie einen Hinweis darauf, um welche Art von Abbildung es sich handelt.

```
"pages":[
   {
      "id":"page_id",
      "page_index":0,
      "detected_page_number":1,
      "representation":{
         "text":"document text",
         "html":"document title document content",
         "markdown":"# text"
      },
      "statistics":{
         "element_count":5,
         "table_count":1,
         "figure_count":1,
         "word_count":1000,
         "line_count":32
      },
      "asset_metadata":{
         "rectified_image":"s3://bucket/prefix.png",
         "rectified_image_width_pixels":1700,
         "rectified_image_height_pixels":2200
      }
   }
],
```

Die letzte Entität, die über die Standardausgabe extrahiert wird, ist „pages“. Dies ist mit Text-Entitäten identisch, enthält aber zusätzlich Seitenzahlen für die auf der Seite erkannte Seitenzahl.

```
"text_lines":[
   {
      "id":"line_id",
      "text":"line text",
      "reading_order":1,
      "page_index":0,
      "locations":{
         "page_index":0,
         "bounding_box":{
            "left":0,
            "top":0,
            "width":1,
            "height":1
         }
      }
   }
],
```

```
"text_words":[
   {
      "id":"word_id",
      "text":"word text",
      "line_id":"line_id",
      "reading_order":1,
      "page_index":0,
      "locations":{
         "page_index":0,
         "bounding_box":{
            "left":0,
            "top":0,
            "width":1,
            "height":1
         }
      }
   }
]
```

Diese letzten beiden Elemente beziehen sich auf einzelne Textbereiche. Die Granularität auf Wortebene gibt für jedes Wort eine Antwort zurück, während bei der Standardausgabe nur Textzeilen angezeigt werden.

------
#### [ Sync ]

Dieser Abschnitt konzentriert sich auf die verschiedenen Antwortobjekte, die Sie erhalten, wenn Sie den API-Vorgang InvokeDataAutomation für eine Dokumentdatei ausführen. Im Folgenden werden die einzelnen Abschnitte des Antwortobjekts aufgeschlüsselt und dann eine vollständige, ausgefüllte Antwort für ein Beispieldokument angezeigt. Der erste Abschnitt, den wir erhalten, ist `metadata`.

```
            "metadata": {
                "logical_subdocument_id": "1",
                "semantic_modality": "DOCUMENT",
                "number_of_pages": X,
                "start_page_index": "1",
                "end_page_index": X,
                "file_type": "PDF"
            },
```

Der erste Abschnitt oben bietet einen Überblick über die mit dem Dokument verknüpften Metadaten. Da die synchrone InvokeDataAutomation API derzeit das Aufteilen von Dokumenten nicht unterstützt, ist logical\$1subdocument\$1id immer gleich 1.

```
"document":{
   "representation":{
      "text":"document text",
      "html":"document title document content",
      "markdown":"# text"
   },
   "description":"document text",
   "summary":"summary text",
   "statistics":{
      "element_count":5,
      "table_count":1,
      "figure_count":1,
      "word_count":1000,
      "line_count":32
   }
},
```

Der obige Abschnitt enthält Informationen zur Granularität auf Dokumentebene. Die Abschnitte für Beschreibung und Zusammenfassung sind die generierten Felder, die auf dem Dokument basieren. Der Abschnitt „representation“ enthält den tatsächlichen Inhalt des Dokuments mit verschiedenen Formatierungsstilen. Schließlich enthält die Statistik Informationen zum tatsächlichen Inhalt des Dokuments, z. B. wie viele semantische Elemente es gibt, wie viele Abbildungen, Wörter, Zeilen usw.

Hinweis: Im Gegensatz zur asynchronen Anfrage unterstützt die synchrone InvokeDataAutomationAsync InvokeDataAutomation Anfrage nicht die Rückgabe von CSV-Informationen und einem zugeschnittenen Bild der Tabelle in S3-Buckets. 

```
{
"id":"entity_id",
   "type":"TEXT",
   "representation":{
"text":"document text",
      "html":"document title document content",
      "markdown":"# text"
   },
   "reading_order":2,
   "page_indices":[
      0
   ],
   "locations":[
      {
"page_index":0,
         "bounding_box":{
"left":0.0,
            "top":0.0,
            "width":0.05,
            "height":0.5
         }
      }
   ],
   "sub_type":"TITLE/SECTION_TITLE/HEADER/FOOTER/PARAGRAPH/LIST/PAGE_NUMBER"
},
```

 Dies ist die Entität, die für Text innerhalb eines Dokuments verwendet wird und in der Antwort durch die TYPE-Zeile gekennzeichnet ist. Auch hier zeigt die Darstellung den Text in verschiedenen Formaten. reading\$1order gibt an, wann ein Leser den Text logischerweise sehen würde. Dies ist eine semantische Reihenfolge, die auf zugehörigen Schlüsseln und Werten basiert. Beispielsweise werden die Titel von Absätzen dem jeweiligen Absatz in Lesereihenfolge zugeordnet. page\$1indices gibt an, auf welchen Seiten sich der Text befindet. Als Nächstes werden die Positionsinformationen angezeigt, ggf. mit einem Begrenzungsrahmen, falls dies für die Antwort aktiviert wurde. Schließlich gibt es den Entitätsuntertyp. Dieser Untertyp liefert detailliertere Informationen dazu, welche Art von Text erkannt wurde. Eine vollständige Liste von Untertypen finden Sie in der API-Referenz. 

```
{
    "id": "entity_id",
    "type": "TABLE",
    "representation": {
        "html": "table.../table",
        "markdown": "| header | ...",
        "text": "header \t header",
        "csv": "header, header, header\n..."
    },
    "headers": ["date", "amount", "description", "total"],
    "reading_order": 3,
    "title": "Title of the table",
    "footers": ["the footers of the table"],
    "page_indices": [0, 1],
    "locations": [{
        "page_index": 0,
        "bounding_box": {
            "left": 0,
            "top": 0,
            "width": 1,
            "height": 1
        }
    }, {
        "page_index": 1,
        "bounding_box": {
            "left": 0,
            "top": 0,
            "width": 1,
            "height": 1
        }
    }]
},
```

Dies sind die Informationen für eine Tabellenentität. Die CSV-Informationen zeigen die verschiedenen Kopf- und Fußzeilen sowie Titel. 

```
{

    "id": "entity_id",
    "type": "FIGURE",
    "summary": "",
    "representation": {
        "text": "document text",
        "html": "document title document content",
        "markdown": "# text"
    },

    "locations": [

        {
            "page_index": 0,
            "bounding_box": {
                "left": 0,
                "top": 0,
                "width": 1,
                "height": 1
            }
        }
    ],

    "sub_type": "CHART",
    "title": "figure title",
    "reading_order": 1,
    "page_indices": [
        0
    ]
},
​
```

Dies ist die Entität, die für Abbildungen verwendet wird, z B. Grafiken und Diagramme im Dokument. Sie erhalten eine Antwort mit dem Titel `sub_type` und einer Abbildung zum Titeltext sowie eine Angabe, um welche Art von Abbildung es sich handelt.

```
"pages":[
   "pages":[
   {
"id":"page_id",
      "page_index":0,
      "detected_page_number":1,
      "representation":{
"text":"document text",
         "html":"document title document content",
         "markdown":"# text"
      },
      "statistics":{
"element_count":5,
         "table_count":1,
         "figure_count":1,
         "word_count":1000,
         "line_count":32
      },
      "asset_metadata":{
"rectified_image":"s3://bucket/prefix.png",
         "rectified_image_width_pixels":1700,
         "rectified_image_height_pixels":2200
      }
   }
],
```

Die letzte Entität, die über die Standardausgabe extrahiert wird, ist „pages“. Dies ist mit Text-Entitäten identisch, enthält aber zusätzlich Seitenzahlen für die auf der Seite erkannte Seitenzahl.

```
"text_lines":[
   {
      "id":"line_id",
      "text":"line text",
      "reading_order":1,
      "page_index":0,
      "locations":{
         "page_index":0,
         "bounding_box":{
            "left":0,
            "top":0,
            "width":1,
            "height":1
         }
      }
   }
],
```

```
"text_words":[
   {
      "id":"word_id",
      "text":"word text",
      "line_id":"line_id",
      "reading_order":1,
      "page_index":0,
      "locations":{
         "page_index":0,
         "bounding_box":{
            "left":0,
            "top":0,
            "width":1,
            "height":1
         }
      }
   }
]
```

Diese letzten beiden Elemente beziehen sich auf einzelne Textbereiche. Die Granularität auf Wortebene gibt für jedes Wort eine Antwort zurück, während bei der Standardausgabe nur Textzeilen angezeigt werden.

------

## JSON für zusätzliche Dateiformat-Metadaten
<a name="output-json-plus"></a>

Wenn Sie Ihre zusätzlichen Dateien über das Flag „Zusätzliche Dateiformate“ erhalten, erhalten Sie eine JSON-Datei für alle entschlüsselten Bilder, die extrahiert wurden. BDA korrigiert gedrehte Bilder, indem es eine Homographie verwendet, um das Bild in einem 90-Grad-Winkel zu drehen. Ein JSON-Beispiel finden Sie unten:

```
        "asset_metadata": {
            "rectified_image": "s3://bucket/prefix.png",
            "rectified_image_width_pixels": 1700,
            "rectified_image_height_pixels": 2200,
            "corners": [
                [
                    0.006980135689736235,
                    -0.061692718505859376
                ],
                [
                    1.10847711439684,
                    0.00673927116394043
                ],
                [
                    0.994479346419327,
                    1.050548828125
                ],
                [
                    -0.11249661383904497,
                    0.9942819010416667
                ]
            ]
        }
```

Ecken stehen für die erkannten Ecken eines Bilds, anhand derer eine Homographie des Dokuments erstellt wird. Diese Homographie wird verwendet, um das Bild zu drehen und gleichzeitig seine anderen Eigenschaften beizubehalten.

# Bilder
<a name="bda-ouput-image"></a>

Das Feature Amazon Bedrock Data Automation (BDA) bietet einen umfassenden Satz von Standardausgaben für die Bildverarbeitung, um Erkenntnisse aus Ihren Bildern zu gewinnen. Sie können diese Erkenntnisse für eine Vielzahl von Anwendungen und Anwendungsfälle nutzen, z. B. für die Erkennung von Inhalten, die Platzierung kontextbezogener Anzeigen und die Markensicherheit. Im Folgenden finden Sie eine Übersicht über die einzelnen Operationstypen, die als Teil der Standardausgaben für Bilder verfügbar sind:

## Bildzusammenfassung
<a name="image-summarization"></a>

Die Bildzusammenfassung generiert eine beschreibende Bildunterschrift. Dieses Feature ist in der Konfiguration der Standardausgabe standardmäßig aktiviert.

## IAB-Taxonomie
<a name="iab-classification"></a>

Die Klassifikation des Interactive Advertising Bureau (IAB) wendet eine Standardtaxonomie für Werbung zur Klassifizierung von Bildinhalten an. Für die Vorschauversion unterstützt BDA 24 Kategorien der obersten Ebene (L1) und 85 Kategorien der zweiten Ebene (L2). Um die Liste der von BDA unterstützten IAB-Kategorien herunterzuladen, [klicken Sie hier](samples/iab-taxonomy.zip).

## Logo-Erkennung
<a name="image-logo-detection"></a>

Dieses Feature identifiziert Logos in einem Bild und stellt Informationen zu Begrenzungsrahmen bereit, die die Koordinaten der einzelnen erkannten Logos im Bild sowie Konfidenzwerte angeben. Dieses Feature ist standardmäßig nicht aktiviert.

## Texterkennung auf Bildern
<a name="image-text-detection"></a>

Dieses Feature erkennt und extrahiert Text in einem Bild und stellt Informationen zu Begrenzungsrahmen bereit, die die Koordinaten der einzelnen erkannten Textelemente im Bild sowie Konfidenzwerte angeben. Dieses Feature ist in der Konfiguration der Standardausgabe standardmäßig aktiviert.

## Inhaltsmoderation
<a name="content-moderation"></a>

Mit der Inhaltsmoderation werden unangemessene, unerwünschte oder anstößige Inhalte in einem Bild erkannt. Für die Vorschauversion unterstützt BDA 7 Moderationskategorien: explizit, nicht explizite Nacktheit intimer Bereiche und Küssen, Bademode oder Unterwäsche, Gewalt, Drogen und Tabak, Alkohol, Hasssymbole. Expliziter Text in Bildern wird nicht gekennzeichnet.

 Begrenzungsrahmen und die zugehörigen Konfidenzwerte können für relevante Features wie die Texterkennung zur Bereitstellung von Positionskoordinaten im Bild aktiviert oder deaktiviert werden. Standardmäßig sind Bildzusammenfassung und Bildtexterkennung aktiviert. 

## Standardausgabe für Bilder
<a name="image-standard-output-example"></a>

Im Folgenden sehen Sie ein Beispiel für eine Standardausgabe für ein Bild, das mit BDA verarbeitet wurde. Die einzelnen Abschnitte wurden gekürzt und durch Erklärungen getrennt.

```
{
"metadata": {
    "id": "image_123",
    "semantic_modality": "IMAGE",
    "s3_bucket": "my-s3-bucket",
    "s3_prefix": "images/",
    "image_width_pixels": 1920,
    "image_height_pixels": 1080,
    "color_depth": 24,
    "image_encoding": "JPEG"
},
```

Der erste Teil einer Antwort sind die Metadaten eines Bildes. Sie sehen den Dateinamen, den Kodierungstyp, den Speicherort des S3-Buckets und weitere Informationen zum Inhalt.

```
"image": {
    "summary": "Lively party scene with decorations and supplies",
```

Am Anfang der Antwort steht die generative Zusammenfassung des Bildes.

```
    "iab_categories": [
        {
            "id": "iab_12345",
            "type": "IAB",
            "category": "Party Supplies",
            "confidence": 0.9,
            "parent_name": "Events & Attractions",
            "taxonomy_level": 2
        },
        {
            "id": "iab_67890",
            "type": "IAB",
            "category": "Decorations",
            "confidence": 0.8,
            "parent_name": "Events & Attractions",
            "taxonomy_level": 1
        }
    ],
```

Als Nächstes folgen die IAB-Kategorien, die an eine Antwort angefügt sind. Diese stellen verschiedene Arten von Werbeklassifizierungen dar, wobei die standardmäßige IAB-Taxonomie verwendet wird. Für jede Kategorie werden Konfidenzwert, taxonomy\$1level und parent\$1name für die allgemeine übergeordnete Kategorie angegeben.

```
    "content_moderation": [
        {
            "id": "mod_12345",
            "type": "MODERATION",
            "category": "Drugs & Tobacco Paraphernalia & Use",
            "confidence": 0.7,
            "parent_name": "Drugs & Tobacco",
            "taxonomy_level": 2
        }
    ], 
    ...
```

Die Inhaltsmoderation bietet Informationen über mögliche explizite Inhalte in einem Bild. Diese weisen jeweils einen Konfidenzwert und eine Kategorie auf, die den weiter oben in diesem Abschnitt beschriebenen Kategorien für die Inhaltsmoderation entsprechen.

```
    "text_words": [
        {
            "id": "word_1",
            "text": "lively",
            "confidence": 0.9,
            "line_id": "line_1",
            "locations": [
                {
                    "bounding_box": {
                        "left": 100,
                        "top": 200,
                        "width": 50,
                        "height": 20
                    },
                    "polygon": [
                        {"x": 100, "y": 200},
                        {"x": 150, "y": 200},
                        {"x": 150, "y": 220},
                        {"x": 100, "y": 220}
                    ]
                }
            ]
        },
        ...
```

In diesem Abschnitt wird jedes erkannte Wort in einem Bild aufgeschlüsselt, einschließlich Konfidenz und der Position auf dem Bildschirm innerhalb des Bildes. Außerdem wird mit `line_id` angegeben, in welcher Zeile sich das Wort befindet.

```
    "text_lines": [
        {
            "id": "line_1",
            "text": "lively party",
            "confidence": 0.9,
            "locations": [
                {
                    "bounding_box": {
                        "left": 100,
                        "top": 200,
                        "width": 200,
                        "height": 20
                    },
                    "polygon": [
                        {"x": 100, "y": 200},
                        {"x": 300, "y": 200},
                        {"x": 300, "y": 220},
                        {"x": 100, "y": 220}
                    ]
                }
            ]
        }
    ]
},
```

Hier werden Wörter in Zeilen erkannt und mit Konfidenzwert und Begrenzungsfeld angegeben. 

```
"statistics": {
    "entity_count": 7,
    "object_count": 3,
    "line_count": 2,
    "word_count": 9
}
}
```

Zum Schluss kommen die Statistiken. Diese gliedern den gesamten Inhalt eines Bildes auf, u. a. mit Objekten.

# Videos
<a name="bda-ouput-video"></a>

BDA bietet eine Reihe von Standardausgaben zur Verarbeitung und Generierung von Erkenntnissen für Videos. Hier finden Sie einen detaillierten Überblick über die einzelnen Operationstypen:

## Zusammenfassung des gesamten Videos
<a name="video-summarization"></a>

Die vollständige Videozusammenfassung generiert eine allgemeine Zusammenfassung des gesamten Videos. Diese fasst die wichtigsten Themen, Ereignisse und Informationen im Video kurz zusammen. Die vollständige Videozusammenfassung ist für Inhalte mit beschreibendem Text wie Produktübersichten, Schulungen, Nachrichten, Talkshows und Dokumentarfilme optimiert. BDA versucht in der Zusammenfassung des gesamten Videos und in den Szenenzusammenfassungen, jedem einzelnen Sprecher anhand von Audiosignalen (z. B. wenn sich ein Sprecher vorstellt) oder visuellen Signalen (z. B. eine Präsentationsfolie mit dem Namen eines Sprechers) einen Namen zuzuordnen. Wenn der Name eines Sprechers nicht eindeutig aufgelöst werden kann, wird er durch eine eindeutige Nummer dargestellt (z. B. speaker\$10).

## Kapitelzusammenfassungen
<a name="video-scene-summarization"></a>

Die Zusammenfassung von Videokapiteln bietet beschreibende Zusammenfassungen für einzelne Szenen in einem Video. Ein Videokapitel ist eine Abfolge von Shots, die innerhalb des Videos eine kohärente Handlungs- oder Erzähleinheit bilden. Dieses Feature unterteilt das Video anhand von visuellen und akustischen Hinweisen in aussagekräftige Abschnitte, stellt Zeitstempel für diese Segmente bereit und fasst die einzelnen Abschnitte zusammen. 

## IAB-Taxonomie
<a name="video-iab-classification"></a>

Die Klassifikation des Interactive Advertising Bureau (IAB) wendet eine Standardtaxonomie für Werbung an, um Videoszenen auf der Grundlage von Bild- und Audioelementen zu klassifizieren. Für die Vorschauversion unterstützt BDA 24 Kategorien der obersten Ebene (L1) und 85 Kategorien der zweiten Ebene (L2). Um die Liste der von BDA unterstützten IAB-Kategorien herunterzuladen, [klicken Sie hier](samples/iab-taxonomy.zip).

## Vollständiges Audio-Transkript
<a name="full-audio-transcript"></a>

Das Feature für das vollständige Audio-Transkript bietet eine umfassende Textdarstellung der gesamten gesprochenen Inhalte in der Audiodatei. Dabei wird fortschrittliche Spracherkennungstechnologie verwendet, um Dialoge, gesprochenen Text und andere Audioelemente präzise zu transkribieren. Die Transkription beinhaltet eine Identifizierung des Sprechers, sodass bequem anhand des Sprechers in den Audioinhalten navigiert und gesucht werden kann.

## Text im Video
<a name="text-in-video"></a>

Dieses Feature erkennt und extrahiert Text, der visuell im Video erscheint. Sie kann sowohl statischen Text (wie Titel oder Bildunterschriften) als auch dynamischen Text (z. B. bewegter Text in Grafiken) identifizieren. Ähnlich wie die Bildtexterkennung stellt sie Informationen zu Begrenzungsrahmen für jedes erkannte Textelement bereit und ermöglicht so eine präzise Lokalisierung innerhalb von Videoframes.

## Logo-Erkennung
<a name="video-logo-detection"></a>

Dieses Feature identifiziert Logos in einem Video und stellt Informationen zu Begrenzungsrahmen bereit, die die Koordinaten der einzelnen erkannten Logos im Video-Frame sowie Konfidenzwerte angeben. Dieses Feature ist standardmäßig nicht aktiviert.

## Inhaltsmoderation
<a name="video-content-moderation"></a>

Mit der Inhaltsmoderation werden unangemessene, unerwünschte oder anstößige Inhalte in einem Video erkannt. BDA unterstützt 7 Moderationskategorien: Explizit, nicht explizite Nacktheit intimer Bereiche und Küssen, Bademode oder Unterwäsche, Gewalt, Drogen und Tabak, Alkohol, Hasssymbole. Expliziter Text in Videos wird nicht gekennzeichnet.

Begrenzungsrahmen und die zugehörigen Konfidenzwerte können für relevante Features wie die Texterkennung zur Bereitstellung von Positionskoordinaten oder Zeitstempeln in der Videodatei aktiviert oder deaktiviert werden. Standardmäßig sind die Zusammenfassung des vollständigen Videos, die Szenenzusammenfassung und die Erkennung von Text im Video aktiviert.

**Anmerkung**  
 Pro Video wird nur eine Audiospur unterstützt. Untertitel-Dateiformate (z. B. SRT, VTT usw.) werden nicht unterstützt. 

## Standardausgabe für Videos
<a name="video-standard-output"></a>

Im Folgenden sehen Sie ein Beispiel für eine Standardausgabe für ein Video, das mit BDA verarbeitet wurde:

```
{
"metadata": {
    "asset_id": "0",
    "semantic_modality": "VIDEO",
    "s3_bucket": "bedrock-data-automation-gamma-assets-us-east-1",
    "s3_key": "demo-assets/Video/MakingTheCut.mp4",
    "format": "QuickTime / MOV",
    "frame_rate": 30,
    "codec": "h264",
    "duration_millis": 378233,
    "frame_width": 852,
    "frame_height": 480
  },
```

In diesem ersten Abschnitt werden Metadateninformationen zum Video bereitgestellt. Dazu gehören der Speicherort des Buckets, das Format, die Framerate und andere wichtige Informationen.

```
"shots": [ ...

    {
      "shot_index": 3,
      "start_timecode_smpte": "00:00:08:19",
      "end_timecode_smpte": "00:00:09:25",
      "start_timestamp_millis": 8633,
      "end_timestamp_millis": 9833,
      "start_frame_index": 259,
      "end_frame_index": 295,
      "duration_smpte": "00:00:01:06",
      "duration_millis": 1200,
      "duration_frames": 36,
      "confidence": 0.9956437242589935,
      "chapter_indices": [
        1
      ]
    },
```

Dies ist ein Beispiel für ein Shot-Element in eine Antwort. Bei Shots handelt es sich um kleine Teile eines Videos, die in der Regel mit einer Bearbeitung oder einem Schnitt im Video zusammenhängen. Shots enthalten ein „start“- und „end“- sowie ein „chapter\$1indicies“-Element. Dieses Element gibt an, zu welchem größeren Abschnitt des Videos, einem sogenannten Kapitel, der Shot gehört.

```
"chapters": [
    {
      "start_timecode_smpte": "00:00:00:00",
      "end_timecode_smpte": "00:00:08:18",
      "start_timestamp_millis": 0,
      "end_timestamp_millis": 8600,
      "start_frame_index": 0,
      "end_frame_index": 258,
      "duration_millis": 8600,
      "shot_indices": [
        0,
        1,
        2
      ],
      "summary": "At an elegant outdoor venue, a man in a suit and a woman in a patterned dress stand on a raised platform overlooking a reflective pool. The setting is adorned with palm trees and lush greenery, creating a tropical atmosphere. The man initiates the event by asking if they should begin, to which the woman responds affirmatively. As the scene progresses, the focus shifts to a woman wearing a distinctive black and white patterned coat, her hair styled in a bun. She stands alone in a dimly lit room, facing away from the camera. The narrative then moves to a formal setting where a man in a dark suit stands before a curtain backdrop, suggesting he may be about to address an audience or perform. The scene concludes with a view of the entire venue, showcasing its tropical charm with a swimming pool surrounded by palm trees and decorative lighting, indicating it's prepared for a special occasion.",
```

Kapitel sind größere Teile eines Videos. Sie enthalten wie Shots Informationen zu Beginn und Ende und ein „shot\$1indicies“-Element. „shot\$1indicies“ gibt an, welche Shots sich in einem Kapitel befinden. Schließlich bietet das „summary“-Element eine generierte Zusammenfassung des Kapitelinhalts.

```
 "frames": [...
         {
          "timecode_smpte": "00:00:03:15",
          "timestamp_millis": 3500,
          "frame_index": 105,
          "content_moderation": [],
          "text_words": [
            {
              "id": "266db64a-a7dc-463c-b710-7a178a2cc4cc",
              "type": "TEXT_WORD",
              "confidence": 0.99844897,
              "text": "ANDREA",
              "locations": [
                {
                  "bounding_box": {
                    "left": 0.1056338,
                    "top": 0.7363281,
                    "width": 0.19806337,
                    "height": 0.068359375
                  },
                  "polygon": [
                    {
                      "x": 0.1056338,
                      "y": 0.7363281
                    },
                    {
                      "x": 0.30369717,
                      "y": 0.7363281
                    },
                    {
                      "x": 0.30369717,
                      "y": 0.8046875
                    },
                    {
                      "x": 0.1056338,
                      "y": 0.8046875
                    }
                  ]
                }
              ],
              "line_id": "57b760fc-c410-418e-aee3-7c7ba58a71c2"
            },
```

Die kleinste Granularität eines Videos ist ein Frame, der ein einzelnes Bild in einem Video darstellt. Frames haben zwei wichtige Antwortelemente: „content\$1moderation“ und „text\$1words“. Das erste, „content\$1moderation“, bietet auf Kategorien der Inhaltsmoderation basierende Informationen zum Inhalt des Frames, falls welche erkannt werden. Das zweite Element, „text\$1words“, gibt die Position und Informationen zu allem Text an, der in einem Video vorkommt, z. B. Untertitel.

```
    "statistics": {
    "shot_count": 148,
    "chapter_count": 11,
    "speaker_count": 11
  }
}
```

Schließlich bieten die Statistiken eine Aufschlüsselung der Informationen zur Erkennung, z. B. wie viele Shots, Sprecher und Kapitel ein Video enthält.

# Audio
<a name="audio-processing"></a>

Das Feature Amazon Bedrock Data Automation (BDA) bietet eine Reihe von Standardausgaben zur Verarbeitung und Generierung von Erkenntnissen aus Audiodateien. Im Folgenden finden Sie einen detaillierten Überblick über die einzelnen Operationstypen:

## Vollständige Audiozusammenfassung
<a name="audio-audio-summarization"></a>

Die vollständige Audiozusammenfassung generiert eine allgemeine Zusammenfassung der gesamten Audiodatei. Dabei werden die wichtigsten Themen, Ereignisse und Informationen aus der gesamten Audiodatei kurz und präzise zusammengefasst.

## Vollständiges Audio-Transkript
<a name="audio-audio-transcript"></a>

Das Feature des vollständigen Audio-Transkripts bietet eine vollständige textliche Darstellung aller gesprochenen Inhalte der Audio-Datei. Dabei kommt eine fortschrittliche Spracherkennungstechnologie zum Einsatz, um Dialoge, Erzählungen und andere Audioelemente präzise zu transkribieren. Die Transkription beinhaltet Zeitstempel, sodass in Audioinhalten, die aus gesprochenen Wörtern bestehen, ganz einfach navigiert und gesucht werden kann.

### Sprecher- und Kanalkennzeichnung
<a name="w2aac28b8c11c13b5b3b7"></a>

Für das generierte Transkript können Sie die and/or Kanallautsprecherbeschriftung aktivieren. Dadurch wird jedem Kanal oder Sprecher eine Nummer zugewiesen und dann im Protokoll angegeben, wenn ein Kanal verwendet wird und ein bestimmter Sprecher spricht. Diese Kennzeichnung erscheint in der Antwort als „spk\$1“, gefolgt von einer eindeutigen Nummer für jeden Sprecher (bis 30 möglich). Der erste Sprecher wäre „spk\$10", gefolgt von „spk\$11" usw. Audiokanäle werden auf ähnliche Weise angezeigt, wobei der erste Kanal mit „ch\$10" gekennzeichnet ist. Es können jedoch nur maximal zwei Kanäle gekennzeichnet werden.

## Themenzusammenfassung
<a name="audio-topic-summary"></a>

Die Funktion zur Zusammenfassung der Audiothemen unterteilt die Audiodatei in Abschnitte, die als Themen bezeichnet werden, und fasst diese zwecks Bereitstellung der wichtigsten Informationen zusammen. Diese Themen werden mit Zeitstempeln versehen, damit sie innerhalb der Audiodatei leichter gefunden werden können. Dieses Feature ist standardmäßig nicht aktiviert.

## Inhaltsmoderation
<a name="audio-content-moderation"></a>

Die Funktion der Inhaltsmoderation nutzt audio- und textbasierte Hinweise, um sprachbasierte toxische Inhalte zu identifizieren und in sieben verschiedene Kategorien zu unterteilen: 
+ ****Obszönität****: Sprache, die unhöfliche, vulgäre oder beleidigende Wörter, Formulierungen oder Abkürzungen enthält
+ ****Hassrede:**** Äußerungen, die eine Person oder Gruppe aufgrund ihrer Identität (z. B. Rasse, ethnische Zugehörigkeit, Geschlecht, Religion, sexuelle Orientierung, Fähigkeiten und nationale Herkunft) kritisieren, beleidigen, anprangern oder entmenschlichen
+  ****Sexuell:**** Sprache, die sexuelles Interesse, Aktivität oder Erregung durch direkte oder indirekte Anspielungen auf Körperteile, körperliche Merkmale oder Geschlecht anzeigt
+ ****Beleidigungen:**** Äußerungen, die eine erniedrigende, demütigende, spöttische, beleidigende oder herabsetzende Sprache enthalten. Diese Art von Sprache wird auch als Mobbing bezeichnet.
+ ****Gewalt oder Bedrohung:**** Äußerungen, die Drohungen enthalten, die darauf abzielen, einer Person oder Gruppe Schmerzen oder Verletzungen zuzufügen bzw. sich dieser gegenüber feindselig zu verhalten
+ ****Grafisch:**** Sprache, die visuell beschreibende und unangenehm anschauliche Bilder verwendet. Diese Art von Sprache ist oft absichtlich bildreich, um das Unbehagen des Empfängers zu verstärken.
+ ****Belästigung oder Beleidigung:**** Äußerungen, die darauf abzielen, das psychische Wohlbefinden des Empfängers zu beeinträchtigen, einschließlich erniedrigender und objektivierender Begriffe. Diese Art von Sprache wird auch als Belästigung bezeichnet.

## Audio-Standardausgabe
<a name="audio-standard-output-example"></a>

Dieser Abschnitt konzentriert sich auf die verschiedenen Antwortobjekte, die Sie erhalten, wenn Sie den API-Vorgang InvokeDataAutomation für eine Audiodatei ausführen. Im Folgenden werden die einzelnen Abschnitte des Antwortobjekts aufgeschlüsselt und dann eine vollständige, ausgefüllte Antwort für ein Beispieldokument angezeigt. Der erste Abschnitt, den wir erhalten, ist `metadata`.

```
 "metadata": {
    "asset_id": "0",
    "semantic_modality": "AUDIO",
    "s3_bucket": "bedrock-data-automation-gamma-assets-us-east-1",
    "s3_key": "demo-assets/Audio/AWS_TCA-Call-Recording-2.wav",
    "sample_rate": 8000,
    "bitrate": 256000,
    "number_of_channels": 2,
    "codec": "pcm_s16le",
    "duration_millis": 237560,
    "format": "wav",
    "dominant_asset_language": "EN",
    "generative_output_language": "DEFAULT/EN"
  }
```

In diesem Abschnitt werden Informationen zur Datei wie S3-Speicherort, Bitrate, Audiokanäle und Format aufgeschlüsselt. Als Nächstes schauen wir uns `audio_items` an.

`dominant_asset_language`gibt anhand der Länge in Sekunden an, welche Sprache in einem Audiostück am häufigsten vorkommt. `generative_output_language`gibt an, in welcher Sprache die Antwortausgabe erfolgen wird. Wenn es auf „DEFAULT“ gesetzt ist, wird die dominante Sprache verwendet.

```
"audio_items": [
    {
      "item_index": 0,
      "audio_segment_index": 0,
      "content": "Auto",
      "start_timestamp_millis": 9,
      "end_timestamp_millis": 119
    },
    ...
]
```

Der Abschnitt für Audioelemente enthält eine Aufschlüsselung der Audiodatei auf Soundbasis. Bei den einzelnen Elementen geht es in der Regel um die Wortlänge. Der item\$1index gibt den Platz des Elements in den audio\$1items-Indizes an, während der audio\$1segment\$1index angibt, wo es sich in den Segmentindizes befindet, auf die wir als Nächstes eingehen werden.

```
"audio_segments": [
    {
      "start_timestamp_millis": 0,
      "end_timestamp_millis": 1970,
      "segment_index": 0,
      "type": "TRANSCRIPT",
      "text": "Auto sales, Cherry speaking. How can I help you?",
      "speaker": {
        "speaker_label": "spk_0"
      },
      "channel": {
        "channel_label": "ch_0"
      },
      "audio_item_indices": [
        0,
        1,
        2,
        3,
        4,
        5,
        6,
        7,
        8,
        9,
        10,
        11
      ],
      "language": "EN"
    },
    ...
]
```

Hier erhalten wir eine Aufschlüsselung der Datei auf der Grundlage längerer Zeiträume, wobei jedes Segment ungefähr einem Satz entspricht. Dies sagt uns, welche Audioelemente im Segment enthalten sind und welcher Text zum Segment gehört. Schauen wir uns als Nächstes die Inhaltsmoderation an.

Wenn die Sprecher- und Kanalkennzeichnung aktiviert ist, sehen Sie die Abschnitte `speaker_label` und `channel_label`, die angeben, welcher Sprecher und welcher Kanal im Segment vorhanden sind.

```
"content_moderation": [
      {
        "id": "93068e72-290d-4aad-8717-a2cd0e02b0d0",
        "type": "AUDIO_MODERATION",
        "confidence": 0.0476,
        "start_timestamp_millis": 0,
        "end_timestamp_millis": 1970,
        "moderation_categories": [
          {
            "category": "profanity",
            "confidence": 0.1582
          },
          ...
        ]
      },
      ...
]
```

Im Abschnitt zur Inhaltsmoderation werden die einzelnen Segmente untersucht und in Bezug auf die 7 Inhaltskategorien analysiert. Dabei werden für jeden Abschnitt Konfidenzwerte bereitgestellt. Der nächste Abschnitt ist der Themenabschnitt.

```
"topics": [
    {
      "topic_index": 0,
      "start_timestamp_millis": 0,
      "end_timestamp_millis": 36790,
      "summary": "As follows:\n\nSuzanne, a customer, recently had her Hyundai serviced at the auto sales shop where Carrie works. Suzanne had a 3 p.m. appointment and got her car serviced, which included an oil change and filter changes. However, when Suzanne left the shop, her oil light was still on, which she found concerning. Carrie acknowledged that this sometimes happens, even after a service visit, and assured Suzanne that she would look into the issue further.",
      "transcript": {
        "representation": {
          "text": "Auto sales, Cherry speaking. How can I help you? Yeah, hi Carrie, um, my name is Suzanne. I literally just left your shop. Um, I just went in and got my Hyundai service. Um, it just was, it just needed like filter error changes oil change and all that kind of stuff, um, but. When I left and my oil light is still on and I don't know why. Got it. You just got it serviced here, but when you drove off the light was still on. Is that what happened? Yeah, yeah, yeah, like I literally like I had a 3 p.m. appointment and I just got it, you know, believe it or not, this, this happens."
        }
      },
      "audio_segment_indices": [
        0,
        1,
        2,
        3,
        4,
        5,
        6,
        7,
        8,
        9,
        10
      ]
    },
    ...
]
```

Themenabschnitte stellen die nächste Stufe der Granularität von Segmenten dar. Dabei handelt es sich um Gruppierungen von Segmenten, die grob nach Konzepten gegliedert sind. Jedes Thema enthält eine generierte Zusammenfassung des Themas sowie den genauen Text des Themas. Den letzten Teil einer Antwort stellen die Statistiken dar.

```
 "statistics": {
    "word_count": 749,
    "topic_count": 4
  }
```

In diesem Abschnitt werden die Informationen zur Audiodatei zusammengefasst. Dazu gehören die Anzahl der Wörter und die Gesamtzahl der Themen.

# Benutzerdefinierte Ausgabe und Vorlagen
<a name="bda-custom-output-idp"></a>

Wenn Sie Amazon Bedrock Data Automation (BDA) verwenden, können Sie Ihre Extraktionen mithilfe der benutzerdefinierten Ausgabekonfiguration weiter optimieren. Benutzerdefinierte Ausgaben werden mit Artefakten konfiguriert, die als Vorlagen bezeichnet werden. Vorlagen sind eine Liste mit Anweisungen zum Extrahieren von Informationen aus Ihrer Datei, sodass die Ausgabe transformiert und angepasst werden kann. Weitere Informationen und eine ausführliche Anleitung zu Vorlagen finden Sie unter [Vorlagen](bda-blueprint-info.md).

Die benutzerdefinierte Ausgabekonfiguration funktioniert auch in Kombination mit Projekten. Wenn Sie eine Datei an BDA übergeben und auf ein Projekt mit konfigurierten Vorlagen verweisen, verarbeitet BDA die Datei mit der entsprechenden Vorlage. Dies funktioniert für bis zu 40 Dokument-Bluperints, einen Bild-Blueprint, einen Audio-Blueprint und einen Video-Blueprint. and/or Bei der Arbeit mit mehreren Vorlagen versucht BDA, Dokumente an die Vorlage zu senden, die dem erwarteten Layout am besten entspricht. Weitere Informationen zu Projekten und benutzerdefinierten Ausgaben finden Sie unter [Projekte in Bedrock Data Automation](bda-projects.md).

**Anmerkung**  
Alle Dateien, die mit der benutzerdefinierten Ausgabe verarbeitet werden, müssen den Dateieinschränkungen für BDA entsprechen. Weitere Informationen zu Dateieinschränkungen finden Sie in den Voraussetzungen für BDA.

# Vorlagen
<a name="bda-blueprint-info"></a>

Vorlagen sind Artefakte, mit denen Sie Ihre Geschäftslogik für die Dateiverarbeitung konfigurieren können. Jede Vorlage besteht aus einer Liste von Feldnamen, die Sie extrahieren können, dem Datenformat, in dem die Antwort für das Feld extrahiert werden soll (z. B. Zeichenfolge, Zahl oder Boolean), sowie einem Kontext in natürlicher Sprache für jedes Feld, durch den Sie Regeln zur Datennormalisierung und Validierung angeben können. Sie können für jede Dateiklasse, die Sie verarbeiten möchten, eine Vorlage erstellen, beispielsweise für ein W2-Formular, eine Gehaltsabrechnung oder einen Ausweis. Vorlagen können mit der Konsole oder der API erstellt werden. Jeder Blueprint, den Sie erstellen, ist eine AWS Ressource mit einer eigenen Blueprint-ID und einem eigenen ARN.

Wenn Sie eine Vorlage für die Extraktion verwenden, können Sie eine Katalog-Vorlage oder eine benutzerdefinierte Vorlage nutzen. Wenn Sie bereits wissen, aus welcher Art von Datei Sie extrahieren möchten, bieten Katalog-Vorlagen einen vordefinierten Ausgangspunkt. Sie können benutzerdefinierte Vorlagen für Dateien erstellen, die nicht im Katalog enthalten sind. Beim Erstellen einer Vorlage können Sie verschiedene Methoden verwenden. Sie können eine Vorlage über den Vorlagen-Prompt erstellen, Sie können ihn manuell erstellen, indem Sie individuelle Felder hinzufügen, oder Sie können den JSON-Code einer Vorlage mit dem JSON Editor erstellen. Diese können in Ihrem Konto gespeichert und geteilt werden.

**Anmerkung**  
Audio-Vorlagen können nicht mit Vorlagen-Prompts erstellt werden.

Die maximale Größe einer Vorlage beträgt 100 000 Zeichen im JSON-Format. Für Blueprints, die mit der [InvokeDataAutomationAsync](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_data-automation-runtime_InvokeDataAutomationAsync.html)API verwendet werden sollen, beträgt die maximale Anzahl von Feldern pro Blueprint 100. Für Blueprints, die mit der [InvokeDataAutomation](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_data-automation-runtime_InvokeDataAutomation.html)API verwendet werden sollen, beträgt die maximale Anzahl von Feldern pro Blueprint 15.

**Anmerkung**  
Wenn Sie Vorlagen verwenden, nutzen Sie vermutlich auch Prompts, entweder in Feldern oder für die Vorlagen-Erstellung. Erlauben Sie nur vertrauenswürdigen Quellen, die Eingabeaufforderung zu kontrollieren. Amazon Bedrock ist nicht dafür verantwortlich, die Absicht des Blueprints zu überprüfen.

## Detaillierte Vorlagen-Anleitung
<a name="bda-blueprint-walkthrough"></a>

Nehmen wir ein Ausweisdokument, beispielsweise einen Reisepass, als Bespiel und gehen wir die Vorlage für dieses Dokument Schritt für Schritt durch.

![\[Beispiel für einen Reisepass mit Standardfeldern, bei dem das Layout und die extrahierten Datenfelder gezeigt werden\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/bda/passport2.png)


Hier ist eine Beispiel-Vorlage für dieses Ausweisdokument, den wir mit der Konsole erstellt haben.

![\[Tabellenlayout der Definitionen der Ausweisfelder mit verschiedenen Kategorien, die eine Beispiel-Vorlage zeigen\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/bda/bdapassport.png)


Im Kern ist eine Vorlage eine Datenstruktur, die Felder enthält, die wiederum die von der benutzerdefinierten BDA-Ausgabe extrahierten Informationen enthalten. Es gibt zwei Arten von Feldern – Explizite und implizite –, die sich in der Extraktionstabelle befinden. Explizite Extraktionen werden für klar formulierte Informationen verwendet, die im Dokument ersichtlich sind. Implizite Extraktionen werden für Informationen verwendet, die aufgrund ihrer Darstellung im Dokument transformiert werden müssen. Sie können beispielsweise die Bindestriche aus einer Sozialversicherungsnummer entfernen und so 111-22-3333 in 111223333 konvertieren. Felder enthalten bestimmte grundlegende Komponenten:
+ Feldname: Dies ist ein Name, den Sie für jedes Feld angeben können, das Sie aus dem Dokument extrahieren möchten. Sie können den Namen verwenden, den Sie für das Feld in ihrem nachgelagerten System nutzen, beispielsweise `Place_Birth` oder `Place_of_birth`.
+ Beschreibung: Dies ist eine Eingabe, die für jedes Feld in der Vorlage Kontext in natürlicher Sprache bereitstellt, um die einzuhaltenden Regeln zur Datennormalisierung oder Validierung zu beschreiben. Zum Beispiel `Date of birth in YYYY-MM-DD format` oder `Is the year of birth before 1992?`. Sie können den Prompt auch zum Iterieren der Vorlage und zum Verbessern der Genauigkeit der BDA-Antwort nutzen. Die Bereitstellung eines detaillierten Prompt, der das von Ihnen benötigte Feld beschreibt, unterstützt die zugrunde liegenden Modelle dabei, ihre Genauigkeit zu verbessern. Prompts können bis zu 300 Zeichen lang sein.
+ Ergebnisse: Die von BDA extrahierten Informationen, basierend auf dem Prompt und dem Feldnamen
+ Typ: Das Datenformat, das die Antwort für das Feld verwenden soll. Wir unterstützen Zeichenfolgen, Zahlen, boolesche Werte, Zeichenfolgen-Arrays und Zahlen-Arrays.
+ Konfidenzwert: Gibt in Prozent an, wie sicher sich die BDA-Funktion hinsichtlich der Genauigkeit Ihrer Extraktion ist. Audio- und Bild-Blueprints geben keinen Konfidenzwert zurück.
+ Extraktionstypen: Die Art der Extraktion, entweder explizit oder abgeleitet
+ Seitennummer: Die Seite des Dokuments, auf der das Ergebnis gefunden wurde. Audio- und Videovorlagen geben keine Seitenzahlen zurück.

Neben einfachen Feldern bietet die benutzerdefinierte BDA-Ausgabe auch mehrere Optionen für Anwendungsfälle, auf die Sie möglicherweise bei der Dokumentextraktion stoßen: Tabellenfelder, Gruppen und benutzerdefinierte Typen. 

**Tabellenfelder**  
Wenn Sie ein Feld erstellen, können Sie sich dafür entscheiden, anstelle eines Basisfelds ein Tabellenfeld zu erstellen. Sie können dieses Feld genau wie die anderen auch benennen und einen Prompt bereitstellen. Sie können auch Spaltenfelder angeben. Diese Felder haben einen Spaltennamen, eine Spaltenbeschreibung und einen Spaltentyp. Wenn ein Tabellenfeld in der Extraktionstabelle angezeigt wird, sind die Spaltenergebnisse unterhalb des Tabellennamens gruppiert. Tabellenfelder können maximal 15 Unterfelder haben.

**Gruppen**  
Eine Gruppe ist eine Struktur, die verwendet wird, um mehrere Ergebnisse innerhalb Ihrer Extraktion an einem zentralen Ort zu organisieren. Wenn Sie eine Gruppe erstellen, geben Sie der Gruppe einen Namen und können Felder in dieser Gruppe erstellen und platzieren. Diese Gruppe ist in Ihrer Extraktionstabelle markiert. Darunter werden die Felder aufgeführt, die sich in der Gruppe befinden. 

**Benutzerdefinierte Typen**  
Sie können einen benutzerdefinierten Typ erstellen, während Sie eine Vorlage im Blueprint-Playground bearbeiten. Jedes Feld kann ein benutzerdefinierter Typ sein. Dieser Typ hat einen eindeutigen Namen und veranlasst die Erstellung der Felder, aus denen die Erkennung besteht. Ein Beispiel hierfür wäre das Erstellen eines benutzerdefinierten Typs namens Address und das Aufnahmen der Felder „zip\$1code“, „city\$1name“, „street\$1name“ und „state“ in diesen. Dann könnten Sie bei der Bearbeitung eines Dokuments den benutzerdefinierten Typ in einem „company\$1address“-Feld verwenden. Dieses Feld gibt dann alle Informationen zurück, gruppiert in Zeilen unterhalb des benutzerdefinierten Typs. Sie können bis zu 30 benutzerdefinierte Felder pro Vorlage haben.

# Erstellen von Vorlagen
<a name="bda-idp"></a>

## Erstellen von Vorlagen für benutzerdefinierte Ausgaben
<a name="how-to-create-blueprints"></a>

Amazon Bedrock Mit Data Automation (BDA) können Sie benutzerdefinierte Blueprints für jeden Dateityp erstellen, den BDA extrahieren kann. Sie können Vorlagen verwenden, um das gewünschte Ausgabeformat und die Extraktionslogik für Ihre Eingabedateien zu definieren. Durch die Erstellung von benutzerdefinierten Vorlagen können Sie die Ausgabe von BDA an Ihre spezifischen Anforderungen anpassen.

Innerhalb eines Projekts können Sie Folgendes anwenden:
+ Mehrere Dokumentvorlagen (bis zu 40). Auf diese Weise können Sie verschiedene Dokumenttypen innerhalb desselben Projekts verarbeiten, von denen jedes über eine eigene benutzerdefinierte Extraktionslogik verfügt.
+ Eine Bildvorlage. Dies gewährleistet die Einheitlichkeit bei der Bildverarbeitung innerhalb eines Projekts.
+ Eine Audiovorlage.
+ Eine Videovorlage.

### Erstellen von Vorlagen
<a name="creating-blueprints-methods"></a>

 Es gibt zwei Methoden zum Erstellen von Vorlagen in BDA: 
+ Verwenden des Vorlagen-Prompts
+ Manuelle Erstellung von Vorlagen

#### Verwenden des Vorlagen-Prompts
<a name="creating-blueprints-methods-assistant"></a>

 Der Vorlagen-Prompt bietet eine Benutzeroberfläche mit Benutzerführung, die auf natürlicher Sprache basiert, um Vorlagen zu erstellen. So erstellen Sie eine Vorlage mithilfe des Prompts: 

1.  Navigieren Sie in der BDA-Konsole zum Abschnitt **Vorlagen**.

1.  Klicken Sie auf **Vorlage erstellen** und wählen Sie **Prompt der Vorlage verwenden** aus.

1.  Wählen Sie den Datentyp (Dokument, Bild, Audio oder Video) für Ihre Vorlage aus.

1.  Beschreiben Sie in natürlicher Sprache die Felder und Daten, die Sie extrahieren möchten. Beispiel: „Extrahiere die Rechnungsnummer, den Gesamtbetrag und den Lieferantennamen aus Rechnungen.“

1.  Mit dem Prompt wird basierend auf Ihrer Beschreibung eine Vorlage generiert.

1.  Prüfen Sie die generierte Vorlage und nehmen Sie gegebenenfalls Anpassungen vor. Vorlagen-Prompts sind Single-Turn-basiert, d. h. Sie müssen alle Informationen erneut eingeben, um Ihren Prompt zu ändern, nicht nur die neuen Informationen.

1.  Speichern und benennen Sie die Vorlage.

##### Beispiel für einen Vorlagen-Prompt
<a name="w2aac28b8c14c11b3b9b7b7"></a>

Im folgenden Abschnitt wird ein Beispiel für einen Vorlagen-Prompt für eine Audiovorlage beschrieben. In diesem Anwendungsfall möchten wir eine Vorlage erstellen, um Informationen aus einer Konversation zwischen einem Kunden und einem Kundendienstmitarbeiter zu extrahieren. Der folgende Screenshot zeigt das Prompt-Fenster in der Konsole.

![\[alt text not found\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/bda/audio-bpa-prompt.png)


Am unteren Rand des Screenshots sehen Sie den KI-generierten Prompt basierend auf der Eingabe im Feld. Wir können sehen, wie die erwähnten Felder verarbeitet werden. Als Nächstes können wir die aus dem Prompt erstellte Vorlage betrachten.

![\[alt text not found\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/bda/audio-bpa-example.png)


Hier können wir uns die Informationen ansehen, die wir aus der Konversation verarbeiten möchten. Wenn Sie mit den Feldern zufrieden sind, können Sie sofort mit der Verarbeitung einer Audiodatei beginnen. Wenn Sie Ihre Vorlage bearbeiten möchten, müssen Sie ein Duplikat erstellen, anstatt sie direkt zu bearbeiten. Sie können Ihren Prompt auch anpassen, um andere Ergebnisse zu erzielen.

#### Manuelles Erstellen von Vorlagen
<a name="creating-blueprints-methods-id"></a>

 Für fortgeschrittenere Benutzer oder Benutzer, die eine detaillierte Steuerung benötigen, lassen sich Vorlagen auch manuell erstellen: 

1.  Navigieren Sie in der BDA-Konsole zum Abschnitt **Vorlagen**.

1.  Klicken Sie auf **Vorlage erstellen** und wählen Sie **Manuell erstellen** aus.

1.  Wählen Sie den Datentyp (Dokument, Bild, Audio oder Video) für Ihre Vorlage aus.

1.  Definieren Sie die Felder, die Sie extrahieren möchten, und geben Sie Datentypen, Formate und etwaige Validierungsregeln an.

1.  Konfigurieren Sie zusätzliche Einstellungen wie die Aufteilung von Dokumenten oder die Layoutverwaltung.

1.  Speichern und benennen Sie die Vorlage.

Sie können auch den JSON-Editor für Vorlagen verwenden, um eine Vorlage zu erstellen oder zu ändern. Auf diese Weise können Sie den JSON-Code der Vorlage direkt über den Texteditor anpassen.

### Hinzufügen von Vorlagen zu einem Projekt
<a name="adding-blueprints-projects"></a>

Projekte dienen als Container für Ihre multimodalen Workflows zur Inhaltsverarbeitung, während Vorlagen die Extraktionslogik für diese Workflows definieren. Sie fügen Projekten Vorlagen hinzu, um diese auf Dateien anzuwenden, die Sie mit dem jeweiligen Projekt verarbeiten.

 So fügen Sie eine Vorlage zu einem Projekt hinzu: 

1.  Navigieren Sie in der BDA-Konsole zum Abschnitt **Projekte**.

1.  Wählen Sie das Projekt aus, dem Sie die Vorlage hinzufügen möchten.

1.  Klicken Sie auf **Vorlage hinzufügen** oder **Vorlagen verwalten**.

1.  Wählen Sie die Vorlage, die Sie hinzufügen möchten, aus der Liste der verfügbaren Vorlagen aus.

1.  Konfigurieren Sie alle projektspezifischen Einstellungen für die Vorlage.

1.  Speichern Sie die Änderungen an Ihrem Projekt.

### Definieren von Feldern
<a name="bda-images-defining-fields"></a>

Zu Beginn können Sie ein Feld erstellen, um die Informationen zu identifizieren, die Sie extrahieren oder generieren möchten, z. B. „product\$1type“. Für jedes Feld müssen Sie eine Beschreibung, einen Datentyp und einen Inferenztyp angeben.

Um ein Feld zu definieren, müssen Sie die folgenden Parameter angeben:
+ *Beschreibung:* Beschreibt in natürlicher Sprache, was das Feld darstellt. Dies hilft dabei, den Kontext und den Zweck des Feldes zu verstehen, und ermöglicht die genaue Extraktion von Daten.
+ *Typ:* Gibt den Datentyp des Feldwerts an. BDA unterstützt die folgenden Typen:
  + Zeichenfolge: Für textbasierte Werte
  + Zahl: Für numerische Werte
  + Boolescher Wert: Für die Werte „true“ oder „false“
  + Array: Für Felder, die mehrere Werte desselben Typs enthalten können (z. B. ein Array von Zeichenfolgen oder ein Array von Zahlen)
+ *Inferenztyp:* Weist BDA an, wie die Antwortgenerierung des Feldwerts zu handhaben ist. Bei Bildern unterstützt BDA nur den abgeleiteten Inferenztyp. Das bedeutet, dass BDA den Feldwert auf der Grundlage der im Bild vorhandenen Informationen ableitet.

Für Videos enthalten Felder auch eine Option für Granularität. Weitere Informationen zu dieser Eigenschaft finden Sie unter „Erstellen von Vorlagen für Videos“.

Die folgende Abbildung zeigt das Modul „Felder hinzufügen“ in der Amazon Bedrock Konsole mit den folgenden Beispielfeldern und Werten:
+ Feldname: product\$1type
+ Typ: Zeichenfolge
+ Anweisung: Für welches Produkt oder welche Dienstleistung wird hauptsächlich geworben, z. B. Kleidung, Elektronik, Lebensmittel und Getränke usw.? 
+ Extraktionstyp: Abgeleitet.

![\[Amazon Bedrock Benutzeroberfläche mit Dropdownmenüs und Textfeldern zur Angabe von Bildfeldern.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/bda/bda-console-add-fields-new.png)


Hier ist ein Beispiel dafür, wie dieselbe Felddefinition in einem JSON-Schema für die API aussieht:

```
"product_type":{
"type": "string",
"inferenceType": "inferred",
"description": "What is the primary product or service being advertised, e.g., Clothing, Electronics, Food & Beverage, etc.?"
}
```

In diesem Beispiel:
+  Der Typ ist auf „string“ festgelegt, was bedeutet, dass der Wert des Felds „product\$1type“ textbasiert sein soll.
+ „inferenceType“ ist auf „inferred“ gesetzt, wodurch BDA angewiesen wird, den Wert auf der Grundlage der im Bild vorhandenen Informationen abzuleiten.
+ Die Beschreibung bietet zusätzlichen Kontext und verdeutlicht, dass das Feld den Produkttyp im Bild identifizieren soll. Beispielwerte für das Feld „product\$1type“ sind: Kleidung, Elektronik und Lebensmittel oder Getränke.

Indem Sie diese Parameter für jedes Feld angeben, stellen Sie BDA die erforderlichen Informationen zur Verfügung, um präzise Informationen aus Ihren Bildern zu extrahieren und daraus Erkenntnisse zu gewinnen.

### Erstellen von Projektversionen
<a name="blueprints-project-verions"></a>

Wenn Sie mit Projekten arbeiten, können Sie eine Version einer Vorlage erstellen. Eine Version ist ein unveränderlicher Snapshot einer Vorlage, der die aktuellen Konfigurationen und Extraktionslogik beibehält. Diese Vorlagenversion kann in einer Anforderung zum Start der Datenverarbeitung übergeben werden, wodurch sichergestellt wird, dass BDA Dokumente gemäß der Logik verarbeitet, die in der Vorlage zum Zeitpunkt der Erstellung der Version angegeben war. 

Sie können eine Version mit der `CreateBlueprintVersion`-Operation erstellen.

Mit der Amazon-Bedrock-Konsole können Sie ebenfalls Vorlagen erstellen und speichern. Wenn Sie eine Vorlage speichern, wird ihr eine ID zugewiesen. Anschließend können Sie die Vorlage veröffentlichen, wodurch eine Snapshot-Version dieser Vorlage erstellt wird, die nicht bearbeitet werden kann. Wenn der mit Ihrem Projekt verknüpfte Blueprint beispielsweise „DocBlueprint“ lautet, lautet die erstellte Projektversion „DocBlueprint\$11“. Sie können keine weiteren Änderungen an „DocBlueprint\$11“ vornehmen, aber Sie können den Basis-Blueprint trotzdem bearbeiten. Wenn Sie Änderungen am Blueprint vornehmen und ihn erneut veröffentlichen, wird eine neue Version wie „DocBlueprint\$12“ erstellt. Vorlagenversionen können dupliziert und als Grundlage für eine neue Vorlage verwendet werden.

# So nutzen Sie Vorlagen, um verschiedene IDP-Aufgaben zu erfüllen
<a name="idp-cases"></a>

Vorlagen sind ein äußerst vielseitiges Tool für die Dokumentenverarbeitung. In den folgenden Abschnitten wird die Erstellung von Vorlagen unter Berücksichtigung verschiedener IDP-Ziele erörtert. Darüber hinaus bietet dieser Abschnitt einen besseren Einblick in die Einzelheiten der Erstellung von Vorlagen für Dokumente im Allgemeinen.

# So erstellen Sie Vorlagen für die Klassifizierung
<a name="idp-cases-classification"></a>

Mit BDA können Sie Dokumente klassifizieren, indem Sie bei der Erstellung einer Vorlage eine Dokumentenklasse zuweisen und eine Beschreibung angeben. Die Dokumentenklasse dient der allgemeinen Kategorisierung des Dokumenttyps, während die Beschreibung detailliertere Informationen zu den erwarteten Inhalten und Elementen innerhalb dieser Dokumentenklasse enthält. Wir empfehlen, dass Ihre Beschreibung den typischen Datentyp in den Dokumenten zusammen mit anderen relevanten Informationen wie dem Zweck des Dokuments und den erwarteten Entitäten angibt. 

Beispiele für Dokumentenklassen und ihre Beschreibungen sind:


| Dokumentenklasse | Beschreibung | 
| --- | --- | 
|  Rechnung  |  Eine Rechnung ist ein Dokument, das die Liste der erbrachten Dienstleistungen oder Artikel enthält, die von einer Person oder einem anderen Unternehmen bei einem Unternehmen gekauft wurden. Sie enthält Angaben darüber, wann die Zahlung fällig ist und wie viel geschuldet wird.  | 
|  Gehaltsabrechnung  |  Dieses Dokument, das von einem Arbeitgeber für einen Arbeitnehmer ausgestellt wird, enthält die vom Arbeitnehmer in einem bestimmten Zeitraum erhaltenen Löhne. Es enthält in der Regel die Aufschlüsselung der einzelnen Einkommens- und Steuerabzüge.  | 
|  Quittung  |  Ein Dokument, das bestätigt, dass eine Person nach einem Verkauf oder einer anderen Übertragung von Waren oder der Erbringung einer Dienstleistung Geld oder Eigentum als Zahlung erhalten hat. Auf allen Quittungen muss das Kaufdatum angegeben sein.  | 
|  W2  |  Dies ist ein Steuerformular zur Einreichung persönlicher Einkünfte, die von einem Arbeitgeber in einem Geschäftsjahr erzielt wurden  | 

Gehen Sie nach dem Erstellen Ihrer Vorlagenfelder wie folgt vor:

1. Wählen Sie auf der Seite Vorlage erstellen **Prompt der Vorlage speichern und beenden** aus.

1. Geben Sie unter Vorlagenname einen Namen für Ihre Vorlage ein.

1. Geben Sie für Dokumentklasse einen Klassennamen ein, der den Dokumenttyp darstellt, den Sie klassifizieren möchten.

1. Geben Sie im Feld Beschreibung eine detaillierte Beschreibung des Dokumenttyps ein. Geben Sie Informationen über die Art der Daten und Elemente an, die häufig in diesen Dokumenten vorkommen, z. B. Personen, Unternehmen, Adressen, Produktdetails oder andere relevante Informationen.

1. Klicken Sie auf Vorlage veröffentlichen.

Nachdem Sie die Vorlage erstellt haben, können Sie diese verwenden, um Dokumente während der Inferenz zu klassifizieren, indem Sie eine oder mehrere Vorlagen-IDs in der InvokeDataAutomationAsync-API-Anfrage angeben.

BDA verwendet die in den einzelnen Vorlagen angegebene Dokumentenklasse und Beschreibung, um die Dokumente genau zu kategorisieren und zu verarbeiten. Wenn Sie ein Dokument zur Verarbeitung einreichen, analysiert BDA seinen Inhalt und gleicht ihn mit der Liste der bereitgestellten Vorlagen ab. Das Dokument wird dann auf Grundlage der Anweisungen in den Vorlagenfeldern klassifiziert und verarbeitet, um die Ausgabe in der gewünschten Struktur zu erzeugen.

# So erstellen Sie Vorlagen für die Extraktion
<a name="idp-cases-extraction"></a>

Mit BDA können Sie die spezifischen Datenfelder definieren, die Sie aus ihren Bildern extrahieren möchten, wenn Sie eine Vorlage erstellen. Dies dient als eine Reihe von Anweisungen, die BDA dabei unterstützen, nach welchen Informationen zu suchen und wie diese zu interpretieren sind.

**Definieren von Feldern**  
Zu Beginn können Sie für jedes Feld, das extrahiert werden muss, eine Eigenschaft erstellen, z. B. employee\$1id oder product\$1name. Für jedes Feld müssen Sie eine Beschreibung, einen Datentyp und einen Inferenztyp angeben.

Um ein Extrahierungsfeld zu definieren, müssen Sie die folgenden Parameter angeben:
+ Feldname: Bietet eine für Menschen lesbare Erklärung dessen, wofür das Feld steht. Dies hilft dabei, den Kontext und den Zweck des Feldes zu verstehen, und ermöglicht die genaue Extraktion von Daten.
+ Beschreibung: Bietet eine Erklärung in natürlicher Sprache dafür, was das Feld darstellt. Dies hilft dabei, den Kontext und den Zweck des Feldes zu verstehen, und ermöglicht die genaue Extraktion von Daten.
+ Typ: Gibt den Datentyp des Feldwerts an. BDA unterstützt die folgenden Datentypen:
  + Zeichenfolge: Für textbasierte Werte
  + Zahl: Für numerische Werte
  + boolean: Für Werte true/false 
  + Array: Für Felder, die mehrere Werte desselben Typs enthalten können (z. B. ein Array von Zeichenfolgen oder ein Array von Zahlen)
+ Inferenztyp: Weist BDA an, wie die Extraktion des Feldwerts zu handhaben ist. Die unterstützten Inferenztypen sind:
  + Explizit: BDA sollte den Wert direkt aus dem Dokument extrahieren.
  + Abgeleitet: BDA sollte den Wert auf Grundlage der im Dokument enthaltenen Informationen ableiten.

Hier sehen Sie ein Beispiel für eine Felddefinition mit allen Parametern:

------
#### [ Console ]

![\[Hier wird in der Konsole gezeigt, wie man „Feldname“ und „Anweisung“ hinzufügt. Der Typ ist auf „Zeichenfolgen-Array“ und der Extraktionstyp ist auf „Explizit“ gesetzt.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/bda/bdaadd.png)


------
#### [ API ]

```
"product_name":{
   "type":"string",
   "inferenceType":"Explicit",
   "description":"The short name of the product without any extra details"
}
```

------

In diesem Beispiel:
+ Der Typ ist auf „Zeichenfolge“ festgelegt, was bedeutet, dass der Wert des Felds „product\$1type“ textbasiert sein soll.
+ „inferenceType ist auf „Explicit“ gesetzt, sodass BDA angewiesen wird, den Wert ohne Transformation oder Überprüfung direkt aus dem Dokument zu extrahieren.
+ Die Anweisung bietet zusätzlichen Kontext und verdeutlicht, dass das Feld den Kurznamen des Produkts ohne zusätzliche Details enthalten sollte.

Indem Sie diese Parameter für jedes Feld angeben, stellen Sie BDA die erforderlichen Informationen zur Verfügung, um präzise Informationen aus Ihren Dokumenten zu extrahieren und daraus Erkenntnisse zu gewinnen.


| Feld | Anweisungen | Extraktionstyp | Typ | 
| --- | --- | --- | --- | 
|  ApplicantsName  |  Vollständiger Name des Bewerbers  |  explizit  |  Zeichenfolge  | 
|  DateOfBirth  |  Geburtsdatum des Mitarbeiters  |  explizit  |  Zeichenfolge  | 
|  Vertrieb  |  Bruttoeinnahmen oder Umsätze  |  explizit  |  number  | 
|  Statement\$1starting\$1balance  |  Saldo zu Beginn eines Zeitraums  |  explizit  |  number  | 

**Felder mit mehreren Werten**  
In Fällen, in denen ein Feld mehrere Werte enthalten kann, können Sie Arrays oder Tabellen definieren.

**Felderliste**  
Für Felder, die eine Werteliste enthalten, können Sie einen Array-Datentyp definieren. 

In diesem Beispiel ist "OtherExpenses" als ein Array von Zeichenketten definiert, sodass BDA mehrere Ausgabenposten für dieses Feld extrahieren kann.

------
#### [ Console ]

![\[Hier wird in der Konsole gezeigt, wie man „Feldname“ und „Anweisung“ hinzufügt. Der Typ ist auf „Zeichenfolgen-Array“ und der Extraktionstyp ist auf „Explizit“ gesetzt.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/bda/bdaarray.png)


------
#### [ API ]

```
"OtherExpenses":{
   "type":"array",
   "inferenceType":"Explicit",
   "description":"Other business expenses not included in fields 8-26 or field 30",
   "items":{
      "type":"string"
   }
}
```

------

**Tabellen**  
Wenn Ihr Dokument tabellarische Daten enthält, können Sie innerhalb des Schemas eine Tabellenstruktur definieren.

In diesem Beispiel ist „SERVICES\$1TABLE“ als Tabellentyp mit Spaltenfeldern wie Produktname, Beschreibung, Menge, Einzelpreis und Betrag definiert.

------
#### [ Console ]

![\[Hier wird in der Konsole gezeigt, wie man „Feldname“ und „Anweisung“ hinzufügt. Der „Typ“ ist auf „Tabelle“ und der „Extraktionstyp“ ist auf „Explizit“ gesetzt und zeigt spaltenspezifische Felder an, die hinzugefügt wurden.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/bda/bdatable.png)


------
#### [ API ]

```
"definitions":{
   "LINEITEM":{
      "properties":{
         "quantity":{
            "type":"number",
            "inferenceType":"Explicit"
         },
         "unit price":{
            "type":"number",
            "inferenceType":"Explicit"
         },
         "amount":{
            "type":"number",
            "inferenceType":"Explicit",
            "description":"Unit Price * Quantity"
         },
         "product name":{
            "type":"string",
            "inferenceType":"Explicit",
            "description":"The short name of the product without any extra details"
         },
         "product description":{
            "type":"string",
            "inferenceType":"Explicit",
            "description":"The full item list description text"
         }
      }
   }
},
"properties":{
   "SERVICES_TABLE":{
      "type":"array",
      "description":"Line items table listing all the items / services charged in the invoice including quantity, price, amount, product / service name and description.",
      "items":{
         "$ref":"#/definitions/LINEITEM"
      }
   },
   "...
        ..."
]
```

------

Durch die Definition umfassender Schemas mit entsprechenden Feldbeschreibungen, Datentypen und Inferenztypen können Sie sicherstellen, dass BDA die gewünschten Informationen korrekt aus Ihren Dokumenten extrahiert, unabhängig von Variationen in der Formatierung oder Darstellung.

# So erstellen Sie Vorlagen für die Normalisierung
<a name="idp-cases-normalization"></a>

BDA bietet Normalisierungsfunktionen, mit denen Sie die extrahierten Daten gemäß Ihren spezifischen Anforderungen konvertieren und standardisieren können. Diese Normalisierungsaufgaben können in Schlüsselnormalisierung und Wertnormalisierung unterteilt werden.

**Schlüsselnormalisierung**  
In vielen Fällen können Dokumentfelder unterschiedlich dargestellt oder beschriftet werden. Das Feld „Sozialversicherungsnummer“ könnte beispielsweise als „SSN“, „Steuer-ID“, „TIN“ oder als andere ähnliche Varianten angezeigt werden. Um dieser Herausforderung zu begegnen, bietet BDA die Schlüsselnormalisierung an, mit der Sie Anweisungen zu den Variationen innerhalb Ihrer Felddefinitionen bereitstellen können.

Durch die Nutzung der Schlüsselnormalisierung können Sie BDA dabei unterstützen, verschiedene Repräsentationen desselben Felds zu erkennen und einem standardisierten Schlüssel zuzuordnen. Dieses Feature stellt sicher, dass Daten konsistent extrahiert und organisiert werden, unabhängig von den Variationen in den Quelldokumenten.


| Feld | Anweisungen | Extraktionstyp | Typ | 
| --- | --- | --- | --- | 
|  LastName  |  Nachname der Person  |  explizit  |  Zeichenfolge  | 
|  BirthNum  |  Dokumentennummer oder Aktenzeichen der Geburtsurkunde  |  explizit  |  Zeichenfolge  | 
|  OtherIncome  |  Sonstige Einnahmen, einschließlich Steuergutschrift oder Rückerstattung von Benzin- oder Treibstoffsteuern auf Bundes- und Landesebene  |  explizit  |  Zahl  | 
|  BusinessName  |  Name des Unternehmens, Auftragnehmers oder der Stelle, die das Formular W9 ausfüllt  |  explizit  |  Zeichenfolge  | 
|  power factor  |  Leistungsfaktor oder Multiplikator, der für diesen Verwendungseinzelposten verwendet wurde  |  explizit  |  Zeichenfolge  | 
|  BirthPlace  |  Name des Krankenhauses oder der Einrichtung, in der das Kind geboren wurde  |  explizit  |  Zeichenfolge  | 
|  Cause of Injury  |  Ursache der Verletzung oder Berufskrankheit, einschließlich ihres Zusammenhanges mit dem Arbeitsplatz  |  explizit  |  Zeichenfolge  | 

Für Felder mit vordefinierten Wertesätzen oder Aufzählungen können Sie die erwarteten Werte oder Bereiche in der Feldanweisung angeben. Wir empfehlen, die Variationen wie in den Beispielen gezeigt in Anführungszeichen zu setzen.


| Feld | Anweisungen | Extraktionstyp | Typ | 
| --- | --- | --- | --- | 
|  LICENSE\$1CLASS  |  Der einbuchstabige Klassencode, entweder „A“, „B“ oder „C“  |  explizit  |  Zeichenfolge  | 
|  Sex  |  Das Geschlecht. Auswahl von „M“ oder „F“  |  explizit  |  Zeichenfolge  | 
|  InformantType  |  Der Informationstyp. Entweder „Elternteil“ oder „Andere“  |  explizit  |  Zeichenfolge  | 
|  INFORMATIONSSAMMELKANAL  |  EINER DER FOLGENDEN: „PERSÖNLICHES GESPRÄCH“, „TELEFONINTERVIEW“, „FAX ODER POST“, „E-MAIL ODER INTERNET“  |  explizit  |  Zeichenfolge  | 

**Wertnormalisierung**  
Die Normalisierung von Werten ist eine wichtige Aufgabe in Datenverarbeitungspipelines, bei denen extrahierte Daten in ein konsistentes und standardisiertes Format umgewandelt werden müssen. Dieser Prozess stellt sicher, dass nachgeschaltete Systeme die Daten nahtlos nutzen und verarbeiten können, ohne dass Kompatibilitätsprobleme oder Unklarheiten auftreten.

Mithilfe der Normalisierungsfunktionen in BDA können Sie Formate standardisieren, Maßeinheiten konvertieren und Werte in bestimmte Datentypen umwandeln.

Für Aufgaben zur Wertnormalisierung sollte der Extraktionstyp „Abgeleitet“ verwendet werden, da der Wert nach der Normalisierung möglicherweise nicht exakt mit dem Rohtext oder der OCR des Dokuments übereinstimmt. Beispielsweise wird ein Datumswert wie „06/25/2022“, der auf „YYYY-MM-DD“ formatiert werden muss, nach der Normalisierung als „2022-06-25" extrahiert und entspricht somit nicht der OCR-Ausgabe aus dem Dokument.

Formate standardisieren: Sie können Werte in vordefinierte Formate konvertieren, z. B. in verkürzte Codes, Nummerierungsschemas oder bestimmte Datumsformate. Auf diese Weise können Sie die Konsistenz der Datendarstellung sicherstellen, indem Sie Industriestandards oder organisatorische Konventionen einhalten.


| Feld | Anweisungen | Extraktionstyp | Typ | 
| --- | --- | --- | --- | 
|  ssn  |  Die SSN, formatiert als XXX-XX-XXX  |  Abgeleitet  |  Zeichenfolge  | 
|  STATE  |  Der zweibuchstabige Code des Bundesstaates  |  Abgeleitet  |  Zeichenfolge  | 
|  expiration\$1date  |  Das Ablaufdatum im Format YYYY-MM-DD  |  Abgeleitet  |  Zeichenfolge  | 
|  DATE\$1OF\$1BIRTH  |  Das Geburtsdatum des Fahrers im YYYY-MM-DD Format  |  Abgeleitet  |  Zeichenfolge  | 
|  CHECK\$1DATE  |  Das Datum, an dem der Scheck unterschrieben wurde. Formatieren Sie das Format auf YYYY-MM-DD  |  Abgeleitet  |  Zeichenfolge  | 
|  PurchaseDate  |  Kaufdatum des Fahrzeugs im Format mm/dd/yy  |  Abgeleitet  |  Zeichenfolge  | 

Sie können Werte auch in eine Standardmaßeinheit oder in einen bestimmten Datentyp konvertieren, indem Sie Szenarien wie „Nicht zutreffend“ behandeln.


| Feld | Anweisungen | Extraktionstyp | Typ | 
| --- | --- | --- | --- | 
|  WEIGHT  |  Gewicht in Pfund umgerechnet  |  Abgeleitet  |  Zahl  | 
|  HEIGHT  |  Höhe in Zoll umgerechnet  |  Abgeleitet  |  Zahl  | 
|  nonqualified\$1plans\$1income  |  Der Wert in Feld 11. 0, wenn N/Z.  |  Abgeleitet  |  Zahl  | 

# So erstellen Sie Vorlagen für die Transformation
<a name="idp-cases-transformation"></a>

Mit BDA können Sie Datenfelder an Ihre konkreten Anforderungen anpassen. Diese Funktion ermöglicht Ihnen, die extrahierten Daten in ein Format umzuwandeln, das besser auf Ihre nachgelagerten Systeme oder Analyseanforderungen abgestimmt ist. 

In vielen Fällen können Dokumente Felder enthalten, die mehrere Informationen in einem einzigen Feld kombinieren. Mit BDA können Sie diese Felder in separate, individuelle Felder aufteilen, um die Datenmanipulation und -analyse zu vereinfachen. Wenn ein Dokument beispielsweise den Namen einer Person als einzelnes Feld enthält, können Sie es in separate Felder für Vorname, zweiten Vornamen, Nachnamen und Suffix aufteilen.

Für Transformationsaufgaben kann der Extraktionstyp als Explizit oder Abgeleitet definiert werden, je nachdem, ob der Wert normalisiert werden muss. 


| Feld | Anweisungen | Extraktionstyp | Typ | 
| --- | --- | --- | --- | 
|  first\$1name  |  Der Vorname.  |  explizit  |  String  | 
|  Zweiter\$1Vorname  |  Der zweite Vorname oder die Initiale  |  explizit  |  String  | 
|  last\$1name  |  Der Nachname des Fahrers  |  explizit  |  String  | 
|  Suffix  |  Das Suffix, z. B. PhD, MSc. usw.  |  explizit  |  String  | 

Ein anderes Beispiel sind Adressblöcke, die als ein einzelnes Feld erscheinen könnten


| Feld | Anweisungen | Extraktionstyp | Typ | 
| --- | --- | --- | --- | 
|  Straße  |  Wie lautet die Straße  |  explizit  |  String  | 
|  Ort  |  Wie lautet die Stadt  |  explizit  |  String  | 
|  Status  |  Welcher Staat ist es?  |  explizit  |  String  | 
|  ZipCode  |  Wie lautet die Postleitzahl?  |  explizit  |  String  | 

Sie können diese Felder als vollständig individuelle Felder definieren oder einen benutzerdefinierten Typ erstellen. Benutzerdefinierte Typen sind so konzipiert, dass Sie sie für verschiedene Felder wiederverwenden können. Im folgenden Beispiel erstellen wir einen benutzerdefinierten Typ „NameInfo“, den wir für „EmployeeName“ und „ManagerName“ verwenden.

![\[Hier sehen Sie, wie in der Konsole benutzerdefinierte Typdetails hinzugefügt werden. Außerdem werden die Untereigenschaften angezeigt, die dem benutzerdefinierten Typ hinzugefügt wurden.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/bda/bdacustomtype.png)


# So erstellen Sie Vorlagen für die Validierung
<a name="idp-cases-validation"></a>

Mit BDA können Sie Validierungsregeln definieren, um die Richtigkeit der extrahierten Daten sicherzustellen. Diese Validierungsregeln können in Ihre Vorlagen integriert werden, sodass BDA verschiedene Prüfungen an den extrahierten Daten durchführen kann. Mit BDA können Sie benutzerdefinierte Validierungen erstellen, die auf Ihre spezifischen Geschäfts- oder Branchenanforderungen zugeschnitten sind. Im Folgenden finden Sie einige Beispiele für Validierungen, um den Umfang dieser Fähigkeit zu veranschaulichen.

**Numerische Validierungen**  
Numerische Validierungen werden verwendet, um zu überprüfen, ob die extrahierten numerischen Daten in einen bestimmten Wertebereich fallen oder bestimmte Kriterien erfüllen. Diese Validierungen können auf Felder wie Beträge, Mengen oder andere numerische Daten angewendet werden.


| Feld | Anweisungen | Extraktionstyp | Typ | 
| --- | --- | --- | --- | 
|  BalanceGreaterCheck  |  Ist der vorherige Saldo höher als 1 000 USD?  |  Abgeleitet  |  Boolesch  | 
|  Entspricht der Bruttogewinn der Differenz zwischen Umsatz und COGS?  |  Frage zur Validierung  |  Abgeleitet  |  Boolesch  | 
|  is\$1gross\$1pay\$1valid  |  Ist der Bruttolohn seit Jahresbeginn der größte Betrag auf der Gehaltsabrechnung?  |  Abgeleitet  |  Boolesch  | 

**Datums-/Zeitvalidierungen**  
Validierungen von Datum und Uhrzeit werden verwendet, um zu überprüfen, ob die extrahierten Datums- oder Uhrzeitdaten in einen bestimmten Bereich fallen oder bestimmte Kriterien erfüllen. Diese Validierungen können auf Felder wie Fälligkeit, Ablauf oder andere datums- oder zeitbezogene Daten angewendet werden.


| Feld | Anweisungen | Extraktionstyp | Typ | 
| --- | --- | --- | --- | 
|  was\$1injury\$1reported\$1after\$11\$1month  |  Wurde die Verletzung dem Arbeitgeber mehr als 1 Monat nach dem Tag der Verletzung gemeldet?  |  Abgeleitet  |  Boolesch  | 
|  is\$1overdue  |  Ist der Auszug überfällig? Ist das Fälligkeitsdatum des Saldos abgelaufen?  |  Abgeleitet  |  Boolesch  | 
|  is\$1delivery\$1date\$1valid  |  Liegt der Liefertermin innerhalb der nächsten 30 Tage?  |  Abgeleitet  |  Boolesch  | 

**Zeichenfolgen- und Formatvalidierungen**  
Zeichenfolgen- und Formatvalidierungen werden verwendet, um zu überprüfen, ob die extrahierten Daten einem bestimmten Format entsprechen oder mit vordefinierten Mustern übereinstimmen. Diese Validierungen können auf Felder wie Namen, Adressen oder andere Textdaten angewendet werden, für die eine Formatüberprüfung erforderlich ist.


| Feld | Anweisungen | Extraktionstyp | Typ | 
| --- | --- | --- | --- | 
|  routing\$1number\$1valid  |  True, wenn die Bankleitzahl 9 Ziffern umfasst  |  Abgeleitet  |  Boolesch  | 
|  Is\$1NumMeterIDsListed  |  Sind auf der Rechnung mehr als 5 Zähler-IDs aufgeführt?  |  Abgeleitet  |  Boolesch  | 

Mit den benutzerdefinierten Validierungsfunktionen von BDA können Sie komplexe Validierungsregeln erstellen, die mehrere Bedingungen, Berechnungen oder logische Operationen kombinieren, um sicherzustellen, dass die extrahierten Daten Ihren gewünschten Kriterien entsprechen. Diese Validierungen können feldübergreifende Prüfungen, Berechnungen oder jede andere benutzerdefinierte Logik beinhalten, die auf Ihre Geschäftsprozesse oder behördlichen Anforderungen zugeschnitten ist.

Durch die Integration dieser Validierungsregeln in Ihre Vorlagen kann BDA die extrahierten Daten automatisch validieren und so deren Richtigkeit und Konformität mit Ihren spezifischen Anforderungen sicherstellen. Diese Funktion ermöglicht Ihnen, bei fehlgeschlagenen Validierungen menschliche Überprüfungen auszulösen.

# Erstellen von Vorlagen für Bilder
<a name="bda-idp-images"></a>

Amazon Bedrock Data Automation (BDA) ermöglicht es Ihnen, benutzerdefinierte Vorlagen für Bildmodalitäten zu erstellen. Sie können Vorlagen verwenden, um das gewünschte Ausgabeformat und die Extraktionslogik für Ihre Eingabedateien zu definieren. Durch die Erstellung von benutzerdefinierten Vorlagen können Sie die Ausgabe von BDA an Ihre spezifischen Anforderungen anpassen. Innerhalb eines Projekts können Sie eine einzelne Bildvorlage anwenden.

## Definieren von Datenfeldern für Bilder
<a name="bda-images-defining-data-fields"></a>

Mit BDA können Sie die spezifischen Felder definieren, die Sie aus ihren Bildern identifizieren möchten, indem Sie eine Vorlage erstellen. Dies dient als eine Reihe von Anweisungen, die BDA dabei unterstützen, welche Informationen aus Ihren Bildern extrahiert und generiert werden sollen.

### Beispiele für Vorlagenfelder für Werbebilder
<a name="w2aac28b8c14c11b9b5b5"></a>

Hier sind einige Beispiele für Vorlagenfelder zum Analysieren von Werbebildern.




|  |  |  |  | 
| --- |--- |--- |--- |
| Feld | Anweisung | Art der Extraktion | Typ | 
| Produkttyp | Für welches Produkt oder welche Dienstleistung wird hauptsächlich geworben? Beispiel: Kleidung, Elektronik, Lebensmittel und Getränke | gefolgert | Zeichenfolge | 
| Produktplatzierung | Wie wird das Produkt im Werbebild platziert, z. B. zentriert, im Hintergrund, von einer Person gehalten usw.? | gefolgert | Zeichenfolge | 
| Produktgröße | Die Produktgröße ist klein, wenn die Größe weniger als 30% des Bildes beträgt, mittel, wenn sie zwischen 30 und 60% beträgt, und groß, wenn sie größer als 60% des Bildes ist | gefolgert | Zeichenfolge | 
| Bildstil | Klassifizieren Sie den Bildstil der Anzeige. Zum Beispiel Produktbild, Lifestyle, Porträt, Retro, Infografik, nichts davon. | gefolgert | Zeichenfolge | 
| bild\$1hintergrund | Der Hintergrund kann einfarbig, naturbelassen, drinnen, draußen oder abstrakt sein.  | gefolgert | Zeichenfolge | 
| Werbeangebot | Enthält die Werbung Rabatte, Angebote oder Werbebotschaften? | gefolgert | boolesch | 

### Beispiele für Vorlagenfelder für die Mediensuche
<a name="w2aac28b8c14c11b9b5b7"></a>

Im Folgenden finden Sie einige Beispiele für Vorlagenfelder zum Generieren von Metadaten aus Bildern für die Mediensuche.




|  |  |  |  | 
| --- |--- |--- |--- |
| Feld | Anweisung | Art der Extraktion | Typ | 
| person\$1counting | Wie viele Personen sind auf dem Bild? | gefolgert | number | 
| Klassifizierung für drinnen und draußen | Ist das Bild drinnen oder draußen? | gefolgert | Zeichenfolge | 
| Szenenklassifizierung | Klassifizieren Sie die Einstellung oder Umgebung des Bildes. Beispiel: städtische, ländliche, natürliche, historische, Wohn-, Gewerbe-, Freizeit- und öffentliche Räume | gefolgert | Zeichenfolge | 
| Identifizierung von Tieren | Enthält das Bild Tiere? | gefolgert | boolesch | 
| Tiertyp | Welche Tiere sind auf dem Bild zu sehen? | gefolgert | Zeichenfolge | 
| Farbidentifikation | Ist das Bild in Farbe oder Schwarzweiß? | gefolgert | Zeichenfolge | 
| Fahrzeugidentifikation | Ist auf dem Bild ein Fahrzeug sichtbar? | gefolgert | Zeichenfolge | 
| Fahrzeugtyp | Welcher Fahrzeugtyp ist auf dem Bild zu sehen? | gefolgert | Zeichenfolge | 
| Identifizierung des Wasserzeichens | Ist auf dem Bild ein Wasserzeichen sichtbar? | gefolgert | boolesch | 

# Erstellen von Vorlagen für Audio
<a name="creating-blueprint-audio"></a>

Ähnlich wie bei Bildvorlagen können Sie nur eine Audiovorlage pro Projekt haben.

Im Folgenden finden Sie einige Beispielfelder für die Audioverarbeitung.

## Beispiele für Vorlagenfelder für Audiodateien
<a name="example-audio-fields"></a>


|  |  |  |  | 
| --- |--- |--- |--- |
| Feld | Anweisungen | Extraktionstyp | Typ | 
| transcript\$1summary | Generate a concise abstractive summary of the conversation, focusing on the main topics and key themes. Ensure accuracy by summarizing only what is explicitly discussed, without adding specific details not present in the conversation. Keeping the response within 100 words. | inferred | string | 
| topics | The main topics of the audio transcript, listed as single words. | inferred | [string] (Array of strings) | 
| category | The category of the audio (not the topic). Choose from General conversation, Media, Hospitality, Speeches, Meetings, Education, Financial, Public sector, Healthcare, Sales, Audiobooks, Podcasts, 911 calls, Other. | inferred | string | 
| spoken\$1named\$1entities | Any named entities (typically proper nouns) explicitly mentioned in the audio transcript including locations, brand names, company names, product names, services, events, organizations, etc. Do not include names of people, email addresses or common nouns.  | extractive | [string] (Array of strings) | 

## Beispiele für Vorlagenfelder für Konversationsanalysen
<a name="example-audio-analytics"></a>


|  |  |  |  | 
| --- |--- |--- |--- |
| Feld | Anweisungen | Extraktionstyp | Typ | 
| call\$1summary | Summarize the caller-agent conversation in under 100 words. Start with the caller's request, then the agent's response and actions, ending with outcomes or follow-ups. Include key details like emails, links, or callbacks. For multiple issues, summarize each with its outcome and next steps. | inferred | string | 
| call\$1categories | The category (or categories) of the call. Choose one or more from Billing, Tech support, Customer service, Account support, Sales, Complaints, Product issues, Service issues, General inquiries, Other. | inferred | [string] (Array of strings) | 
| spoken\$1locations | Locations explicitly mentioned in the conversation, including cities, states, and countries. | extractive | [string] | 
| call\$1opening | Did the agent greet the caller and introduce themselves at the beginning of the call?  | extractive | boolean | 

# Erstellen von Vorlagen für Videos
<a name="creating-blueprint-video"></a>

Vorlagen für Videodateien bieten im Vergleich zu anderen Vorlagen einige einzigartige Eigenschaften, insbesondere bei der Erstellung von Feldern. Videovorlagen verfügen über den Parameter „Granularität“, mit dem Sie ein Feld entweder auf „Video“ oder „Kapitel“ festlegen können. Wenn das Feld auf „Video“ festgelegt ist, wird es im gesamten Video erkannt. Wenn Sie beispielsweise eine Zusammenfassung des gesamten Clips anzeigen möchten, sollten Sie die Granularität dieses Felds auf „Video“ festlegen. 

Ein Feld, dessen Granularität auf „Kapitel“ festgelegt ist, gibt stattdessen eine Antwort für jedes Kapitel des Videos zurück. Das Feld gibt für jedes Videokapitel einen Wert zurück. Ausgehend vom vorherigen Beispiel sollten Sie die Granularität auf „Kapitel“ festlegen, wenn Sie eine Zusammenfassung der einzelnen Teile eines Videos ansehen möchten.

Wenn Sie ein Granularitätsfeld für Kapitel erstellen, können Sie einen eindeutigen Datentyp oder ein Array von Entitäten festlegen. Wenn Sie beispielsweise die optisch hervorstechenden Objekte in Ihrem Video erkennen möchten, könnten Sie das Feld `key-visual-objects` erstellen und für dessen Typ ein Array von Entitäten festlegen. Dieses Feld würde dann die Namen der Entitäten in einem Array-Objekt zurückgeben.

Im Folgenden finden Sie einige Beispielfelder für die Videoverarbeitung. Alle Felder in Videovorlagen werden als abgeleitet erachtet, mit Ausnahme von Entitäten und Arrays von Entitäten.

## Beispiele für Vorlagenfelder für die Mediensuche
<a name="example-video-fields-search"></a>


|  |  |  |  |  | 
| --- |--- |--- |--- |--- |
| Feld | Anweisungen | Extraktionstyp | Typ | Granularity | 
| key-visual-objects | Please detect all the visually prominent objects in the video | extractive | Array of entities | [ "chapter" ] | 
| keywords | Searchable terms that capture key themes, cast, plot elements, and notable aspects of TV shows and movies to enhance content discovery. | inferred | Array of strings | ["video"] | 
| genre | The genre of the content. | inferred | string | ["video"] | 
| video-type | Identify the type of video content | inferred | enums: ["Movie", "TV series", "News", "Others"] | [ "video" ] | 

## Beispiele für Vorlagenfelder für Keynote-Highlights
<a name="example-video-fields-keynote"></a>


|  |  |  |  |  | 
| --- |--- |--- |--- |--- |
| Feld | Anweisungen | Extraktionstyp | Typ | Granularity | 
| broadcast-setting | The physical setting or environment where the broadcast or training session is taking place. | inferred | enums["conference hall", "classroom", "outdoor venue", "Others", "Not applicable to the video"] | [ "video" ] | 
| broadcast-audience-engagement | The level of engagement or interaction between the speakers and the audience. | inferred | enums["interactive", "passive", "Not applicable to the video"] | ["video"] | 
| broadcast-visual-aids | A list of notable visual aids or materials used during the presentation, such as slides, diagrams, or demonstrations. | inferred | Array of strings | ["video"] | 
| broadcast-audience-size | The size of the audience present at the event. | inferred | enums["large crowd", "medium crowd", "small group", "Not applicable to this video"] | [ "chapter" ] | 
| broadcast-presentation-topics | A list of key topics, subjects, or themes covered in the presentation or training session. | inferred | enums: ["Movie", "TV series", "News", "Others"] | [ "video" ] | 

## Beispiele für Vorlagenfelder für Werbeanalysen
<a name="example-video-fields-ad"></a>


|  |  |  |  |  | 
| --- |--- |--- |--- |--- |
| Feld | Anweisungen | Extraktionstyp | Typ | Granularity | 
| ads-video-ad-categories | The ad categories for the video | inferred | enums["Health and Beauty", "Weight Loss", "Food and Beverage", "Restaurants", "Political", "Cryptocurrencies and NFT", "Money Lending and Finance", "Tobacco", "Other", "Video is not an advertisement"] | [ "video" ] | 
| ads-video-language | The primary language of the advertisement | inferred | string | ["video"] | 
| ads-video-primary-brand | The main brand or company being advertised in the video. | inferred | string | ["video"] | 
| ads-video-main-message | The primary message or tagline conveyed in the advertisement | inferred | string | [ "video" ] | 
| ads-video-message-clarity | How clear and understandable the main message of the advertisement is | inferred | enums: ["clear", "ambiguous", "Not applicable to the video"] | [ "video" ] | 
| ads-video-target-audience-interests | Specific interests or hobbies that the target audience is likely to have | inferred | Array of strings | [ "video" ] | 
| ads-video-product-type | The category or type of product being advertised | inferred | enums: ["electronics", "apparel", "food\$1and\$1beverage", "automotive", "home\$1appliances", "other", "Not applicable to the video"] | [ "video" ] | 
| ads-video-product-placement | The way the product is positioned or showcased in the advertisement | inferred | enums: ["front\$1and\$1center", "background", "held\$1by\$1person", "other", "Not applicable to the video"] | [ "video" ] | 
| ads-video-product-features | The key features or specifications of the advertised product highlighted in the video | inferred | Array of strings | [ "video" ] | 
| ads-video-number-of-products | The number of distinct products or variations featured in the advertisement | inferred | number | [ "video" ] | 

Videos unterstützen auch ein Array von Entitätstypen, mit deren Hilfe bestimmte Entitäten in Videoinhalten identifiziert und lokalisiert werden können. Dieses Feature gibt eine Reihe von erkannten Entitäten zurück. Im Folgenden finden Sie ein Beispiel für eine Reihe von Entitäten in einer Kundenvorlage:

```
  "field_name": {
        "items": {
            "$ref": "bedrock-data-automation#/definitions/Entity"
        },
        "type": "array",
        "instruction": "Please detect all the visually prominent objects in the video",
        "granularity": [
            "chapter"
        ]
    }
```

**Anmerkung**  
`bedrock-data-automation#/definitions/Entity` ist ein BDA-eigener Servicetyp. Sie können das folgende Schema verwenden, um die Ergebnisse zu analysieren.

```
       {
        "$schema": "http://json-schema.org/draft-07/schema#",
        "$id": "bedrock-data-automation",
        "type": "object",
        "definitions": {
            "BoundingBox": {
                "type": "object",
                "additionalProperties": false,
                "properties": {
                    "left": {
                        "type": "number"
                    },
                    "top": {
                        "type": "number"
                    },
                    "width": {
                        "type": "number"
                    },
                    "height": {
                        "type": "number"
                    }
                }
            },
            "Entity": {
                "type": "object",
                "additionalProperties": false,
                "properties": {
                    "label": {
                        "type": "string"
                    },
                    "bounding_box": {
                        "$ref": "bedrock-data-automation#/definitions/BoundingBox"
                    },
                    "confidence": {
                        "type": "number"
                    }
                }
            }
        },
        "properties": {}
    }
```

# Optimieren Sie Ihre Pläne mit Ground Truth
<a name="bda-optimize-blueprint-info"></a>

Sie können die Genauigkeit der Blueprints verbessern, indem Sie Beispielinhalte mit den korrekten erwarteten Ergebnissen bereitstellen. **Die Optimierung von Blueprint-Anweisungen verwendet Ihre Beispiele, um die Anweisungen in natürlicher Sprache in Ihren Blueprint-Feldern zu verfeinern, wodurch die Genauigkeit Ihrer Inferenzergebnisse verbessert wird.**

Die Optimierung von Blueprint-Anweisungen funktioniert am besten, wenn Sie bestimmte Werte extrahieren müssen, die direkt in Ihren Dokumenten vorkommen, wie Rechnungsnummern, Vertragsbeträge oder Steuerformularfelder. Wir empfehlen, 3 bis 10 Beispielressourcen anzugeben, die die Dokumente repräsentieren, die Sie in der Produktion verarbeiten, insbesondere solche, bei denen Sie auf Genauigkeitsprobleme gestoßen sind.

**So funktioniert die Optimierung von Blueprint-Anweisungen**  
Die Optimierung von Blueprint-Anweisungen analysiert die Unterschiede zwischen Ihren erwarteten Ergebnissen und den ersten Inferenzergebnissen. Der Service verfeinert die Anweisungen in natürlicher Sprache für jedes Feld Ihres Blueprints iterativ, bis die Anweisungen in Ihren Beispiel-Assets zu genaueren Ergebnissen führen. Dieser Vorgang ist innerhalb von Minuten abgeschlossen, ohne dass ein Training oder eine Feinabstimmung des Modells erforderlich ist.

Wenn Sie mit dem Optimierungsprozess beginnen, geben Sie Ihre Beispiel-Assets und die entsprechenden Ground-Truth-Daten an — also die korrekten Werte, die Sie für jedes Feld zu extrahieren erwarten. Die Optimierung der Blueprint-Anweisungen vergleicht diese Werte mit den Inferenzergebnissen und passt die Feldbeschreibungen an, um die Genauigkeit zu verbessern. Nach Abschluss der Optimierung erhalten Sie Genauigkeitsmetriken, die die Verbesserung der Genauigkeit aufzeigen, einschließlich exakter Trefferquoten und anhand Ihrer Bodendaten gemessenen F1-Ergebnissen.

**Was Sie benötigen, bevor Sie mit der Optimierung Ihrer Pläne beginnen**  
**Ein Blueprint mit definierten Feldern**. Erstellen Sie einen Blueprint mithilfe der Konsole oder API. Ihr Blueprint sollte die Feldnamen und anfänglichen Beschreibungen für die Daten enthalten, die Sie extrahieren möchten.

**Beispiele für Inhaltsressourcen**. Sammeln Sie 3 bis 10 Dokumentressourcen, die Ihren Produktionsaufwand für Dokumente darstellen. Wählen Sie Beispiele aus, die alle Felder in Ihrem Blueprint enthalten.

**Erwartete Ergebnisse für Ihre Beispiele**. Bereiten Sie die richtigen Werte vor, die Sie aus jedem Beispiel-Asset extrahieren möchten. Sie können diese Werte während der Optimierung manuell eingeben oder sie mithilfe einer Manifestdatei hochladen.

**Ein S3-Bucket-Standort**. Geben Sie einen S3-Bucket an, in dem Sie Ihre Beispiel-Assets und Ground-Truth-Daten speichern möchten. Sie können Ihren eigenen Bucket bereitstellen oder dem Service erlauben, einen für Sie zu erstellen.

**Step-by-step Prozess zur Optimierung Ihres Blueprints**  
Um Ihren Blueprint zu optimieren, beginnen Sie auf der Blueprint-Detailseite in der Amazon Bedrock Data Automation-Konsole. Beachten Sie, dass dies nur für Ihre Dokumentmodalität verfügbar ist.

Schritt 1. Wählen Sie **Blueprint optimieren** aus, um den Optimierungsworkflow zu starten.

![\[alt text not found\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/bda/bda-blueprint-optimize-button.png)


Schritt 2. **Laden Sie Ihre Beispiel-Assets** hoch. Wählen Sie bis zu 10 Inhaltsressourcen von Ihrem lokalen Gerät oder von einem S3-Standort aus. Der Dienst lädt Ihre Inhalte hoch und zeigt Miniaturansichten für jede Datei an. Wenn Sie diesen Blueprint zuvor optimiert haben, können Sie neue Beispiele hinzufügen oder bestehende entfernen.

![\[alt text not found\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/bda/bda-optimize-files-selector.png)


Schritt 3. **Stellen Sie Ground Truth für jedes Asset** bereit. Wählen Sie ein Asset aus, um den Ground-Truth-Editor zu öffnen. Der Editor zeigt links Ihre Dokumentenvorschau und rechts eine vereinfachte Tabelle mit Ihren Blueprint-Feldern an. Geben Sie für jedes Feld den korrekten Wert, den Sie zu extrahieren erwarten, in die Spalte Ground Truth ein.

![\[alt text not found\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/bda/bda-optimize-files-ground-truth.png)


Schritt 4. **Um die Ground-Truth-Eingabe zu beschleunigen, wählen Sie **Automatisch ausfüllen aus, um erste Rückschlüsse auf Ihre Ressourcen zu ziehen** und die **Ground-Truth-Spalte** automatisch anhand der Werte in Ihrer Ergebnisspalte zu füllen.** Bearbeiten Sie alle falschen Werte, bevor Sie fortfahren.

![\[alt text not found\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/bda/bda-optimize-ground-truth-edit.png)


Schritt 5. **Starten Sie die Optimierung**. Nachdem Sie die Ground-Truth-Eingabe für alle ausgewählten Assets abgeschlossen haben, wählen Sie **Optimierung starten** aus. Die Datenautomatisierung analysiert Ihre Beispiele und verfeinert die Anweisungen in natürlicher Sprache für jedes Feld. Eine Fortschrittsanzeige zeigt den Optimierungsstatus mit Meldungen wie „Wir lesen Ihre Ressourcen“ und „Iterieren anhand von Anweisungen in natürlicher Sprache“ an.

![\[alt text not found\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/bda/bda-start-optimization-button.png)


Schritt 6: **Überprüfen Sie die Bewertungskennzahlen**. Wenn die Optimierung abgeschlossen ist, werden im Abschnitt **Metriken** Genauigkeitsmetriken für Ihren Blueprint angezeigt. Die Metriken vergleichen die Leistung vor der Optimierung und nach der Optimierung. Prüfen Sie die F1-Gesamtpunktzahl, die Konfidenzpunktzahl und die genaue Trefferquote, um zu beurteilen, ob der Blueprint Ihren Genauigkeitsanforderungen entspricht.

Auf der Registerkarte „**Metriken nach Beispieldatei**“ wird die Genauigkeit auf Feldebene für jedes Beispiel-Asset angezeigt. Verwenden Sie diese Kennzahlen, um zu ermitteln, welche Felder verbessert wurden und welche Felder möglicherweise zusätzliche Beispiele oder manuelle Anpassungen erfordern.

![\[alt text not found\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/bda/bda-optimize-metrics.png)


Schritt 7. **Vollständige Optimierung**. Wenn die Bewertungsmetriken Ihren Anforderungen entsprechen, wählen Sie **Optimierten Blueprint speichern** aus, um den optimierten Blueprint für die Produktion bereitzustellen. Ihr Blueprint verwendet jetzt die verfeinerten Anweisungen in natürlicher Sprache für alle future Inferenzanfragen.

**Optimieren Sie Ihren Blueprint erneut**  
Sie können einen Blueprint jederzeit erneut optimieren, um die Genauigkeit weiter zu verbessern. **Kehren Sie zur Blueprint-Detailseite zurück und wählen Sie Blueprint optimieren aus.** Der Service zeigt die Ressourcen, die Sie zuvor für die Optimierung verwendet haben, zusammen mit ihren Ground-Truth-Werten an.

Zur erneuten Optimierung können Sie neue Beispiel-Assets hinzufügen, Ground-Truth-Werte für bestehende Assets bearbeiten oder Assets entfernen, die nicht mehr Ihrem Workload entsprechen. Wenn Sie **Optimierung starten** auswählen, wird die Blueprint-Befehlsoptimierung anhand Ihrer aktuellen Blueprint-Anweisungen im Vergleich zu den neuen Anweisungen berechnet.

**Bearbeiten Sie einen Blueprint nach der Optimierung**  
Wenn Sie Felder zu einem optimierten Blueprint hinzufügen oder daraus entfernen, entfernt der Service den Optimierungsverlauf und die zugehörigen Beispiel-Assets. Laden Sie vor der Bearbeitung die Manifestdatei herunter, die Ihre Asset-Standorte und Ground-Truth-Bezeichnungen enthält. Die Manifestdatei verwendet das JSON-Format und enthält alle Felder und Ground-Truth-Werte aus Ihrer vorherigen Optimierung. Um Ihre Optimierungsarbeit beizubehalten, laden Sie die Manifestdatei hoch, wenn Sie den bearbeiteten Blueprint erneut optimieren. Die Datenautomatisierung wendet automatisch Ground-Truth-Werte auf übereinstimmende Felder an. Felder, die im Blueprint nicht mehr vorhanden sind, werden aus dem Manifest entfernt. Neue Felder haben erst dann Ground-Truth-Werte, wenn Sie sie angeben.

**Managen Sie die Optimierungskosten**  
Bei der Optimierung von Blueprint-Anweisungen fallen die Inferenzkosten an, als ob Sie Ihre Anweisungen in natürlicher Sprache manuell bearbeiten und sie iterativ mit jedem Beispieldokument testen würden. Für eine grobe Berechnung entspricht die Anzahl der Seiten, die Sie als Beispiele angeben, der Anzahl der Seiten, die bei der Optimierung Ihres Blueprints berechnet werden. Bei jedem Optimierungslauf werden Ihre Beispiel-Assets mehrfach verarbeitet, um die Anweisungen zu verfeinern. Um die Kosten zu minimieren, beginnen Sie mit 3 bis 5 Beispielen für Ihre erste Optimierung. Fügen Sie weitere Beispiele hinzu, wenn Sie die Bewertungskennzahlen überprüfen und der Meinung sind, dass Sie zusätzliche Genauigkeitsverbesserungen benötigen.

Darüber hinaus sind die optimierten Anweisungen in natürlicher Sprache in der Regel länger und detaillierter als die ursprünglichen Anweisungen, was die Kosten für Laufzeitinferenzen erhöhen kann.

# Verwenden der Bedrock Data Automation-Konsole
<a name="bda-blueprints-console"></a>

In Amazon Bedrock Data Automation (BDA) werden bei der Verarbeitung von Informationen zwei wichtige Artefakte verwendet. Projekte, in denen Ausgabekonfigurationen gespeichert werden, und Vorlagen, mit denen Sie das Ausgabeformat und die Extraktionslogik für Ihre unstrukturierten Inhalte anpassen können. 

In diesem Abschnitt wird das Erstellen von Projekten und Vorlagen in der BDA-Konsole beschrieben. Weitere Informationen zur Funktionsweise von Projekten in BDA finden Sie unter [Projekte in Bedrock Data Automation](bda-projects.md). Weitere Informationen zu Vorlagen in BDA finden Sie unter [Erstellen von Vorlagen für benutzerdefinierte Ausgaben](bda-idp.md#how-to-create-blueprints).

## Projekte in der BDA-Konsole
<a name="projects-in-bda-console"></a>

In der BDA-Konsole können Sie Projekte erstellen und verwalten. Mit Projekten können Sie steuern, welche Standardausgaben abgerufen werden, wenn eine Inferenzoperation ausgeführt wird, und angeben, wie benutzerdefinierte Ausgaben während der Inferenz behandelt werden.

So erstellen Sie ein Projekt:

1. Navigieren Sie zum Amazon Bedrock-Service. Wählen Sie dort im Seitenleistenmenü „Datenautomatisierung“ aus.

1. Wählen Sie „Projekt erstellen“ aus.

1. Geben Sie dem Projekt einen Namen und wählen Sie dann erneut „Projekt erstellen“ aus.

1. Dadurch gelangen Sie zur Seite mit den Projektdetails, auf der Sie sehen können, welche Standardausgaben in Ihrem Projekt aktiviert sind. Anschließend können Sie benutzerdefinierte Ausgaben steuern, indem Sie die Registerkarte „Benutzerdefinierte Ausgabe“ und dann die Option „Vorlage erstellen“ auswählen. Sie können dem Projekt außerdem eine vorhandene Vorlage hinzufügen.

## Erstellen von Vorlagen in der BDA-Konsole
<a name="accessing-bda-console"></a>

Alternativ können Sie im Menü der Seitenleiste „Datenautomatisierung“ auswählen und direkt zur Konfiguration der benutzerdefinierten Ausgabe navigieren. Suchen Sie im BDA-Dashboard die Registerkarte „Benutzerdefinierte Ausgabeeinrichtung“ und klicken Sie darauf. Dadurch gelangen Sie zur Verwaltungsseite für Vorlagen.

## Initiieren der Vorlagenerstellung
<a name="initiating-blueprint-creation"></a>

1. Klicken Sie auf die Schaltfläche „Vorlage erstellen“, um mit der Erstellung einer neuen Vorlage zu beginnen.

1. Wählen Sie entweder „Vom Computer hochladen“ oder „Von S3 importieren“ aus und geben Sie eine Datei an, die für die Dateien repräsentativ ist, die Sie verarbeiten möchten.

1. Geben Sie einen Vorlagen-Prompt für das Generieren einer Vorlage ein. Beim Eingeben des Prompts können Sie alle Felder angeben, die Sie in Ihrem hochgeladenen Dokument erwarten. Sie können auch Datennormalisierungen oder -validierungen festlegen.

1. Wählen Sie „Vorlage generieren“ aus.

1. Geben Sie einen Namen für die Vorlage ein und wählen Sie „Vorlage erstellen“ aus.

1. Im Abschnitt „Benutzerdefinierte Vorlagen“ können Sie die Schaltfläche „Vorlage erstellen“ auswählen.

1. Ihre Vorlage wird erstellt und Sie können die Extraktionen sehen, die anhand Ihres Prompts identifiziert wurden.

## Anzeigen der Vorlage
<a name="previewing-the-blueprint"></a>

Verwenden Sie die Vorschaufunktion, um Ihre Vorlage mit Beispieldaten zu testen. Auf diese Weise können Sie überprüfen, ob die Extraktion und Formatierung wie erwartet funktionieren.

Wählen Sie „Prompt der Vorlage speichern und beenden“ aus, um Ihre Vorlage als Ressource zu speichern.

## Verwalten von Vorlagen
<a name="managing-blueprints"></a>

Nach der Erstellung können Sie Ihre Vorlagen über das Vorlagen-Dashboard verwalten. Zu den Optionen gehören:
+ Bearbeiten vorhandener Vorlagen
+ Duplizieren von Vorlagen
+ Löschen von Vorlagen
+ Anzeigen des Versionsverlaufs für Vorlagen

Sie können einem Projekt auch eine Vorlage hinzufügen, indem Sie auf das Dropdown-Menü „Zum Projekt hinzufügen“ klicken und ein von Ihnen erstelltes Projekt auswählen.

## Verwenden der Vorlage
<a name="using-your-blueprint"></a>

Nach der Erstellung können Sie Ihre Vorlage in BDA-Projekten oder direkt in API-Aufrufen verwenden, um Ihre unstrukturierten Inhalte zu verarbeiten. So verwenden Sie eine Vorlage:
+ Schließen Sie bei API-Aufrufen den Vorlagen-ARN in Ihre Anforderungsparameter ein. Weitere Informationen finden Sie im Abschnitt zum Aufrufen der API.
+ Geben Sie bei einem API-Aufruf den ARN des Projekts an, das die Vorlage enthält. Weitere Informationen finden Sie im Abschnitt zum Aufrufen der API.

## Verarbeitern von Dokumenten mit der Konsole
<a name="processing-documents-with-console"></a>

Mit der BDA-Konsole können Sie ebenfalls auf einfache Weise die Erkenntnisse, die BDA aus Ihren unstrukturierten Inhalten gewinnen kann, testen und eine Vorschau anzeigen. Diese Tests können jeweils nur für ein Dokument durchgeführt werden. Informationen zur Verarbeitung mehrerer Dokumente finden Sie in den Anweisungen zum Verwenden der API. Sie können Beispieldokumente, Bilder, Videos oder Audiodateien hochladen. In der Konsole werden die Standardinformationen angezeigt, die BDA generieren kann, sowie eine Option, um von Ihnen erstellte benutzerdefinierte Vorlagen anzuwenden.

Sie können eine Vorlage, die Sie erstellt und auf ein Projekt angewendet haben, testen, indem Sie zum Abschnitt „Projekte“ von Data Automation gehen und dann ein Projekt auswählen.

Wenn Sie sich auf der Seite mit den Projektdetails befinden, wählen Sie „Testen“ aus. Auf der Testseite können Sie eine Datei auswählen und angeben, ob Sie sie mit der Standardausgabe oder mit einer von Ihnen erstellten Vorlage verarbeiten möchten.

# Verwenden der Bedrock-Data-Automation-API
<a name="bda-using-api"></a>

Die Funktion Amazon Bedrock Data Automation (BDA) bietet einen optimierten API-Workflow für die Verarbeitung Ihrer Daten. Für alle Modalitäten besteht dieser Workflow aus drei Hauptschritten: Erstellen eines Projekts, Aufrufen der Analyse und Abrufen der Ergebnisse. Um eine benutzerdefinierte Ausgabe für verarbeitete Daten abzurufen, geben Sie beim Aufrufen des Analysevorgangs den Vorlagen-ARN an.

## Erstellen eines Datenautomatisierungsprojekts
<a name="create-data-automation-project"></a>

Um mit der Verarbeitung von Dateien mit BDA zu beginnen, müssen Sie zunächst ein Datenautomatisierungsprojekt erstellen. Dies kann auf zwei Arten geschehen, mit der CreateDataAutomationProject Bedienung oder der Amazon Bedrock Amazon-Konsole.

### Verwenden der API
<a name="using-the-api"></a>

Wenn Sie die API verwenden, um ein Projekt zu erstellen, rufen Sie die CreateDataAutomationProject auf. Definieren Sie bei der Erstellung des Projekts die Konfigurationseinstellungen für den Dateityp, den Sie verarbeiten möchten (die gewünschte Modalität). Hier sehen Sie ein Beispiel dafür, wie Sie die Standardausgabe für Bilder konfigurieren könnten:

```
{
    "standardOutputConfiguration": {
        "image": {
            "state": "ENABLED",
            "extraction": {
                "category": {
                    "state": "ENABLED",
                    "types": [
                        "CONTENT_MODERATION",
                        "TEXT_DETECTION"
                    ]
                },
                "boundingBox": {
                    "state": "ENABLED"
                }
            },
            "generativeField": {
                "state": "ENABLED",
                "types": [
                    "IMAGE_SUMMARY",
                    "IAB"
                ]
            }
        }
    }
}
```

Die API validiert die Eingabekonfiguration. Sie erstellt ein neues Projekt mit einem eindeutigen ARN. Die Projekteinstellungen werden für die zukünftige Verwendung gespeichert. Wenn ein Projekt ohne Parameter erstellt wird, gelten die Standardeinstellungen. Bei der Verarbeitung von Bildern sind beispielsweise die Bildzusammenfassung und die Texterkennung standardmäßig aktiviert.

Die Anzahl der Projekte, die pro AWS Konto erstellt werden können, ist begrenzt. Bestimmte Kombinationen von Einstellungen sind möglicherweise nicht zulässig oder erfordern zusätzliche Berechtigungen.

------
#### [ Async ]

**Rufen Sie Data Automation Async auf**

Sie haben ein Projekt eingerichtet und können mit der Verarbeitung von Bildern mithilfe der [InvokeDataAutomationAsync](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_data-automation-runtime_InvokeDataAutomationAsync.html)Operation beginnen. Wenn Sie eine benutzerdefinierte Ausgabe verwenden, können Sie nur einen einzigen Vorlagen-ARN pro Anfrage übermitteln.

Dieser API-Aufruf initiiert die asynchrone Verarbeitung der Dateien in einem angegebenen S3-Bucket. Die API akzeptiert den Projekt-ARN und die zu verarbeitende Datei und startet dann den asynchronen Verarbeitungsauftrag. Zur Nachverfolgung des Prozesses wird eine Auftrags-ID zurückgegeben. Es werden Fehler ausgelöst, wenn das Projekt nicht existiert, wenn der Aufrufer nicht über die erforderlichen Berechtigungen verfügt oder wenn die Eingabedateien nicht in einem unterstützten Format vorliegen.

Der Anfrage-JSON hat die folgende Struktur:

```
{
   {
   "blueprints": [ 
      { 
         "blueprintArn": "string",
         "stage": "string",
         "version": "string"
      }
   ],
   "clientToken": "string",
   "dataAutomationConfiguration": { 
      "dataAutomationProjectArn": "string",
      "stage": "string"
   },
   "dataAutomationProfileArn": "string",
   "encryptionConfiguration": { 
      "kmsEncryptionContext": { 
         "string" : "string" 
      },
      "kmsKeyId": "string"
   },
   "inputConfiguration": { 
      "assetProcessingConfiguration": { 
         "video": { 
            "segmentConfiguration": { ... }
         }
      "s3Uri": "string"
   },
   "notificationConfiguration": { 
      "eventBridgeConfiguration": { 
         "eventBridgeEnabled": boolean
      }
   },
   "outputConfiguration": { 
      "s3Uri": "string"
   },
   "tags": [ 
      { 
         "key": "sstring",
         "value": "string"
      }
   ]
}
}
```

Wenn Sie `InvokeDataAutomationAsync` für eine Videodatei ausführen, können Sie einen fünfminütigen oder längeren Abschnitt eines Videos festlegen, der bei der Datenextraktion als vollständiges Video behandelt wird. Dieses wird mit einem Zeitstempel für erste und letzte Millisekunde versehen. Diese Information wird dem `assetProcessingConfiguration`-Element hinzugefügt.

------
#### [ Sync ]

**Rufen Sie Data Automation auf**

Alternativ können Sie den [InvokeDataAutomation](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_data-automation-runtime_InvokeDataAutomation.html)Vorgang verwenden. Der `InvokeDataAutomation` Vorgang unterstützt nur die Verarbeitung von Bildern.

Dieser API-Aufruf initiiert die synchrone Verarbeitung der über eine S3-Referenz oder in der Nutzlast bereitgestellten Daten. Die API akzeptiert den Projekt-ARN und die zu verarbeitende Datei und gibt die strukturierten Erkenntnisse in der Antwort zurück. Es werden Fehler ausgelöst, wenn das Projekt nicht existiert, wenn der Aufrufer nicht über die erforderlichen Berechtigungen verfügt oder wenn die Eingabedateien nicht in einem unterstützten Format vorliegen. Wenn das analysierte Bild semantisch als Dokument klassifiziert ist, wird dies ebenfalls als Fehler gemeldet, da InvokeDataAutomation nur Bilder unterstützt werden. Um diesen Fehler zu vermeiden, können Sie Modality Routing in Ihrem Projekt verwenden, um das Routing aller Bilddateitypen als Bilder zu erzwingen (siehe[Modalitäten für die Deaktivierung und Weiterleitung von Dateitypen](bda-routing-enablement.md)).

Hier ist die Struktur der JSON-Anfrage für Bild und Dokument. Die Sync-API-Anfrage unterstützt sowohl Bildbytes als auch den S3-Bucket. Um Bildbytes zu verwenden, ersetzen Sie es einfach `“s3Uri”: “string”` im Abschnitt „InputConfiguration“ durch `“bytes“: “base64-encoded string“` `outputConfiguration` ist optional, wobei die Standardeinstellung die Inline-Ausgabe ist. Wenn die S3-URI als OutputConfiguration angegeben wird, wird die verschlüsselte Ausgabe in den angegebenen S3-Bucket abgelegt.

```
{
   {
    "blueprints": [ 
       { 
          "blueprintArn": "string",  //use for image
          "stage": "string",
          "version": "string"
       }
    ],
    "dataAutomationConfiguration": { 
       "dataAutomationProjectArn": "string",
       "stage": "string"
    },
    "dataAutomationProfileArn": "string",
    "inputConfiguration": { 
          "s3Uri": "string"
    },
    "outputConfiguration": { 
       "s3Uri": "string"
    }  
 }
}
```

Die Ausgabe enthält eindeutige Strukturen, die sowohl von der Datei als auch von den Operationen und der benutzerdefinierten Ausgabekonfiguration abhängen, die im Aufruf von angegeben wurden. InvokeDataAutomation Beachten Sie, dass diese Antwort sowohl die standardmäßigen als auch die benutzerdefinierten Ausgabeantworten umfasst.

------

Hier ist die Struktur der JSON-Antwort mit Standard- und benutzerdefinierter Ausgabekonfiguration:

```
{
  "semanticModality": "IMAGE",
  "outputSegments": [
    {
      "customOutputStatus": "MATCH",
      "standardOutput": {
        "image": {
          "summary": "This image shows a white Nike running shoe with a black Nike swoosh logo on the side. The shoe has a modern design with a thick, cushioned sole and a sleek upper part. The word \"ROUKEA\" is visible on the sole of the shoe, repeated twice. The shoe appears to be designed for comfort and performance, suitable for running or athletic activities. The background is plain and dark, highlighting the shoe.",
          "iab_categories": [
            {
              "category": "Style and Fashion",
              "confidence": 0.9890000000000001,
              "taxonomy_level": 1,
              "parent_name": "",
              "id": "0ebe86c8-e9af-43f6-a7bb-182a61d2e1fd",
              "type": "IAB"
            },
            {
              "category": "Men's Fashion",
              "confidence": 0.9890000000000001,
              "taxonomy_level": 2,
              "parent_name": "Style and Fashion",
              "id": "13bd456a-3e1b-4681-b0dd-f42a8d5e5ad5",
              "type": "IAB"
            },
            {
              "category": "Style and Fashion",
              "confidence": 0.853,
              "taxonomy_level": 1,
              "parent_name": "",
              "id": "177b29a1-0e40-45c1-8540-5f49a3d7ded3",
              "type": "IAB"
            },
            {
              "category": "Women's Fashion",
              "confidence": 0.853,
              "taxonomy_level": 2,
              "parent_name": "Style and Fashion",
              "id": "f0197ede-3ba6-498b-8f7b-43fecc5735ef",
              "type": "IAB"
            }
          ],
          "content_moderation": [],
          "logos": [
            {
              "id": "2e109eb6-39f5-4782-826f-911b62d277fb",
              "type": "LOGOS",
              "confidence": 0.9170872209665809,
              "name": "nike",
              "locations": [
                {
                  "bounding_box": {
                    "left": 0.3977411523719743,
                    "top": 0.4922481227565456,
                    "width": 0.2574246356942061,
                    "height": 0.15461772197001689
                  }
                }
              ]
            }
          ],
          "text_words": [
            {
              "id": "f70301df-5725-405e-b50c-612e352467bf",
              "type": "TEXT_WORD",
              "confidence": 0.10091366487951722,
              "text": "ROUKEA",
              "locations": [
                {
                  "bounding_box": {
                    "left": 0.6486002310163024,
                    "top": 0.6783271480251003,
                    "width": 0.13219473954570082,
                    "height": 0.05802226710963898
                  },
                  "polygon": [
                    {
                      "x": 0.6486002310163024,
                      "y": 0.7025876947351404
                    },
                    {
                      "x": 0.7760931467045249,
                      "y": 0.6783271480251003
                    },
                    {
                      "x": 0.7807949705620032,
                      "y": 0.7120888684246991
                    },
                    {
                      "x": 0.6533020989743271,
                      "y": 0.7363494151347393
                    }
                  ]
                }
              ],
              "line_id": "9147fec0-d869-4d58-933e-93eb7164c404"
            }
          ],
          "text_lines": [
            {
              "id": "9147fec0-d869-4d58-933e-93eb7164c404",
              "type": "TEXT_LINE",
              "confidence": 0.10091366487951722,
              "text": "ROUKEA",
              "locations": [
                {
                  "bounding_box": {
                    "left": 0.6486002310163024,
                    "top": 0.6783271480251003,
                    "width": 0.13219473954570082,
                    "height": 0.05802226710963898
                  },
                  "polygon": [
                    {
                      "x": 0.6486002310163024,
                      "y": 0.7025876947351404
                    },
                    {
                      "x": 0.7760931467045249,
                      "y": 0.6783271480251003
                    },
                    {
                      "x": 0.7807949705620032,
                      "y": 0.7120888684246991
                    },
                    {
                      "x": 0.6533020989743271,
                      "y": 0.7363494151347393
                    }
                  ]
                }
              ]
            }
          ]
        },
        "statistics": {
          "iab_category_count": 4,
          "content_moderation_count": 0,
          "logo_count": 1,
          "line_count": 1,
          "word_count": 1
        },
        "metadata": {
          "semantic_modality": "IMAGE",
          "image_width_pixels": 173,
          "image_height_pixels": 148,
          "image_encoding": "jpeg",
          "s3_bucket": "test-bucket",
          "s3_key": "uploads/test-image.jpeg"
        }
      },
      "customOutput": {
        "matched_blueprint": {
          "arn": "arn:aws:bedrock:us-east-1:123456789012:blueprint/test",
          "version": "1",
          "name": "test-blueprint",
          "confidence": 1.0
        },
        "inference_result": {
          "product_details": {
            "product_category": "footwear"
          },
          "image_sentiment": "Positive",
          "image_background": "Solid color",
          "image_style": "Product image",
          "image_humor": false
        }
      }
    }
  ]
}
```

## Abrufen des Datenautomatisierungsstatus
<a name="get-data-automation-status"></a>

Um den Status Ihres Verarbeitungsjobs zu überprüfen und Ergebnisse abzurufen, verwenden Sie GetDataAutomationStatus.

Mit der GetDataAutomationStatus API können Sie den Fortschritt Ihres Jobs überwachen und nach Abschluss der Verarbeitung auf die Ergebnisse zugreifen. Die API akzeptiert den von InvokeDataAutomationAsync zurückgegebenen Aufruf-ARN. Sie überprüft den aktuellen Status des Auftrags und gibt relevante Informationen zurück. Sobald der Auftrag abgeschlossen ist, gibt sie den Speicherort der Ergebnisse in S3 an.

Wenn der Job noch in Bearbeitung ist, gibt er den aktuellen Status zurück (z. B. "InProgress„). Wenn der Auftrag abgeschlossen ist, wird zusammen mit dem S3-Speicherort der Ergebnisse der Status „Success“ zurückgegeben. Wenn ein Fehler aufgetreten ist, wird "ServiceError" oder "ClientError" mit Fehlerdetails zurückgegeben.

Der Anfrage-JSON hat das folgende Format:

```
{
   "InvocationArn": "string" // Arn
}
```

## Asynchrone Ausgabeantwort
<a name="async-output-response"></a>

Die Ergebnisse der Dateiverarbeitung werden in dem für die Eingabebilder konfigurierten S3-Bucket gespeichert. Die Ausgabe enthält eindeutige Strukturen, die sowohl von der Dateimodalität als auch von den im Aufruf von angegebenen Operationstypen abhängen. InvokeDataAutomationAsync 

Hinweise zu den Standardausgaben für eine bestimmte Modalität finden Sie unter [Standardausgabe in Bedrock Data Automation](bda-standard-output.md).

Für Bilder kann sie beispielsweise Informationen zu folgenden Themen enthalten:
+ Bildzusammenfassung: Eine beschreibende Zusammenfassung oder Bildunterschrift.
+ IAB-Klassifikation: Kategorisierung auf der Grundlage der IAB-Taxonomie.
+ Erkennung von Bildtext: Extrahierter Text mit Informationen zum Begrenzungsrahmen.
+ Inhaltsmoderation: Erkennt unangemessene, unerwünschte oder anstößige Inhalte in einem Bild.

Es folgt ein Beispiel für einen Ausschnitt der Ausgabe für die Bildverarbeitung:

```
{
    "metadata": {
        "id": "image_123",
        "semantic_modality": "IMAGE",
        "s3_bucket": "my-s3-bucket",
        "s3_prefix": "images/",
        "image_width_pixels": 1920,
        "image_height_pixels": 1080
    },
    "image": {
        "summary": "A lively party scene with colorful decorations and supplies",
        "iab_categories": [
            {
                "category": "Party Supplies",
                "confidence": 0.9,
                "parent_name": "Events & Attractions"
            }
        ],
        "content_moderation": [
            {
                "category": "Drugs & Tobacco Paraphernalia & Use",
                "confidence": 0.7
            }
        ],
        "text_words": [
            {
                "id": "word_1",
                "text": "lively",
                "confidence": 0.9,
                "line_id": "line_1",
                "locations": [
                    {
                        "bounding_box": {
                            "left": 100,
                            "top": 200,
                            "width": 50,
                            "height": 20
                        },
                        "polygon": [
                            {
                                "x": 100,
                                "y": 200
                            },
                            {
                                "x": 150,
                                "y": 200
                            },
                            {
                                "x": 150,
                                "y": 220
                            },
                            {
                                "x": 100,
                                "y": 220
                            }
                        ]
                    }
                ]
            }
        ]
    }
}
```

Diese strukturierte Ausgabe ermöglicht eine einfache Integration von Bildern in nachgelagerte Anwendungen und weitere Analysen.

## Blueprint-Optimierung APIs
<a name="blueprint-optimization-apis"></a>

### InvokeBlueprintOptimizationAsync
<a name="invoke-blueprint-optimization-async"></a>

Sie können die Genauigkeit von Blueprints verbessern, indem Sie Beispielinhalte mit den korrekten erwarteten Ergebnissen bereitstellen. *Die Optimierung von Blueprint-Anweisungen verwendet Ihre Beispiele, um die Anweisungen in natürlicher Sprache in Ihren Blueprint-Feldern zu verfeinern, wodurch die Genauigkeit Ihrer Inferenzergebnisse verbessert wird.*

Für einen Blueprint können Sie eine InvokeBlueprintOptimizationAsync API aufrufen, die den asynchronen Optimierungsjob initiiert, um die Blueprint-Feldanweisungen auf der Grundlage von Ground-Truth-Daten zu verbessern.

**Anforderungstext**  


```
{
    "blueprint": {
        "blueprintArn": "arn:aws:bedrock:us-east-1:123456789012:blueprint/my-document-processor",
        "stage": "DEVELOPMENT"
    },
    "samples": [
        {
            "assetS3Object": {
                "s3Uri": "s3://my-optimization-bucket/samples/document1.pdf"
            },
            "groundTruthS3Object": {
                "s3Uri": "s3://my-optimization-bucket/ground-truth/document1-expected.json"
            }
        }
    ],
    "outputConfiguration": {
        "s3Object": {
            "s3Uri": "s3://my-optimization-bucket/results/optimization-output"
        }
    },
    "dataAutomationProfileArn": "arn:aws:bedrock:us-east-1:123456789012:data-automation-profile/my-profile"
}
```

**Antwort**  


```
{
    "invocationArn": "arn:aws:bedrock:us-east-1:123456789012:blueprint-optimization-invocation/opt-12345abcdef"
}
```

**Wichtig**  
Speichern Sie den InvocationARN, um den Status des Optimierungsauftrags zu überwachen.

### GetBlueprintOptimizationStatus
<a name="get-blueprint-optimization-status"></a>

Ruft den aktuellen Status und die Ergebnisse eines Blueprint-Optimierungsjobs ab, der durch Aufrufen der asynchronen API ausgegeben wurde. InvokeBlueprintOptimizationAsync GetBlueprintOptimizationStatus akzeptiert den von zurückgegebenen Aufruf-ARN. InvokeBlueprintOptimizationAsync

**Antwort**  


```
{
    "status": "Success",
    "outputConfiguration": {
        "s3Object": {
            "s3Uri": "s3://my-optimization-bucket/results/optimization-output"
        }
    }
}
```

**Statuswerte:**  

+ Erstellt — Job wurde erstellt
+ InProgress - Die Optimierung läuft
+ Erfolgreich — Die Optimierung wurde erfolgreich abgeschlossen
+ ServiceError - Ein interner Servicefehler ist aufgetreten
+ ClientError - Ungültige Anforderungsparameter

### CopyBlueprintStage
<a name="copy-blueprint-stage"></a>

Kopiert den Blueprint von der Quellphase in die Zielphase (z. B. ENTWICKLUNGSPHASE zur LIVE-Phase). Dies wird verwendet, um die gesamte Konfiguration einschließlich des Felds OptimizationSamples zwischen den Phasen zu synchronisieren.

**Anforderungstext**  


```
{
    "blueprintArn": "arn:aws:bedrock:us-east-1:123456789012:blueprint/my-document-processor",
    "sourceStage": "DEVELOPMENT",
    "targetStage": "LIVE"
}
```

**Stufenwerte:**  

+ ENTWICKLUNG — Development/testing Phase
+ LIVE - Produktionsphase

**Antwort**  


```
{}
```

**Warnung**  
Dieser Vorgang überschreibt die Konfiguration der Zielphase und kann nicht einfach rückgängig gemacht werden. Stellen Sie vor dem Kopieren in die LIVE-Phase gründliche Tests sicher.

# Markieren von Inferenzen und Ressourcen in Bedrock Data Automation
<a name="bda-tagging"></a>

Zur Unterstützung der Verwaltung von BDA-Ressourcen und -Inferenzen können Sie Metadaten in Form von Tags zuweisen. Ein Tag ist eine Markierung, die Sie einer AWS-Ressource zuordnen, z. B. einem Projekt oder einer Vorlage. Jedes Tag besteht aus einem Schlüssel und einem Wert.

Mit Tags können Sie AWS-Ressourcen auf unterschiedliche Weise kategorisieren (z. B. nach Zweck, Eigentümer oder Anwendung). Das Markieren von Interferenzen funktioniert etwas anders. Mit dieser Art der Markierung können Sie nicht nur Projekte oder Vorlagen, sondern auch spezifische Aufrufe der BDA-API kategorisieren. Weitere Informationen finden Sie unter Markieren Ihrer AWS-Ressourcen.

Zusätzlich zur Kategorisierung können mithilfe von Inferenz-Tags die monatlichen Kostenzuweisungen sehen. Weitere Informationen finden Sie unter „Verwenden von Kostenzuordnungs-Tags“ im Benutzerhandbuch zu AWS-Fakturierung und -Kostenmanagement.

Tags sind für folgende Aktivitäten nützlich:
+ Identifizieren und Organisieren Ihrer AWS-Ressourcen. Viele AWS-Ressourcen unterstützen das Markieren mit Tags (kurz: Tagging). Sie können Ressourcen aus verschiedenen Services dasselbe Tag zuweisen, um anzugeben, dass die Ressourcen identisch sind.
+ Kontrollieren Sie den Zugriff auf Ihre -Ressourcen. Sie können Tags mit Amazon Bedrock verwenden, um Richtlinien zur Steuerung des Zugriffs auf Amazon-Bedrock-Ressourcen zu erstellen. Diese Richtlinien können IAM-Rollen oder -Benutzern angefügt werden, um die Tag-basierte Zugriffskontrolle zu aktivieren.
+ Zuordnen von Kosten. Sie aktivieren diese Tags im AWS Fakturierung und Kostenmanagement-Dashboard. AWS verwendet die Tags zur Kategorisierung Ihrer Kosten und zur Bereitstellung eines monatlichen Kostenzuordnungsberichts. Nur mit Inferenz-Tagging nutzbar.

Weitere Informationen zum Markieren von Ressourcen und Inferenzen, z. B. zur Verwendung von API-Tagging-Vorgängen, finden Sie unter [Markieren von Amazon-Bedrock-Ressourcen](tagging.md).

# Voraussetzungen für die Verwendung von Bedrock Data Automation
<a name="bda-limits"></a>

Dateien für BDA müssen bestimmte Anforderungen erfüllen, damit sie verarbeitet werden können. Die folgenden Tabellen zeigen diese Anforderungen für verschiedene Dateitypen.

------
#### [ Async ]

**Anforderungen an asynchrone Dokumentdateien**

Die folgenden Tabellen zeigen die Anforderungen für Dateien, die mit der Invoke Data Automation Async API verarbeitet wurden.


**Anforderungen für Dokumentdateien**  

|  Beschreibung der Anforderung  |  Einzelheiten zur Anforderung  | 
| --- | --- | 
|  (Konsole) Maximale Anzahl von Seiten pro Dokumentdatei  |  20  | 
|  Maximale Anzahl von Seiten pro Dokument, wenn die Aufteilung aktiviert ist  |  3000  | 
|  (Konsole) Maximale Dateigröße (MB)  |  200  | 
|  Maximale Dateigröße (MB)  |  500  | 
|  Unterstützte Dateiformate  |  PDF, TIFF, JPEG, PNG, DOCX  | 
|  Spezifische Limits für PDFs  |  Die maximale Höhe und Breite beträgt 40 Zoll und 9000 Punkte. PDFs kann nicht passwortgeschützt sein. PDFs kann JPEG 2000-formatierte Bilder enthalten.  | 
|  Drehung des Dokuments und Bildgröße  |  BDA unterstützt alle Rotationen von Dokumenten innerhalb einer Ebene, z. B. eine Drehung um 45 Grad in der Ebene. BDA unterstützt Bilder mit einer Auflösung von maximal 10 000 Pixeln auf allen Seiten.  | 
|  Textausrichtung  |   Text kann innerhalb des Dokuments horizontal ausgerichtet sein. Horizontal angeordneter Text kann unabhängig vom Drehungsgrad eines Dokuments gelesen werden. BDA unterstützt keinen vertikalen Text (vertikal geschriebener Text, wie es in Sprachen wie Japanisch und Chinesisch üblich ist) innerhalb des Dokuments.  | 
|  Größe der Zeichen  |  Die Mindesthöhe für die Erkennung von Text beträgt 15 Pixel. Bei 150 DPI entspricht dies einer 8-Punkt-Schrift.  | 
|  Zeichentypen  |  BDA unterstützt sowohl die Erkennung handgeschriebener als auch gedruckter Zeichen.   | 

**Anmerkung**  
Um DOCX-Dateien zu verarbeiten, werden sie konvertiert in. PDFs Das bedeutet, dass die Zuordnung von Seitenzahlen für DOCX-Dateien nicht funktioniert. Bilder der konvertierten Datei PDFs werden in Ihren Ausgabe-Bucket hochgeladen, wenn die Option JSON\$1 und die Seitengranularität ausgewählt sind.

Die Optimierung von Blueprint-Befehlen unterstützt alle oben genannten Grenzwerte für Dokumente mit den folgenden Unterschieden:
+ Insgesamt 10 Beispiele für Dokument-Assets
+ 20 Seiten pro Beispiel für Dokument-Assets auf Konsole und API
+ 200 MB für das gesamte Dokument-Asset (Beispiel)
+ Nur PDF-, DOCX- und TIFF-Dokumentdateiformate

------
#### [ Sync ]

**Anforderungen an die Synchronisation von Dokumentdateien**

Die folgenden Tabellen zeigen die Anforderungen für Dateien, die mit der Invoke Data Automation API verarbeitet wurden.


**Anforderungen für Dokumentdateien**  

|  Beschreibung der Anforderung  |  Einzelheiten zur Anforderung  | 
| --- | --- | 
|  (Konsole) Maximale Anzahl von Seiten pro Dokumentdatei  |  10  | 
|  Maximale Anzahl von Seiten pro Dokumentdatei (Splitter ist nicht verfügbar)  |  10  | 
|  (Konsole) Maximale Dateigröße (MB)  |  50  | 
|  Maximale Dateigröße (MB)  |  50  | 
|  Unterstützte Dateiformate  |  PDF, TIFF, JPEG, PNG  | 
|  Spezifische Limits für PDFs  |  Die maximale Höhe und Breite beträgt 40 Zoll und 9000 Punkte. PDFs kann nicht passwortgeschützt sein. PDFs kann JPEG 2000-formatierte Bilder enthalten.  | 
|  Drehung des Dokuments und Bildgröße  |  BDA unterstützt alle Rotationen von Dokumenten innerhalb einer Ebene, z. B. eine Drehung um 45 Grad in der Ebene. BDA unterstützt Bilder mit einer Auflösung von maximal 10 000 Pixeln auf allen Seiten.  | 
|  Textausrichtung  |   Text kann innerhalb des Dokuments horizontal ausgerichtet sein. Horizontal angeordneter Text kann unabhängig vom Drehungsgrad eines Dokuments gelesen werden. BDA unterstützt keinen vertikalen Text (vertikal geschriebener Text, wie es in Sprachen wie Japanisch und Chinesisch üblich ist) innerhalb des Dokuments.  | 
|  Größe der Zeichen  |  Die Mindesthöhe für die Erkennung von Text beträgt 15 Pixel. Bei 150 DPI entspricht dies einer 8-Punkt-Schrift.  | 
|  Zeichentypen  |  BDA unterstützt sowohl die Erkennung handgeschriebener als auch gedruckter Zeichen.   | 

**Anmerkung**  
Die Bilduntertitelung funktioniert bei 20 Bildern pro 10-seitigem Dokument (synchron) und bei 20 Bildern pro Seite (asynchron).

**Tipp**  
Tipps zur Beschleunigung der Sync-API-Verarbeitung:  
Deaktivieren Sie Generative Felder, sofern dies nicht unbedingt erforderlich ist.
Wählen Sie nur die Granularität und das Ausgabetextformat aus, die Sie benötigen (anstatt mehrere auszuwählen).
Vereinfachen Sie Ihren Blueprint, um die Anzahl der extrahierten Felder so weit wie möglich zu reduzieren.
Reduzieren Sie nach Möglichkeit die Anzahl der Tabellen- und Listenfelder in Ihrem Blueprint.

------


**Blueprint-Anforderungen**  

|  Beschreibung der Anforderung  |  Einzelheiten zur Anforderung  | 
| --- | --- | 
|  Maximale Anzahl von Blueprints pro Projekt  |  40  | 
|  Maximale Anzahl von Projekten pro Konto  |  100  | 
|  Maximale Anzahl von Blueprints pro Konto  |  1000  | 
|  Maximale Anzahl von Blueprint-Versionen  |  100  | 
|  Maximale Anzahl von Blueprint-Blattfeldern  |  100  | 
|  Maximale Anzahl von Blattfeldern in der Blueprint-Liste  |  30  | 
|  Maximale Länge des Blueprint-Namens  |  60 Zeichen  | 
|  Maximale Länge der Blueprint-Feldbeschreibung  |  600 Zeichen (Dokument), 500 Zeichen () image/video/audio  | 
|  Maximale Länge des Blueprint-Feldnamens  |  60 Zeichen  | 
|  Maximale Blueprint-Größe  |  100.000 Zeichen (JSON-formatiert)  | 


**Anforderungen an Bilddateien**  

|  Beschreibung der Anforderung  |  Einzelheiten zur Anforderung  | 
| --- | --- | 
|  Maximale Dateigröße (MB)  |  5  | 
|  Maximale Auflösung  |  8 k  | 
|  Unterstützte Dateiformate  |  JPEG, PNG  | 


**Anforderungen an Videodateien**  

|  Beschreibung der Anforderung  |  Einzelheiten zur Anforderung  | 
| --- | --- | 
|  Maximale Dateigröße (MB)  |  10240  | 
|  Maximale Videolänge (Minuten)  |  240  | 
|  Unterstützte Dateiformate  |  MP4, MOV-, AVI-, MKV- oder WEBM-Containerformate mit den visuellen Videocodecs H.264, H.265/HEVC,,, VP8 oder MPEG-4 VP9 AV1  | 
|  Maximale Anzahl von Videovorlagen pro Projekt  |  1  | 
|  Maximale Anzahl von Videovorlagen pro „Inferenz starten“-Anfrage  |  1  | 
|  Minimale Auflösung  |  224  | 
|  Maximale Auflösung  |  7680  | 
|  Minimale Framerate (Frames pro Sekunde)  |  1  | 
|  Maximale Framerate (Frames pro Sekunde)  |  60  | 


**Anforderungen an Audiodateien**  

|  Beschreibung der Anforderung  |  Einzelheiten zur Anforderung  | 
| --- | --- | 
|  Unterstützte Eingabesprachen  |  Englisch, Deutschland, Spanisch, Französisch, Italienisch, Portugiesisch, Japanisch, Koreanisch, Chinesisch, Taiwanesisch und Kantonesisch. *\$1Alle Gebietsschemas der oben genannten Sprachen werden unterstützt.*  | 
|  Unterstützte Ausgabesprachen  |  Englisch oder die dominierende Sprache des Audios.  | 
|  Minimale Audio-Abtastrate (Hz)  |  8000  | 
|  Maximale Audio-Abtastrate (Hz)  |  48000  | 
|  Maximale Dateigröße (MB)  |  2048  | 
|  Maximale Audiolänge (Minuten)  |  240  | 
|  Minimale Audiolänge (Millisekunden)  |  500  | 
|  Unterstützte Dateiformate  |  AMR, FLAC, M4A, OGG, WAV MP3  | 
|  Maximale Audiovorlagen pro Projekt  |  1  | 
|  Maximale Anzahl von Audiovorlagen pro „Inferenz starten“-Anfrage  |  1  | 
|  Maximale Audiokanäle für Audiodateien  |  2  | 

# Verwenden von Amazon Bedrock Data Automation CLI
<a name="bda-cli-guide"></a>

Die Amazon Bedrock Datenautomatisierungsfunktion (BDA) bietet einen optimierten CLI-Workflow für die Verarbeitung Ihrer Daten. Für alle Modalitäten besteht dieser Workflow aus drei Hauptschritten: Erstellen eines Projekts, Erstellen von Vorlagen für benutzerdefinierte Ausgaben und Verarbeiten von Dokumenten. Diese Anleitung führt Sie durch die wichtigsten CLI-Befehle für das Arbeiten mit BDA. 

## Erstellen Ihres ersten Data-Automation-Projekts
<a name="create-data-automation-project-cli"></a>

Um mit der Arbeit mit BDA zu beginnen, erstellen Sie zunächst ein Projekt mit dem `create-data-automation-project`-Befehl.

Betrachten Sie diesen Beispielausweis, den wir verarbeiten werden:

![\[alt text not found\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/bda/passport2.png)


Wenn Sie ein Projekt erstellen, müssen Sie Ihre Konfigurationseinstellungen für den Dateityp definieren, den Sie verarbeiten möchten. Der folgende Befehl stellt ein kurzes funktionierendes Beispiel für die Erstellung eines Bildverarbeitungsprojekts dar:

```
aws bedrock-data-automation create-data-automation-project \
    --project-name "ImageProcessingProject" \
    --standard-output-configuration '{
        "image": {
            "extraction": {
                "category": {
                    "state": "ENABLED",
                    "types": ["TEXT_DETECTION"]
                },
                "boundingBox": {
                    "state": "ENABLED"
                }
            },
            "generativeField": {
                "state": "ENABLED"
            }
        }
    }'
```

Der Befehl validiert die Eingabekonfiguration und erstellt ein neues Projekt mit einem eindeutigen ARN. Eine Antwort würde den ARN und die Phase des Projekts beinhalten:

```
{
    "projectArn": "Amazon Resource Name (ARN)",
    "projectStage": "DEVELOPMENT",
    "status": "IN_PROGRESS"
}
```

Wenn ein Projekt ohne Parameter erstellt wird, gelten die Standardeinstellungen. Bei der Verarbeitung von Bildern sind beispielsweise die Bildzusammenfassung und die Texterkennung standardmäßig aktiviert.

## Vollständige Parameterreferenz
<a name="create-project-parameters"></a>

In der folgenden Tabelle werden alle verfügbaren Parameter für den `create-data-automation-project`-Befehl aufgeführt:


**Parameter für create-data-automation-project**  

| Parameter | Erforderlich | Standard | Description | 
| --- | --- | --- | --- | 
| --project-name | Ja | – | Name für das Data-Automation-Projekt | 
| --project-type | Nein | Der Typ des Projekts definiert, mit welcher Runtime-Verarbeitungs-API es verwendet werden kann. ASYNCProjekte dürfen nur mit der invoke-bedrock-data-automation-async API verwendet werden, wohingegen SYNC Projekte nur mit der invoke-bedrock-data-automation API verwendet werden dürfen. | 
| --project-stage | Nein | LIVE | Phase des Projekts (DEVELOPMENT oder LIVE) | 
| --standard-output-configuration | Ja | – | JSON-Konfiguration für die Verarbeitung mit Standardausgabe | 
| --custom-output-configuration | Nein | – | JSON-Konfiguration für die Verarbeitung mit benutzerdefinierter Ausgabe | 
| --encryption-configuration | Nein | – | Verschlüsselungseinstellungen für das Projekt | 
| --client-token | Nein | Automatisch generiert | Eindeutiger Bezeichner für die Anforderungsidempotenz | 

## Erstellen einer Vorlage
<a name="create-blueprint-cli"></a>

Nachdem Sie ein Projekt erstellt haben, können Sie mithilfe des Befehls `create-blueprint` eine Vorlage erstellen, um die Struktur Ihrer Datenverarbeitung zu definieren.

Hier ist ein funktionierendes kleines Beispiel für die Erstellung einer Vorlage für die Verarbeitung von Ausweisen:

```
aws bedrock-data-automation create-blueprint \
    --blueprint-name "passport-blueprint" \
    --type "IMAGE" \
    --blueprint-stage "DEVELOPMENT" \
    --schema '{
        "class": "Passport",
        "description": "Blueprint for processing passport images",
        "properties": {
            "passport_number": {
                "type": "string",
                "inferenceType": "explicit",
                "instruction": "The passport identification number"
            },
            "full_name": {
                "type": "string",
                "inferenceType": "explicit",
                "instruction": "The full name of the passport holder"
            }
        }
    }'
```

Der Befehl erstellt eine neue Vorlage mit dem angegebenen Schema. Sie können diese Vorlage dann bei der Verarbeitung von Dokumenten verwenden, um strukturierte Daten gemäß Ihrem definierten Schema zu extrahieren.

## Verwenden der Vorlage
<a name="using-blueprint-cli"></a>

### Hinzufügen einer Vorlage zu einem Projekt
<a name="adding-blueprint-to-project"></a>

Verwenden Sie den `update-data-automation-project`-Befehl, um Ihrem Projekt eine Vorlage hinzuzufügen:

```
aws bedrock-data-automation update-data-automation-project \
    --project-arn "Amazon Resource Name (ARN)" \
    --standard-output-configuration '{
        "image": {
            "extraction": {
                "category": {
                    "state": "ENABLED",
                    "types": ["TEXT_DETECTION"]
                },
                "boundingBox": {
                    "state": "ENABLED"
                }
            },
            "generativeField": {
                "state": "ENABLED",
                "types": ["IMAGE_SUMMARY"]
            }
        }
    }' \
    --custom-output-configuration '{
        "blueprints": [
            {
                "blueprintArn": "Amazon Resource Name (ARN)",
                "blueprintVersion": "1",
                "blueprintStage": "LIVE"
            }
        ]
    }'
```

### Verifizierung der Integration von Vorlagen
<a name="verifying-blueprint-integration"></a>

Sie können die Integration von Vorlagen mit dem `get-data-automation-project`-Befehl überprüfen:

```
aws bedrock-data-automation get-data-automation-project \
    --project-arn "Amazon Resource Name (ARN)"
```

### Verwalten mehrerer Vorlagen
<a name="managing-multiple-blueprints"></a>

Verwenden Sie den `list-blueprints`-Befehl, um alle Ihre Vorlagen anzusehen:

```
aws bedrock-data-automation list-blueprints
```

## Dokumente asynchron verarbeiten
<a name="invoke-data-automation-cli"></a>

Bevor Sie Dokumente mit BDA verarbeiten können, müssen Sie Ihre Dokumente zunächst in einen S3-Bucket hochladen. Sobald Sie ein Projekt eingerichtet haben, können Sie Dokumente mit dem folgenden Befehl verarbeiten: `invoke-data-automation-async`

```
aws bedrock-data-automation-runtime invoke-data-automation-async \
    --input-configuration '{
        "s3Uri": "s3://my-bda-documents/invoices/invoice-123.pdf"
    }' \
    --output-configuration '{
        "s3Uri": "s3://my-bda-documents/output/"
    }' \
    --data-automation-configuration '{
        "dataAutomationProjectArn": "Amazon Resource Name (ARN)",
        "stage": "LIVE"
    }' \
    --data-automation-profile-arn "Amazon Resource Name (ARN)"
```

Der Befehl gibt einen Aufruf-ARN zurück, mit dem Sie den Verarbeitungsstatus überprüfen können:

```
{
    "invocationArn": "Amazon Resource Name (ARN)"
}
```

## Prüfen des Bearbeitungsstatus
<a name="get-data-automation-status-cli"></a>

Verwenden Sie den `get-data-automation-status`-Befehl, um den Status des Verarbeitungsauftrags zu überprüfen.

```
aws bedrock-data-automation-runtime get-data-automation-status \
    --invocation-arn "Amazon Resource Name (ARN)"
```

Der Befehl gibt den aktuellen Status des Verarbeitungsauftrags zurück:

```
{
    "status": "COMPLETED",
    "creationTime": "2025-07-09T12:34:56.789Z",
    "lastModifiedTime": "2025-07-09T12:45:12.345Z",
    "outputLocation": "s3://my-bda-documents/output/efgh5678/"
}
```

Mögliche Statuswerte:
+ `IN_PROGRESS`: Der Verarbeitungsauftrag wird derzeit ausgeführt.
+ `COMPLETED`: Der Verarbeitungsauftrag wurde erfolgreich abgeschlossen.
+ `FAILED`: Der Verarbeitungsauftrag ist fehlgeschlagen. Überprüfen Sie die Antwort auf Fehlerdetails.
+ `STOPPED`: Der Verarbeitungsauftrag wurde manuell beendet.

## Abrufen der Ergebnisse
<a name="retrieve-results-cli"></a>

Sobald die Verarbeitung abgeschlossen ist, können Sie die Ausgabedateien in Ihrem S3-Bucket auflisten:

```
aws s3 ls s3://my-bda-documents/output/efgh5678/
```

So laden Sie die Ergebnisse auf Ihren lokalen Computer herunter:

```
aws s3 cp s3://my-bda-documents/output/efgh5678/ ~/Downloads/bda-results/ --recursive
```

Die Ausgabe umfasst strukturierte Daten, die auf Ihrer Projektkonfiguration und allen von Ihnen angewendeten Vorlagen basieren.

## Dokumente synchron verarbeiten
<a name="process-docs-sync"></a>

Bevor Sie Dokumente mit BDA verarbeiten können, müssen Sie Ihre Dokumente zunächst in einen S3-Bucket hochladen. Die Sync-API unterstützt sowohl Eingaben über S3-Bucket als auch Bildbytes (d. h. die Verarbeitung von Dokumenten ohne S3). Der Befehl gibt strukturierte Daten zurück, die auf Ihrer Projektkonfiguration und allen Blueprints basieren, die Sie angewendet haben:

```
aws bedrock-data-automation-runtime invoke-data-automation \
    --input-configuration '{
        "s3Uri": "s3://my-bda-documents/invoices/invoice-123.pdf"
    }' \
    --data-automation-configuration '{
        "dataAutomationProjectArn": "Amazon Resource Name (ARN)",
        "stage": "LIVE"
    }' \
    --data-automation-profile-arn "Amazon Resource Name (ARN)"
```

## Bilder synchron verarbeiten
<a name="process-images-sync"></a>

Der Befehl gibt strukturierte Daten zurück, die auf Ihrer Projektkonfiguration und allen Blueprints basieren, die Sie angewendet haben:

```
aws bedrock-data-automation-runtime invoke-data-automation \
    --input-configuration '{
        "s3Uri": "s3://my-bda-documents/invoices/advertisement_latest.jpeg"
    }' \
    --data-automation-configuration '{
        "dataAutomationProjectArn": "Amazon Resource Name (ARN)",
        "stage": "LIVE"
    }' \
    --data-automation-profile-arn "Amazon Resource Name (ARN)"
```

# CLI für Vorlagen-Operationen
<a name="bda-blueprint-operations"></a>

Dieses Handbuch behandelt Blueprint-Operationen, die über die AWS-Befehlszeilenschnittstelle (CLI) for Amazon Bedrock Data Automation (BDA) verfügbar sind.

## Erstellen von Vorlagen
<a name="create-blueprints-cli"></a>

Vorlagen definieren die Struktur und Eigenschaften von Daten, die Sie aus Ihren Dokumenten, Bildern, Audio- oder Videodateien extrahieren möchten. Verwenden Sie den Befehl create-blueprint, um eine neue Vorlage zu erstellen.

Mit dem folgenden Befehl wird eine neue Vorlage erstellt, der dazu dient, Daten aus einem Passbild zu extrahieren.

**Syntax**

```
aws bedrock-data-automation create-blueprint \
      --blueprint-name "passport-blueprint" \
      --type "IMAGE" \
      --blueprint-stage "DEVELOPMENT" \
      --schema '{
        "class": "Passport",
        "description": "Blueprint for processing passport images",
        "properties": {
          "passport_number": {
            "type": "string",
            "inferenceType": "explicit",
            "instruction": "The passport identification number"
          },
          "full_name": {
            "type": "string",
            "inferenceType": "explicit",
            "instruction": "The full name of the passport holder"
          },
          "expiration_date": {
            "type": "string",
            "inferenceType": "explicit",
            "instruction": "The passport expiration date"
          }
        }
      }'
```

## Vollständige Parameterreferenz
<a name="create-blueprint-parameters"></a>

Die folgende Tabelle enthält alle Parameter, die für den `create-blueprint`-Befehl verfügbar sind:


**Parameter für create-blueprint**  

| Parameter | Erforderlich | Standard | Description | 
| --- | --- | --- | --- | 
| --blueprint-name | Ja | – | Vorlagen-Name | 
| --type | Ja | – | Art des Inhalts (BILD, DOKUMENT, AUDIO, VIDEO) | 
| --blueprint-stage | Nein | LIVE | Vorlagen-Phase (ENTWICKLUNG oder LIVE) | 
| --schema | Ja | – | JSON-Schema, das die Vorlagen-Struktur definiert | 
| --client-token | Nein | Automatisch generiert | Eindeutiger Bezeichner für die Anforderungsidempotenz | 

## Anzeigen von Vorlagen-Konfigurationen
<a name="view-blueprint-cli"></a>

**Alle Vorlagen auflisten**

Verwenden Sie den Befehl list-blueprints, um eine Liste aller Vorlagen abzurufen, die mit Ihrem Konto verknüpft sind.

**Syntax**

```
aws bedrock-data-automation list-blueprints
```

**Vorlagen-Details anzeigen**

Verwenden Sie zum Anzeigen detaillierter Informationen über eine bestimmte Vorlage, einschließlich seines Schemas und seiner Konfiguration, den Befehl get-blueprint.

**Syntax**

```
aws bedrock-data-automation get-blueprint \
      --blueprint-arn "Amazon Resource Name (ARN)"
```

**Spezifische Version untersuchen**

Wenn Sie mit versionierten Vorlagen arbeiten, verwenden Sie den Befehl get-blueprint mit der Option --blueprint-version, um eine bestimmte Version anzuzeigen.

**Syntax**

```
      aws bedrock-data-automation get-blueprint \
      --blueprint-arn "Amazon Resource Name (ARN)" \
      --blueprint-version "version-number"
```

**Spezifische Phase untersuchen**

Zum Anzeigen von Vorlagen entweder in der ENTWICKLUNGS- oder der LIVE-Phase verwenden Sie:

```
      aws bedrock-data-automation get-blueprint \
      --blueprint-arn "Amazon Resource Name (ARN)" \
      --blueprint-stage "LIVE"
```

## Bearbeiten von Vorlagen-Spezifikationen
<a name="edit-blueprint-cli"></a>

**Vorlagen-Einstellungen aktualisieren**

Verwenden Sie den Befehl update-blueprint, um das Schema oder die Eigenschaften eines vorhandenen Vorlagen zu ändern.

**Syntax**

```
aws bedrock-data-automation update-blueprint \
      --blueprint-arn "Amazon Resource Name (ARN)" \
      --schema '{
        "class": "Passport",
        "description": "Updated blueprint for processing passport images",
        "properties": {
          "passport_number": {
            "type": "string",
            "inferenceType": "explicit",
            "instruction": "The passport identification number"
          },
          "full_name": {
            "type": "string",
            "inferenceType": "explicit",
            "instruction": "The full name of the passport holder"
          },
          "expiration_date": {
            "type": "string",
            "inferenceType": "explicit",
            "instruction": "The passport expiration date"
          }
        }
      }'
```

**Hinweis:** Wenn Sie eine Vorlage aktualisieren, müssen Sie das vollständige Schema angeben, auch für Felder, die Sie nicht ändern.

**Zu Live hochstufen**

Verwenden Sie den Befehl update-blueprint mit der Option --blueprint-stage, um eine Vorlage aus der Phase ENTWICKLUNG in die Phase LIVE hochzustufen.

**Syntax**

```
aws bedrock-data-automation update-blueprint \
      --blueprint-arn "Amazon Resource Name (ARN)" \
      --blueprint-stage "LIVE"
```

**Versionsverwaltung von Vorlagen**

Erstellen Sie eine neue Version Ihres Blueprints, um den aktuellen Status beizubehalten, bevor Sie mit dem create-blueprint-version Befehl wesentliche Änderungen vornehmen.

**Syntax**

```
aws bedrock-data-automation create-blueprint-version \
      --blueprint-arn "Amazon Resource Name (ARN)"
```

## Verwalten von Vorlagen-Tags
<a name="tag-management-cli"></a>

Mithilfe von Tags können Benutzer Vorlagen organisieren und kategorisieren und so die Verwaltung vereinfachen.

**Tags hinzufügen**

Wenden Sie Metadaten auf Ihre Vorlage an, indem Sie Tags hinzufügen.

**Syntax**

```
aws bedrock-data-automation tag-resource \
      --resource-arn "Amazon Resource Name (ARN)" \
      --tags '{"Department":"Finance","Project":"PassportProcessing"}'
```

**Tags entfernen**

Entfernen Sie mit dem Befehl untag-resource bestimmte Tags aus Ihrer Vorlage.

**Syntax**

```
aws bedrock-data-automation untag-resource \
      --resource-arn "Amazon Resource Name (ARN)" \
      --tag-keys '["Department","Project"]'
```

**Tags anzeigen**

Führen Sie mithilfe des Befehls alle mit Ihrem Blueprint verknüpften Tags auf list-tags-for-resource.

**Syntax**

```
aws bedrock-data-automation list-tags-for-resource \
      --resource-arn "Amazon Resource Name (ARN)"
```

## Löschen von Vorlagen
<a name="delete-blueprint-cli"></a>

**Gesamte Vorlage löschen**

Verwenden Sie den Befehl delete-blueprint, um eine Vorlage und alle ihre Versionen dauerhaft zu entfernen.

**Syntax**

```
aws bedrock-data-automation delete-blueprint \
          --blueprint-arn "Amazon Resource Name (ARN)"
```

**Achtung:** Dieser Befehl löscht eine Vorlage dauerhaft und kann sie nicht wiederherstellen.

**Wichtig:** Sie können keine Vorlage verwenden, die aktuell von einem Projekt verwendet wird. Stellen Sie vor dem Löschen sicher, dass auf die Vorlage nicht in der benutzerdefinierten Ausgabekonfiguration eines Projekts verwiesen wird.

## Blueprint-Optimierung
<a name="blueprint-optimization-cli"></a>

### Blueprint-Optimierung aufrufen
<a name="invoking-blueprint-optimization"></a>

Starten Sie einen asynchronen Blueprint-Optimierungsjob, um die Blueprint-Anweisungen für jedes Ihrer Blueprint-Felder und die Ergebnisgenauigkeit zu verbessern.

**Syntax**

```
aws bedrock-data-automation invoke-blueprint-optimization-async \
    --blueprint blueprintArn="arn:aws:bedrock:<region>:<account_id>:blueprint/<blueprint_id>",stage="DEVELOPMENT" \
    --samples '[
        {
            "assetS3Object": {
                "s3Uri": "s3://my-optimization-bucket/samples/document1.pdf"
            },
            "groundTruthS3Object": {
                "s3Uri": "s3://my-optimization-bucket/ground-truth/document1-expected.json"
            }
        }
    ]' \
    --output-configuration s3Object='{s3Uri="s3://my-optimization-bucket/results/optimization-output"}' \
    --data-automation-profile-arn "Amazon Resource Name (ARN):data-automation-profile/default"
```

### Überprüfen Sie den Status der Blueprint-Optimierung
<a name="checking-blueprint-optimization-status"></a>

Überwachen Sie den Fortschritt und die Ergebnisse eines Blueprint-Optimierungsjobs.

**Syntax**

```
aws bedrock-data-automation get-blueprint-optimization-status \
    --invocation-arn "arn:aws:bedrock:<region>:<account_id>:blueprint-optimization-invocation/opt-12345abcdef"
```

Verwenden Sie diesen Befehl, um den Status des Optimierungsauftrags zu verfolgen. Die Antwort enthält den aktuellen Status (Erstellt InProgress, Erfolgreich ServiceError, oder ClientError) und nach Abschluss Details zur Ausgabekonfiguration.

### Blueprint-Stufen werden kopiert
<a name="copying-blueprint-stages"></a>

Kopieren Sie einen Blueprint von einer Phase in eine andere

**Syntax**

```
aws bedrock-data-automation copy-blueprint-stage \
    --blueprint-arn "arn:aws:bedrock:<region>:<account_id>:blueprint/<blueprint_id>" \
    --source-stage "DEVELOPMENT" \
    --target-stage "LIVE"
```

**Vorsicht:** Mit diesem Befehl wird die gesamte Blueprint-Konfiguration von der Quellphase in die Zielphase kopiert, wobei alle vorhandenen Konfigurationen in der Zielphase überschrieben werden.

**Wichtig:** Stellen Sie sicher, dass der Blueprint in der Quellphase gründlich getestet wird, bevor Sie ihn in die Produktionsphase (LIVE) kopieren. Dieser Vorgang kann nur schwer rückgängig gemacht werden.

# Verarbeitung über die CLI
<a name="bda-document-processing-cli"></a>

Damit Sie Dokumente mit BDA verarbeiten können, müssen Sie sie zunächst in einen S3-Bucket hochladen:

**Syntax**

```
aws s3 cp <source> <target> [--options]
```

Beispiel:

```
aws s3 cp /local/path/document.pdf s3://my-bda-bucket/input/document.pdf
```

------
#### [ Async ]

**Grundlegende Struktur der Verarbeitungsbefehle**

Verwenden Sie den `invoke-data-automation-async`-Befehl, um Dateien zu verarbeiten:

```
aws bedrock-data-automation-runtime invoke-data-automation-async \
        --input-configuration '{
            "s3Uri": "s3://amzn-s3-demo-bucket/sample-images/sample-image.jpg"
        }' \
        --output-configuration '{
            "s3Uri": "s3://amzn-s3-demo-bucket/output/"
        }' \
        --data-automation-configuration '{
            "dataAutomationProjectArn": "Amazon Resource Name (ARN)",
            "stage": "LIVE"
        }' \
        --data-automation-profile-arn "Amazon Resource Name (ARN)"
```

**Erweiterte Befehlsstruktur für die Verarbeitung**

**Videoverarbeitung mit Zeitsegmenten**

Für Videodateien können Sie Zeitsegmente angeben, die verarbeitet werden sollen:

```
aws bedrock-data-automation-runtime invoke-data-automation-async \
        --input-configuration '{
            "s3Uri": "s3://my-bucket/video.mp4",
            "assetProcessingConfiguration": {
                "video": {
                    "segmentConfiguration": {
                        "timestampSegment": {
                            "startTimeMillis": 0,
                            "endTimeMillis": 300000
                        }
                    }
                }
            }
        }' \
        --output-configuration '{
            "s3Uri": "s3://my-bucket/output/"
        }' \
        --data-automation-configuration '{
            "dataAutomationProjectArn": "Amazon Resource Name (ARN)",
            "stage": "LIVE"
        }' \
        --data-automation-profile-arn "Amazon Resource Name (ARN)"
```

**Verwenden von benutzerdefinierten Vorlagen**

Sie können benutzerdefinierte Vorlagen direkt im Befehl angeben:

```
aws bedrock-data-automation-runtime invoke-data-automation-async \
        --input-configuration '{
            "s3Uri": "s3://my-bucket/document.pdf"
        }' \
        --output-configuration '{
            "s3Uri": "s3://my-bucket/output/"
        }' \
        --blueprints '[
            {
                "blueprintArn": "Amazon Resource Name (ARN)",
                "version": "1",
                "stage": "LIVE"
            }
        ]' \
        --data-automation-profile-arn "Amazon Resource Name (ARN)"
```

**Hinzufügen einer Verschlüsselungskonfiguration**

Für mehr Sicherheit können Sie eine Verschlüsselungskonfiguration hinzufügen:

```
aws bedrock-data-automation-runtime invoke-data-automation-async \
        --input-configuration '{
            "s3Uri": "s3://my-bucket/document.pdf"
        }' \
        --output-configuration '{
            "s3Uri": "s3://my-bucket/output/"
        }' \
        --data-automation-configuration '{
            "dataAutomationProjectArn": "Amazon Resource Name (ARN)",
            "stage": "LIVE"
        }' \
        --encryption-configuration '{
            "kmsKeyId": "Amazon Resource Name (ARN)",
            "kmsEncryptionContext": {
                "Department": "Finance",
                "Project": "DocumentProcessing"
            }
        }' \
        --data-automation-profile-arn "Amazon Resource Name (ARN)"
```

**Ereignis-Benachrichtigungen**

 EventBridge Benachrichtigungen für den Abschluss der Verarbeitung aktivieren:

```
aws bedrock-data-automation-runtime invoke-data-automation-async \
        --input-configuration '{
            "s3Uri": "s3://my-bucket/document.pdf"
        }' \
        --output-configuration '{
            "s3Uri": "s3://my-bucket/output/"
        }' \
        --data-automation-configuration '{
            "dataAutomationProjectArn": "Amazon Resource Name (ARN)",
            "stage": "LIVE"
        }' \
        --notification-configuration '{
            "eventBridgeConfiguration": {
                "eventBridgeEnabled": true
            }
        }' \
        --data-automation-profile-arn "Amazon Resource Name (ARN)"
```

**Der Verarbeitungsstatus wird überprüft**

Verwenden Sie den `get-data-automation-status`-Befehl, um den Status des Verarbeitungsauftrags zu überprüfen:

```
aws bedrock-data-automation-runtime get-data-automation-status \
        --invocation-arn "Amazon Resource Name (ARN)"
```

Die Antwort enthält den aktuellen Status:

```
{
        "status": "COMPLETED",
        "creationTime": "2025-07-24T12:34:56.789Z",
        "lastModifiedTime": "2025-07-24T12:45:12.345Z",
        "outputLocation": "s3://my-bucket/output/abcd1234/"
        }
```

**Verarbeitungsergebnisse abrufen**

**Suchen nach Ausgabedateien in S3**

Auflisten der Ausgabedateien in Ihrem S3-Bucket:

```
aws s3 ls s3://amzn-s3-demo-bucket/output/
```

Laden Sie die Ergebnisse auf Ihren lokalen Computer herunter:

```
aws s3 cp s3://amzn-s3-demo-bucket/output/ ~/Downloads/bda-results/ --recursive
```

**Grundlagen zur Ausgabestruktur**

Die Ausgabe umfasst in der Regel Folgendes:
+ `standard-output.json`: Enthält die Standardextraktionsergebnisse
+ `custom-output.json`: Enthält Ergebnisse aus benutzerdefinierten Vorlagen
+ `metadata.json`: Enthält Verarbeitungsmetadaten und Konfidenzwerte

**Allgemeine Antwortfelder**

Die Standardausgabe umfasst in der Regel Folgendes:
+ `extractedData`: Die wichtigsten extrahierten Informationen
+ `confidence`: Konfidenzwerte für jedes extrahierte Feld
+ `metadata`: Verarbeitungsinformationen wie Zeitstempel und Modelldetails
+ `boundingBoxes`: Positionsinformationen für erkannte Elemente (falls aktiviert)

**Fehlerbehandlung und Problembehandlung**

Häufige Fehlerszenarien und Lösungen:
+ **Ungültiger S3-URI**: Stellen Sie sicher, dass Ihr S3-Bucket existiert und Sie über die entsprechenden Berechtigungen verfügen.
+ **Fehlt data-automation-profile-arn**: Dieser Parameter ist für alle Verarbeitungsanfragen erforderlich
+ **Projekt nicht gefunden**: Stellen Sie sicher, dass Ihr Projekt-ARN korrekt ist und das Projekt existiert.
+ **Nicht unterstütztes Dateiformat**: Stellen Sie sicher, dass Ihr Dateiformat von BDA unterstützt wird.

**Hinzufügen von Tags zu Verarbeitungsaufträgen**

Sie können Tags hinzufügen, um Ihre Verarbeitungsaufträge zu organisieren und zu verfolgen:

```
aws bedrock-data-automation-runtime invoke-data-automation-async \
        --input-configuration '{
            "s3Uri": "s3://my-bucket/document.pdf"
        }' \
        --output-configuration '{
            "s3Uri": "s3://my-bucket/output/"
        }' \
        --data-automation-configuration '{
            "dataAutomationProjectArn": "Amazon Resource Name (ARN)",
            "stage": "LIVE"
        }' \
        --tags '[
            {
                "key": "Department",
                "value": "Finance"
            },
            {
                "key": "Project",
                "value": "InvoiceProcessing"
            }
        ]' \
        --data-automation-profile-arn "Amazon Resource Name (ARN)"
```

------
#### [ Sync ]

**Grundlegende Struktur der Verarbeitungsbefehle**

Verwenden Sie den `invoke-data-automation`-Befehl, um Dateien zu verarbeiten:

```
        aws bedrock-data-automation-runtime invoke-data-automation \
        --input-configuration '{
            "s3Uri": "s3://amzn-s3-demo-bucket/sample-images/sample-image.jpg"
        }' \
        --data-automation-configuration '{
            "dataAutomationProjectArn": "Amazon Resource Name (ARN)",
            "stage": "LIVE"
        }' \
        --data-automation-profile-arn "Amazon Resource Name (ARN)"
        --region "aws-region"
```

**Erweiterte Befehlsstruktur für die Verarbeitung**

Ausgabe in den S3-Bucket

```
        aws bedrock-data-automation-runtime invoke-data-automation \
        --input-configuration '{
            "s3Uri": "s3://amzn-s3-demo-bucket/sample-images/sample-image.jpg"
        }' \
        --output-configuration '{"s3Uri": "s3://amzn-s3-demo-bucket/output/" }' \
        --data-automation-configuration '{
            "dataAutomationProjectArn": "Amazon Resource Name (ARN)",
            "stage": "LIVE"
        }' \
        --data-automation-profile-arn "Amazon Resource Name (ARN)"
        --region "aws-region"   //document only
```

Verwenden Sie die Byte-Eingabe

```
        aws bedrock-data-automation-runtime invoke-data-automation \
        --input-configuration '{
            "bytes": #blob input
        }' \
        --output-configuration '{"s3Uri": "s3://amzn-s3-demo-bucket/output/" }' \
        --data-automation-configuration '{
            "dataAutomationProjectArn": "Amazon Resource Name (ARN)",
            "stage": "LIVE"
        }' \
        --data-automation-profile-arn "Amazon Resource Name (ARN)"
        --region "aws-region"
```

**Anmerkung**  
**Bytes**  
Ein Blob von Base64-codierten Dokument-Bytes. Die maximale Größe eines Dokuments, das in einem Byte-Blob bereitgestellt wird, beträgt 50 MB. Der Typ sollte ein Base64-kodiertes binäres Datenobjekt sein.

**Verwenden Sie benutzerdefinierte Blueprints (nur für Bilder)**

```
        aws bedrock-data-automation-runtime invoke-data-automation \
        --input-configuration '{
            "s3Uri": "s3://amzn-s3-demo-bucket/sample-images/sample-image.jpg"
        }' \
        --blueprints '[{"blueprintArn": "Amazon Resource Name (ARN)", "version": "1", "stage": "LIVE" } ]' \
        --data-automation-profile-arn "Amazon Resource Name (ARN)"
        --region "aws-region"
```

------

# Verarbeiten von Anwendungsfällen
<a name="bda-document-processing-examples"></a>

Mit Amazon Bedrock Data Automation können Sie Dokumente, Bilder, Audio und Video über die Befehlszeilenschnittstelle (CLI) verarbeiten. Für alle Modalitäten besteht dieser Workflow aus dem Erstellen eines Projekts, Aufrufen der Analyse und Abrufen der Ergebnisse.

Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und führen Sie dann die folgenden Schritte aus:

------
#### [ Documents ]

**Extrahieren von Daten aus einem W2-Formular**

![\[W2-Beispielformular mit Standardfeldern zur Veranschaulichung des Layouts und der Datenfelder, die extrahiert werden.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/bda/W2.png)


Dies ist ein Beispielschema für die Verarbeitung eines W2-Formulars:

```
{
  "class": "W2TaxForm",
  "description": "Simple schema for extracting key information from W2 tax forms",
  "properties": {
    "employerName": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "The employer's company name"
    },
    "employeeSSN": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "The employee's Social Security Number (SSN)"
    },
    "employeeName": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "The employee's full name"
    },
    "wagesAndTips": {
      "type": "number",
      "inferenceType": "explicit",
      "instruction": "Wages, tips, other compensation (Box 1)"
    },
    "federalIncomeTaxWithheld": {
      "type": "number",
      "inferenceType": "explicit",
      "instruction": "Federal income tax withheld (Box 2)"
    },
    "taxYear": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "The tax year for this W2 form"
    }
  }
}
```

Der Befehl zum Aufrufen der Verarbeitung des W2-Formulars würde folgendermaßen oder ähnlich aussehen:

```
aws bedrock-data-automation-runtime invoke-data-automation-async \
  --input-configuration '{
    "s3Uri": "s3://w2-processing-bucket-301678011486/input/W2.png"
  }' \
  --output-configuration '{
    "s3Uri": "s3://w2-processing-bucket-301678011486/output/"
  }' \
  --data-automation-configuration '{
    "dataAutomationProjectArn": "Amazon Resource Name (ARN)",
    "stage": "LIVE"
  }' \
  --data-automation-profile-arn "Amazon Resource Name (ARN):data-automation-profile/default"
```

Beispiel für die erwartete Ausgabe:

```
{
  "documentType": "W2TaxForm",
  "extractedData": {
    "employerName": "The Big Company",
    "employeeSSN": "123-45-6789",
    "employeeName": "Jane Doe",
    "wagesAndTips": 48500.00,
    "federalIncomeTaxWithheld": 6835.00,
    "taxYear": "2014"
  },
  "confidence": {
    "employerName": 0.99,
    "employeeSSN": 0.97,
    "employeeName": 0.99,
    "wagesAndTips": 0.98,
    "federalIncomeTaxWithheld": 0.97,
    "taxYear": 0.99
  },
  "metadata": {
    "processingTimestamp": "2025-07-23T23:15:30Z",
    "documentId": "w2-12345",
    "modelId": "amazon.titan-document-v1",
    "pageCount": 1
  }
}
```

------
#### [ Images ]

**Beispiel für Reisewerbung**

![\[Beispielbild, das zeigt, wie Benutzer Informationen aus Werbung extrahieren können.\]](http://docs.aws.amazon.com/de_de/bedrock/latest/userguide/images/bda/TravelAdvertisement.jpg)


Dies ist ein Beispielschema für Reisewerbung:

```
{
  "class": "TravelAdvertisement",
  "description": "Schema for extracting information from travel advertisement images",
  "properties": {
    "destination": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "The name of the travel destination being advertised"
    },
    "tagline": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "The main promotional text or tagline in the advertisement"
    },
    "landscapeType": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "The type of landscape shown (e.g., mountains, beach, forest, etc.)"
    },
    "waterFeatures": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "Description of any water features visible in the image (ocean, lake, river, etc.)"
    },
    "dominantColors": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "The dominant colors present in the image"
    },
    "advertisementType": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "The type of travel advertisement (e.g., destination promotion, tour package, etc.)"
    }
  }
}
```

Der Befehl zum Aufrufen der Verarbeitung der Reisewerbung würde folgendermaßen oder ähnlich aussehen:

```
aws bedrock-data-automation-runtime invoke-data-automation-async \
  --input-configuration '{
    "s3Uri": "s3://travel-ads-bucket-301678011486/input/TravelAdvertisement.jpg"
  }' \
  --output-configuration '{
    "s3Uri": "s3://travel-ads-bucket-301678011486/output/"
  }' \
  --data-automation-configuration '{
    "dataAutomationProjectArn": "Amazon Resource Name (ARN)",
    "stage": "LIVE"
  }' \
  --data-automation-profile-arn "Amazon Resource Name (ARN):data-automation-profile/default"
```

Beispiel für die erwartete Ausgabe:

```
{
  "documentType": "TravelAdvertisement",
  "extractedData": {
    "destination": "Kauai",
    "tagline": "Travel to KAUAI",
    "landscapeType": "Coastal mountains with steep cliffs and valleys",
    "waterFeatures": "Turquoise ocean with white surf along the coastline",
    "dominantColors": "Green, blue, turquoise, brown, white",
    "advertisementType": "Destination promotion"
  },
  "confidence": {
    "destination": 0.98,
    "tagline": 0.99,
    "landscapeType": 0.95,
    "waterFeatures": 0.97,
    "dominantColors": 0.96,
    "advertisementType": 0.92
  },
  "metadata": {
    "processingTimestamp": "2025-07-23T23:45:30Z",
    "documentId": "travel-ad-12345",
    "modelId": "amazon.titan-image-v1",
    "imageWidth": 1920,
    "imageHeight": 1080
  }
}
```

------
#### [ Audio ]

**Transkribieren eines Telefonanrufs**

Dies ist ein Beispielschema für einen Telefonanruf:

```
{
  "class": "AudioRecording",
  "description": "Schema for extracting information from AWS customer call recordings",
  "properties": {
    "callType": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "The type of call (e.g., technical support, account management, consultation)"
    },
    "participants": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "The number and roles of participants in the call"
    },
    "mainTopics": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "The main topics or AWS services discussed during the call"
    },
    "customerIssues": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "Any customer issues or pain points mentioned during the call"
    },
    "actionItems": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "Action items or next steps agreed upon during the call"
    },
    "callDuration": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "The duration of the call"
    },
    "callSummary": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "A brief summary of the entire call"
    }
  }
}
```

Der Befehl zum Aufrufen der Verarbeitung eines Telefonanrufs würde folgendermaßen oder ähnlich aussehen:

```
aws bedrock-data-automation-runtime invoke-data-automation-async \
  --input-configuration '{
    "s3Uri": "s3://audio-analysis-bucket-301678011486/input/AWS_TCA-Call-Recording-2.wav"
  }' \
  --output-configuration '{
    "s3Uri": "s3://audio-analysis-bucket-301678011486/output/"
  }' \
  --data-automation-configuration '{
    "dataAutomationProjectArn": "Amazon Resource Name (ARN)",
    "stage": "LIVE"
  }' \
  --data-automation-profile-arn "Amazon Resource Name (ARN):data-automation-profile/default"
```

Beispiel für die erwartete Ausgabe:

```
{
  "documentType": "AudioRecording",
  "extractedData": {
    "callType": "Technical consultation",
    "participants": "3 participants: AWS Solutions Architect, AWS Technical Account Manager, and Customer IT Director",
    "mainTopics": "AWS Bedrock implementation, data processing pipelines, model fine-tuning, and cost optimization",
    "customerIssues": "Integration challenges with existing ML infrastructure, concerns about latency for real-time processing, questions about data security compliance",
    "actionItems": [
      "AWS team to provide documentation on Bedrock data processing best practices",
      "Customer to share their current ML architecture diagrams",
      "Schedule follow-up meeting to review implementation plan",
      "AWS to provide cost estimation for proposed solution"
    ],
    "callDuration": "45 minutes and 23 seconds",
    "callSummary": "Technical consultation call between AWS team and customer regarding implementation of AWS Bedrock for their machine learning workloads. Discussion covered integration approaches, performance optimization, security considerations, and next steps for implementation planning."
  },
  "confidence": {
    "callType": 0.94,
    "participants": 0.89,
    "mainTopics": 0.92,
    "customerIssues": 0.87,
    "actionItems": 0.85,
    "callDuration": 0.99,
    "callSummary": 0.93
  },
  "metadata": {
    "processingTimestamp": "2025-07-24T00:30:45Z",
    "documentId": "audio-12345",
    "modelId": "amazon.titan-audio-v1",
    "audioDuration": "00:45:23",
    "audioFormat": "WAV",
    "sampleRate": "44.1 kHz"
  },
  "transcript": {
    "segments": [
      {
        "startTime": "00:00:03",
        "endTime": "00:00:10",
        "speaker": "Speaker 1",
        "text": "Hello everyone, thank you for joining today's call about implementing AWS Bedrock for your machine learning workloads."
      },
      {
        "startTime": "00:00:12",
        "endTime": "00:00:20",
        "speaker": "Speaker 2",
        "text": "Thanks for having us. We're really interested in understanding how Bedrock can help us streamline our document processing pipeline."
      },
      {
        "startTime": "00:00:22",
        "endTime": "00:00:35",
        "speaker": "Speaker 3",
        "text": "Yes, and specifically we'd like to discuss integration with our existing systems and any potential latency concerns for real-time processing requirements."
      }
      // Additional transcript segments would continue here
    ]
  }
}
```

------
#### [ Video ]

**Verarbeitung eines Videos**

Dies ist ein Beispielschema für Videos:

```
{
  "class": "VideoContent",
  "description": "Schema for extracting information from video content",
  "properties": {
    "title": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "The title or name of the video content"
    },
    "contentType": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "The type of content (e.g., tutorial, competition, documentary, advertisement)"
    },
    "mainSubject": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "The main subject or focus of the video"
    },
    "keyPersons": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "Key people appearing in the video (hosts, participants, etc.)"
    },
    "keyScenes": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "Description of important scenes or segments in the video"
    },
    "audioElements": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "Description of notable audio elements (music, narration, dialogue)"
    },
    "summary": {
      "type": "string",
      "inferenceType": "explicit",
      "instruction": "A brief summary of the video content"
    }
  }
}
```

Der Befehl zum Aufrufen der Verarbeitung des Videos würde folgendermaßen oder ähnlich aussehen:

```
aws bedrock-data-automation-runtime invoke-data-automation-async \
  --input-configuration '{
    "s3Uri": "s3://video-analysis-bucket-301678011486/input/MakingTheCut.mp4",
    "assetProcessingConfiguration": {
      "video": {
        "segmentConfiguration": {
          "timestampSegment": {
            "startTimeMillis": 0,
            "endTimeMillis": 300000
          }
        }
      }
    }
  }' \
  --output-configuration '{
    "s3Uri": "s3://video-analysis-bucket-301678011486/output/"
  }' \
  --data-automation-configuration '{
    "dataAutomationProjectArn": "Amazon Resource Name (ARN)",
    "stage": "LIVE"
  }' \
  --data-automation-profile-arn "Amazon Resource Name (ARN):data-automation-profile/default"
```

Beispiel für die erwartete Ausgabe:

```
{
  "documentType": "VideoContent",
  "extractedData": {
    "title": "Making the Cut",
    "contentType": "Fashion design competition",
    "mainSubject": "Fashion designers competing to create the best clothing designs",
    "keyPersons": "Heidi Klum, Tim Gunn, and various fashion designer contestants",
    "keyScenes": [
      "Introduction of the competition and contestants",
      "Design challenge announcement",
      "Designers working in their studios",
      "Runway presentation of designs",
      "Judges' critique and elimination decision"
    ],
    "audioElements": "Background music, host narration, contestant interviews, and design feedback discussions",
    "summary": "An episode of 'Making the Cut' fashion competition where designers compete in a challenge to create innovative designs. The episode includes the challenge announcement, design process, runway presentation, and judging."
  },
  "confidence": {
    "title": 0.99,
    "contentType": 0.95,
    "mainSubject": 0.92,
    "keyPersons": 0.88,
    "keyScenes": 0.90,
    "audioElements": 0.87,
    "summary": 0.94
  },
  "metadata": {
    "processingTimestamp": "2025-07-24T00:15:30Z",
    "documentId": "video-12345",
    "modelId": "amazon.titan-video-v1",
    "videoDuration": "00:45:23",
    "analyzedSegment": "00:00:00 - 00:05:00",
    "resolution": "1920x1080"
  },
  "transcript": {
    "segments": [
      {
        "startTime": "00:00:05",
        "endTime": "00:00:12",
        "speaker": "Heidi Klum",
        "text": "Welcome to Making the Cut, where we're searching for the next great global fashion brand."
      },
      {
        "startTime": "00:00:15",
        "endTime": "00:00:25",
        "speaker": "Tim Gunn",
        "text": "Designers, for your first challenge, you'll need to create a look that represents your brand and can be sold worldwide."
      }
      // Additional transcript segments would continue here
    ]
  }
}
```

------