

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Asynchrone Jobs ausführen
<a name="running-classifiers"></a>

Nachdem Sie einen benutzerdefinierten Klassifikator trainiert haben, können Sie asynchrone Jobs verwenden, um große Dokumente oder mehrere Dokumente in einem Stapel zu analysieren.

Die benutzerdefinierte Klassifizierung akzeptiert eine Vielzahl von Eingabedokumenttypen. Details hierzu finden Sie unter [Eingaben für asynchrone benutzerdefinierte Analysen](idp-inputs-async.md).

Wenn Sie Bilddateien oder gescannte PDF-Dokumente analysieren möchten, muss Ihre IAM-Richtlinie die Erlaubnis zur Verwendung von zwei Amazon Textract Textract-API-Methoden (DetectDocumentText und AnalyzeDocument) gewähren. Amazon Comprehend ruft diese Methoden während der Textextraktion auf. Eine Beispielrichtlinie finden Sie unter [Für die Durchführung von Dokumentenanalyseaktionen erforderliche Berechtigungen](security_iam_id-based-policy-examples.md#security-iam-based-policy-perform-cmp-actions).

Verwenden Sie für die Klassifizierung halbstrukturierter Dokumente (Bild-, PDF- oder Docx-Dateien) mithilfe eines Klartextmodells das Eingabeformat. `one document per file` Nehmen Sie den `DocumentReaderConfig` Parameter auch in Ihre Anfrage auf. [StartDocumentClassificationJob](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_StartDocumentClassificationJob.html)

**Topics**
+ [Dateiformate für die asynchrone Analyse](class-inputs-async.md)
+ [Analyseaufträge für die benutzerdefinierte Klassifizierung (Konsole)](analysis-jobs-custom-classifier.md)
+ [Analyseaufträge für die benutzerdefinierte Klassifizierung (API)](analysis-jobs-custom-class-api.md)
+ [Ausgaben für asynchrone Analysejobs](outputs-class-async.md)

# Dateiformate für die asynchrone Analyse
<a name="class-inputs-async"></a>

Wenn Sie eine asynchrone Analyse mit Ihrem Modell ausführen, haben Sie die Wahl zwischen verschiedenen Formaten für Eingabedokumente: `One document per line` oder`one document per file`. Welches Format Sie verwenden, hängt von der Art der Dokumente ab, die Sie analysieren möchten, wie in der folgenden Tabelle beschrieben.


| Description | Format | 
| --- | --- | 
| Die Eingabe enthält mehrere Dateien. Jede Datei enthält ein Eingabedokument. Dieses Format eignet sich am besten für Sammlungen großer Dokumente, wie Zeitungsartikel oder wissenschaftliche Arbeiten. Verwenden Sie dieses Format auch für halbstrukturierte Dokumente (Bild-, PDF- oder Docx-Dateien) mithilfe eines systemeigenen Dokumentenklassifizierers. | Ein Dokument pro Datei | 
|  Die Eingabe besteht aus einer oder mehreren Dateien. Jede Zeile in der Datei ist ein separates Eingabedokument. Dieses Format eignet sich am besten für kurze Dokumente wie Textnachrichten oder Beiträge in sozialen Netzwerken.  | Ein Dokument pro Zeile | 

**Ein Dokument pro Datei**

Beim `one document per file` Format steht jede Datei für ein Eingabedokument. 

**Ein Dokument pro Zeile**

Bei diesem `One document per line` Format wird jedes Dokument in einer separaten Zeile platziert und es wird keine Kopfzeile verwendet. Das Etikett ist nicht in jeder Zeile enthalten (da Sie das Etikett für das Dokument noch nicht kennen). Jede Zeile der Datei (das Ende des einzelnen Dokuments) muss mit einem Zeilenvorschub (LF,\$1n), einem Zeilenwechsel (CR,\$1 r) oder beidem (CRLF,\$1 r\$1n) enden. Verwenden Sie nicht das UTF-8-Zeilentrennzeichen (u\$12028), um eine Zeile zu beenden.

Das folgende Beispiel zeigt das Format der Eingabedatei.

```
Text of document 1 \n
Text of document 2 \n
Text of document 3 \n
Text of document 4 \n
```

Verwenden Sie für beide Formate die UTF-8-Kodierung für Textdateien. Nachdem Sie die Dateien vorbereitet haben, platzieren Sie sie in dem S3-Bucket, den Sie für die Eingabedaten verwenden.

Wenn Sie einen Klassifizierungsjob starten, geben Sie diesen Amazon S3 S3-Speicherort für Ihre Eingabedaten an. Der URI muss sich in derselben Region befinden wie der API-Endpunkt, den Sie aufrufen. Der URI kann auf eine einzelne Datei verweisen (wie bei der Methode „Ein Dokument pro Zeile“), oder er kann das Präfix für eine Sammlung von Datendateien sein. 

Wenn Sie beispielsweise den URI `S3://bucketName/prefix` verwenden und das Präfix eine einzelne Datei ist, verwendet Amazon Comprehend diese Datei als Eingabe. Wenn mehr als eine Datei mit dem Präfix beginnt, verwendet Amazon Comprehend sie alle als Eingabe. 

Gewähren Sie Amazon Comprehend Zugriff auf den S3-Bucket, der Ihre Dokumentensammlungs- und Ausgabedateien enthält. Weitere Informationen finden Sie unter [Rollenbasierte Berechtigungen sind für asynchrone Operationen erforderlich](security_iam_id-based-policy-examples.md#auth-role-permissions).

# Analyseaufträge für die benutzerdefinierte Klassifizierung (Konsole)
<a name="analysis-jobs-custom-classifier"></a>

Nachdem Sie einen [benutzerdefinierten Dokumentenklassifizierer]() erstellt und trainiert haben, können Sie die Konsole verwenden, um benutzerdefinierte Klassifizierungsaufträge mit dem Modell auszuführen.

**So erstellen Sie einen benutzerdefinierten Klassifizierungsjob (Konsole)**

1. Melden Sie sich bei der Amazon Comprehend Comprehend-Konsole an AWS-Managementkonsole und öffnen Sie sie unter [https://console.aws.amazon.com/comprehend/](https://console.aws.amazon.com/comprehend/)

1. Wählen Sie im linken Menü **Analyse-Jobs** und dann **Create** Job aus.

1. Geben Sie dem Klassifizierungsjob einen Namen. Der Name muss für Ihr Konto und Ihre aktuelle Region eindeutig sein.

1. Wählen Sie unter **Analysetyp** die Option **Benutzerdefinierte Klassifizierung** aus.

1. **Wählen Sie unter Klassifikator** auswählen den benutzerdefinierten Klassifikator aus, den Sie verwenden möchten.

1. **(Optional) Wenn Sie sich dafür entscheiden, die Daten zu verschlüsseln, die Amazon Comprehend bei der Verarbeitung Ihres Auftrags verwendet, wählen Sie Auftragsverschlüsselung.** Wählen Sie dann, ob Sie einen KMS-Schlüssel verwenden möchten, der mit dem aktuellen Konto verknüpft ist, oder einen von einem anderen Konto.
   + Wenn Sie einen Schlüssel verwenden, der dem aktuellen Konto zugeordnet ist, wählen Sie die Schlüssel-ID für die **KMS-Schlüssel-ID**.
   + Wenn Sie einen Schlüssel verwenden, der einem anderen Konto zugeordnet ist, geben Sie den ARN für die Schlüssel-ID unter **KMS-Schlüssel-ARN** ein.
**Anmerkung**  
Weitere Informationen zur Erstellung und Verwendung von KMS-Schlüsseln und der zugehörigen Verschlüsselung finden Sie unter [Schlüsselverwaltungsdienst (KMS)](https://docs.aws.amazon.com/kms/latest/developerguide/overview.html).

1. Geben Sie unter **Eingabedaten** den Speicherort des Amazon S3 S3-Buckets ein, der Ihre Eingabedokumente enthält, oder navigieren Sie dorthin, indem Sie **Browse S3** wählen. Dieser Bucket muss sich in derselben Region befinden wie die API, die Sie aufrufen. Die IAM-Rolle, die Sie für Zugriffsberechtigungen für den Klassifizierungsjob verwenden, muss über Leseberechtigungen für den S3-Bucket verfügen.

   Um ein Höchstmaß an Genauigkeit beim Trainieren eines Modells zu erreichen, müssen Sie den Typ der Eingabe an den Modelltyp des Klassifikators anpassen. Der Classifier-Job gibt eine Warnung zurück, wenn Sie systemeigene Dokumente an ein Nur-Text-Modell oder Nur-Text-Dokumente an ein systemeigenes Dokumentenmodell weiterleiten. Weitere Informationen finden Sie unter [Modelle zur Trainingsklassifizierung](training-classifier-model.md).

1. (Optional) Unter **Eingabeformat** können Sie das Format der Eingabedokumente auswählen. Das Format kann ein Dokument pro Datei oder ein Dokument pro Zeile in einer einzigen Datei sein. Ein Dokument pro Zeile gilt nur für Textdokumente. 

1. (Optional) **Im Lesemodus Dokument** können Sie die Standardaktionen zur Textextraktion überschreiben. Weitere Informationen finden Sie unter [Optionen für die Textextraktion festlegen](idp-set-textract-options.md). 

1. Geben Sie unter **Ausgabedaten** den Speicherort des Amazon S3 S3-Buckets ein, in den Amazon Comprehend die Ausgabedaten des Jobs schreiben soll, oder navigieren Sie zu ihm, indem Sie **Browse** S3 wählen. Dieser Bucket muss sich in derselben Region befinden wie die API, die Sie aufrufen. Die IAM-Rolle, die Sie für Zugriffsberechtigungen für den Klassifizierungsjob verwenden, muss über Schreibberechtigungen für den S3-Bucket verfügen.

1. **(Optional) Wenn Sie das Ausgabeergebnis Ihres Jobs verschlüsseln möchten, wählen Sie Verschlüsselung.** Wählen Sie dann aus, ob Sie einen KMS-Schlüssel verwenden möchten, der mit dem aktuellen Konto verknüpft ist, oder einen von einem anderen Konto.
   + Wenn Sie einen Schlüssel verwenden, der dem aktuellen Konto zugeordnet ist, wählen Sie den Schlüsselalias oder die Schlüssel-ID für die **KMS-Schlüssel-ID**.
   + Wenn Sie einen Schlüssel verwenden, der einem anderen Konto zugeordnet ist, geben Sie den ARN für den Schlüsselalias oder die Schlüssel-ID unter **KMS-Schlüssel-ID** ein.

1. (Optional) Um Ihre Ressourcen von einer VPC aus in Amazon Comprehend zu starten, geben Sie die VPC-ID unter **VPC** ein oder wählen Sie die ID aus der Drop-down-Liste aus. 

   1. **Wählen Sie das Subnetz unter Subnetz (s) aus.** Nachdem Sie das erste Subnetz ausgewählt haben, können Sie weitere auswählen.

   1. Wählen Sie unter **Sicherheitsgruppe (n)** die zu verwendende Sicherheitsgruppe aus, falls Sie eine angegeben haben. Nachdem Sie die erste Sicherheitsgruppe ausgewählt haben, können Sie weitere auswählen.
**Anmerkung**  
Wenn Sie eine VPC mit Ihrem Klassifizierungsjob verwenden, müssen die für die Operationen Create und Start `DataAccessRole` verwendeten VPC Berechtigungen für die VPC gewähren, die auf den Ausgabe-Bucket zugreift.

1. Wählen Sie **Job erstellen, um den Job** zur Dokumentenklassifizierung zu erstellen.

# Analyseaufträge für die benutzerdefinierte Klassifizierung (API)
<a name="analysis-jobs-custom-class-api"></a>

Nachdem Sie einen benutzerdefinierten Dokumentenklassifizierer [erstellt und trainiert](train-custom-classifier-api.md) haben, können Sie den Klassifikator verwenden, um Analyseaufträge auszuführen.

Verwenden Sie den [StartDocumentClassificationJob](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_StartDocumentClassificationJob.html)Vorgang, um mit der Klassifizierung von Dokumenten ohne Etikett zu beginnen. Sie geben den S3-Bucket an, der die Eingabedokumente enthält, den S3-Bucket für die Ausgabedokumente und den zu verwendenden Klassifikator.

Um ein Höchstmaß an Genauigkeit beim Trainieren eines Modells zu erreichen, müssen Sie den Typ der Eingabe an den Modelltyp des Klassifikators anpassen. Der Classifier-Job gibt eine Warnung zurück, wenn Sie systemeigene Dokumente an ein Nur-Text-Modell oder Nur-Text-Dokumente an ein systemeigenes Dokumentenmodell weiterleiten. Weitere Informationen finden Sie unter [Modelle zur Trainingsklassifizierung](training-classifier-model.md).

 [StartDocumentClassificationJob](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_StartDocumentClassificationJob.html)ist asynchron. Sobald Sie den Job gestartet haben, können Sie den [DescribeDocumentClassificationJob](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_DescribeDocumentClassificationJob.html)Vorgang verwenden, um seinen Fortschritt zu überwachen. Wenn das `Status` Feld in der Antwort angezeigt wird`COMPLETED`, können Sie an dem von Ihnen angegebenen Speicherort auf die Ausgabe zugreifen.

**Topics**
+ [Mit dem AWS Command Line Interface](#get-started-api-customclass-cli)
+ [Verwenden des AWS SDK für Java oder SDK für Python](#get-started-api-customclass-java)

## Mit dem AWS Command Line Interface
<a name="get-started-api-customclass-cli"></a>

Die folgenden Beispiele für die `StartDocumentClassificationJob` Operation und andere benutzerdefinierte Klassifikatoren APIs mit dem AWS CLI. 

Die folgenden Beispiele verwenden das Befehlsformat für Unix, Linux und macOS. Ersetzen Sie unter Windows den umgekehrten Schrägstrich (\$1), das Unix-Fortsetzungszeichen, am Ende jeder Zeile durch ein Caret-Zeichen oder Zirkumflex (^).

Führen Sie mithilfe des `StartDocumentClassificationJob` Vorgangs einen benutzerdefinierten Klassifizierungsauftrag aus.

```
aws comprehend start-document-classification-job \
     --region region \
     --document-classifier-arn arn:aws:comprehend:region:account number:document-classifier/testDelete \
     --input-data-config S3Uri=s3://S3Bucket/docclass/file name,InputFormat=ONE_DOC_PER_LINE \
     --output-data-config S3Uri=s3://S3Bucket/output \
     --data-access-role-arn arn:aws:iam::account number:role/resource name
```

Rufen Sie mithilfe der `DescribeDocumentClassificationJob` Operation Informationen zu einem benutzerdefinierten Klassifikator mit der Job-ID ab.

```
aws comprehend describe-document-classification-job \
     --region region \
     --job-id job id
```

Listet alle benutzerdefinierten Klassifizierungsaufträge in Ihrem Konto auf, die den `ListDocumentClassificationJobs` Vorgang verwenden.

```
aws comprehend list-document-classification-jobs
     --region region
```

## Verwenden des AWS SDK für Java oder SDK für Python
<a name="get-started-api-customclass-java"></a>

SDK-Beispiele zum Starten eines benutzerdefinierten Klassifizierer-Jobs finden Sie unter[Verwendung `StartDocumentClassificationJob` mit einem AWS SDK oder CLI](example_comprehend_StartDocumentClassificationJob_section.md).

# Ausgaben für asynchrone Analysejobs
<a name="outputs-class-async"></a>

Nach Abschluss eines Analyseauftrags werden die Ergebnisse in dem S3-Bucket gespeichert, den Sie in der Anfrage angegeben haben.

## Ausgaben für Texteingaben
<a name="outputs-class-async-text"></a>

Für jedes Format von Texteingabedokumenten (mehrere Klassen oder mehrere Etiketten) besteht die Jobausgabe aus einer einzigen Datei mit dem Namen. `output.tar.gz` Es handelt sich um eine komprimierte Archivdatei, die eine Textdatei mit der Ausgabe enthält. 

**Ausgabe mit mehreren Klassen**

Wenn Sie einen Klassifikator verwenden, der im Mehrklassenmodus trainiert wurde, werden Ihre Ergebnisse angezeigt. `classes` Jede dieser Klassen `classes` wird verwendet, um beim Training Ihres Klassifikators eine Reihe von Kategorien zu erstellen.

Weitere Informationen zu diesen Ausgabefeldern finden Sie [ClassifyDocument](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_ClassifyDocument.html)in der *Amazon Comprehend API-Referenz*.

In den folgenden Beispielen werden die folgenden Klassen verwendet, die sich gegenseitig ausschließen.

```
DOCUMENTARY
SCIENCE_FICTION
ROMANTIC_COMEDY
SERIOUS_DRAMA
OTHER
```

Wenn Ihr Eingabedatenformat ein Dokument pro Zeile ist, enthält die Ausgabedatei eine Zeile für jede Zeile in der Eingabe. Jede Zeile enthält den Dateinamen, die auf Null basierende Zeilennummer der Eingabezeile und die Klasse oder Klassen, die im Dokument gefunden wurden. Es endet mit der Gewissheit, dass Amazon Comprehend davon überzeugt ist, dass die einzelne Instance korrekt klassifiziert wurde.

Beispiel:

```
{"File": "file1.txt", "Line": "0", "Classes": [{"Name": "Documentary", "Score": 0.8642}, {"Name": "Other", "Score": 0.0381}, {"Name": "Serious_Drama", "Score": 0.0372}]}
{"File": "file1.txt", "Line": "1", "Classes": [{"Name": "Science_Fiction", "Score": 0.5}, {"Name": "Science_Fiction", "Score": 0.0381}, {"Name": "Science_Fiction", "Score": 0.0372}]}
{"File": "file2.txt", "Line": "2", "Classes": [{"Name": "Documentary", "Score": 0.1}, {"Name": "Documentary", "Score": 0.0381}, {"Name": "Documentary", "Score": 0.0372}]}
{"File": "file2.txt", "Line": "3", "Classes": [{"Name": "Serious_Drama", "Score": 0.3141}, {"Name": "Other", "Score": 0.0381}, {"Name": "Other", "Score": 0.0372}]}
```

Wenn Ihr Eingabedatenformat ein Dokument pro Datei ist, enthält die Ausgabedatei eine Zeile für jedes Dokument. Jede Zeile enthält den Namen der Datei und die Klasse oder Klassen, die im Dokument gefunden wurden. Es endet mit der Gewissheit, dass Amazon Comprehend die einzelne Instanz korrekt klassifiziert hat.

Beispiel:

```
{"File": "file0.txt", "Classes": [{"Name": "Documentary", "Score": 0.8642}, {"Name": "Other", "Score": 0.0381}, {"Name": "Serious_Drama", "Score": 0.0372}]}
{"File": "file1.txt", "Classes": [{"Name": "Science_Fiction", "Score": 0.5}, {"Name": "Science_Fiction", "Score": 0.0381}, {"Name": "Science_Fiction", "Score": 0.0372}]}
{"File": "file2.txt", "Classes": [{"Name": "Documentary", "Score": 0.1}, {"Name": "Documentary", "Score": 0.0381}, {"Name": "Domentary", "Score": 0.0372}]}
{"File": "file3.txt", "Classes": [{"Name": "Serious_Drama", "Score": 0.3141}, {"Name": "Other", "Score": 0.0381}, {"Name": "Other", "Score": 0.0372}]}
```

**Ausgabe mit mehreren Labels**

Wenn Sie einen Klassifikator verwenden, der im Multi-Label-Modus trainiert wurde, werden Ihre Ergebnisse angezeigt. `labels` Jedes dieser Labels `labels` wird verwendet, um den Satz von Kategorien zu erstellen, wenn Sie Ihren Klassifikator trainieren.

In den folgenden Beispielen werden diese eindeutigen Bezeichnungen verwendet.

```
SCIENCE_FICTION
ACTION
DRAMA
COMEDY
ROMANCE
```

Wenn Ihr Eingabedatenformat ein Dokument pro Zeile ist, enthält die Ausgabedatei eine Zeile für jede Zeile in der Eingabe. Jede Zeile enthält den Dateinamen, die auf Null basierende Zeilennummer der Eingabezeile und die Klasse oder Klassen, die im Dokument gefunden wurden. Es endet mit der Gewissheit, dass Amazon Comprehend davon überzeugt ist, dass die einzelne Instance korrekt klassifiziert wurde.

Beispiel:

```
{"File": "file1.txt", "Line": "0", "Labels": [{"Name": "Action", "Score": 0.8642}, {"Name": "Drama", "Score": 0.650}, {"Name": "Science Fiction", "Score": 0.0372}]}
{"File": "file1.txt", "Line": "1", "Labels": [{"Name": "Comedy", "Score": 0.5}, {"Name": "Action", "Score": 0.0381}, {"Name": "Drama", "Score": 0.0372}]}
{"File": "file1.txt", "Line": "2", "Labels": [{"Name": "Action", "Score": 0.9934}, {"Name": "Drama", "Score": 0.0381}, {"Name": "Action", "Score": 0.0372}]}
{"File": "file1.txt", "Line": "3", "Labels": [{"Name": "Romance", "Score": 0.9845}, {"Name": "Comedy", "Score": 0.8756}, {"Name": "Drama", "Score": 0.7723}, {"Name": "Science_Fiction", "Score": 0.6157}]}
```

Wenn Ihr Eingabedatenformat ein Dokument pro Datei ist, enthält die Ausgabedatei eine Zeile für jedes Dokument. Jede Zeile enthält den Namen der Datei und die Klasse oder Klassen, die im Dokument gefunden wurden. Es endet mit der Gewissheit, dass Amazon Comprehend die einzelne Instanz korrekt klassifiziert hat.

Beispiel:

```
{"File": "file0.txt", "Labels": [{"Name": "Action", "Score": 0.8642}, {"Name": "Drama", "Score": 0.650}, {"Name": "Science Fiction", "Score": 0.0372}]}
{"File": "file1.txt", "Labels": [{"Name": "Comedy", "Score": 0.5}, {"Name": "Action", "Score": 0.0381}, {"Name": "Drama", "Score": 0.0372}]}
{"File": "file2.txt", "Labels": [{"Name": "Action", "Score": 0.9934}, {"Name": "Drama", "Score": 0.0381}, {"Name": "Action", "Score": 0.0372}]}
{"File": "file3.txt”, "Labels": [{"Name": "Romance", "Score": 0.9845}, {"Name": "Comedy", "Score": 0.8756}, {"Name": "Drama", "Score": 0.7723}, {"Name": "Science_Fiction", "Score": 0.6157}]}
```

## Ausgaben für halbstrukturierte Eingabedokumente
<a name="outputs-class-async-other"></a>

Bei halbstrukturierten Eingabedokumenten kann die Ausgabe die folgenden zusätzlichen Felder enthalten:
+ DocumentMetadata — Extraktionsinformationen über das Dokument. Die Metadaten enthalten eine Liste von Seiten im Dokument, wobei die Anzahl der Zeichen aus jeder Seite extrahiert wurde. Dieses Feld ist in der Antwort vorhanden, wenn die Anfrage den `Byte` Parameter enthielt.
+ DocumentType — Der Dokumenttyp für jede Seite im Eingabedokument. Dieses Feld ist in der Antwort vorhanden, wenn die Anfrage den `Byte` Parameter enthielt.
+ Fehler — Fehler auf Seitenebene, die das System bei der Verarbeitung des Eingabedokuments erkannt hat. Das Feld ist leer, wenn das System keine Fehler festgestellt hat.

Weitere Informationen zu diesen Ausgabefeldern finden Sie [ClassifyDocument](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_ClassifyDocument.html)in der *Amazon Comprehend API-Referenz*.

Das folgende Beispiel zeigt die Ausgabe für eine zweiseitige gescannte PDF-Datei.

```
[{ #First page output
    "Classes": [
        {
            "Name": "__label__2 ",
            "Score": 0.9993996620178223
        },
        {
            "Name": "__label__3 ",
            "Score": 0.0004330444789957255
        }
    ],
    "DocumentMetadata": {
        "PageNumber": 1,
        "Pages": 2
    },
    "DocumentType": "ScannedPDF",
    "File": "file.pdf",
    "Version": "VERSION_NUMBER"
},
#Second page output
{
    "Classes": [
        {
            "Name": "__label__2 ",
            "Score": 0.9993996620178223
        },
        {
            "Name": "__label__3 ",
            "Score": 0.0004330444789957255
        }
    ],
    "DocumentMetadata": {
        "PageNumber": 2,
        "Pages": 2
    },
    "DocumentType": "ScannedPDF",
    "File": "file.pdf",
    "Version": "VERSION_NUMBER" 
}]
```