

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Esecuzione di processi asincroni
<a name="running-classifiers"></a>

Dopo aver addestrato un classificatore personalizzato, è possibile utilizzare processi asincroni per analizzare documenti di grandi dimensioni o più documenti in un unico batch.

La classificazione personalizzata accetta una varietà di tipi di documenti di input. Per informazioni dettagliate, vedi [Ingressi per analisi asincrone personalizzate](idp-inputs-async.md).

Se prevedi di analizzare file di immagini o documenti PDF scansionati, la tua policy IAM deve concedere le autorizzazioni per utilizzare due metodi DetectDocumentText API Amazon Textract (e). AnalyzeDocument Amazon Comprehend richiama questi metodi durante l'estrazione del testo. Per un esempio di policy, consulta [Autorizzazioni necessarie per eseguire azioni di analisi dei documenti](security_iam_id-based-policy-examples.md#security-iam-based-policy-perform-cmp-actions).

Per la classificazione di documenti semistrutturati (immagini, file PDF o Docx) utilizzando un modello di testo semplice, utilizza il formato di input. `one document per file` Inoltre, includi il parametro nella `DocumentReaderConfig` tua richiesta. [StartDocumentClassificationJob](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_StartDocumentClassificationJob.html)

**Topics**
+ [Formati di file per l'analisi asincrona](class-inputs-async.md)
+ [Lavori di analisi per la classificazione personalizzata (console)](analysis-jobs-custom-classifier.md)
+ [Lavori di analisi per la classificazione personalizzata (API)](analysis-jobs-custom-class-api.md)
+ [Output per lavori di analisi asincroni](outputs-class-async.md)

# Formati di file per l'analisi asincrona
<a name="class-inputs-async"></a>

Quando si esegue un'analisi asincrona con il modello, è possibile scegliere tra diversi formati per i documenti di input: `One document per line` o. `one document per file` Il formato utilizzato dipende dal tipo di documenti che si desidera analizzare, come descritto nella tabella seguente.


| Description | Formato | 
| --- | --- | 
| L'input contiene più file. Ogni file contiene un documento di input. Questo formato è ideale per raccolte di documenti di grandi dimensioni, come articoli di giornale o articoli scientifici. Inoltre, utilizzate questo formato per documenti semistrutturati (file di immagine, PDF o Docx) utilizzando un classificatore di documenti nativo. | Un documento per file | 
|  L'input è costituito da uno o più file. Ogni riga del file è un documento di input separato. Questo formato è ideale per documenti brevi, come messaggi di testo o post sui social media.  | Un documento per riga | 

**Un documento per file**

Con il `one document per file` formato, ogni file rappresenta un documento di input. 

**Un documento per riga**

Con il `One document per line` formato, ogni documento viene posizionato su una riga separata e non viene utilizzata alcuna intestazione. L'etichetta non è inclusa in ogni riga (poiché non conosci ancora l'etichetta del documento). Ogni riga del file (la fine del singolo documento) deve terminare con un'alimentazione di riga (LF,\$1n), un corriage return (CR,\$1 r) o entrambi (CRLF,\$1 r\$1n). Non utilizzare il separatore di riga UTF-8 (u\$12028) per terminare una riga.

L'esempio seguente mostra il formato del file di input.

```
Text of document 1 \n
Text of document 2 \n
Text of document 3 \n
Text of document 4 \n
```

Per entrambi i formati, utilizzate la codifica UTF-8 per i file di testo. Dopo aver preparato i file, inseriscili nel bucket S3 che stai utilizzando per i dati di input.

Quando inizi un processo di classificazione, specifichi questa posizione Amazon S3 per i dati di input. L'URI deve trovarsi nella stessa regione dell'endpoint API che stai chiamando. L'URI può puntare a un singolo file (come quando si utilizza il metodo «un documento per riga») oppure può essere il prefisso per una raccolta di file di dati. 

Ad esempio, se utilizzi l'URI`S3://bucketName/prefix`, se il prefisso è un singolo file, Amazon Comprehend utilizza quel file come input. Se più di un file inizia con il prefisso, Amazon Comprehend li utilizza tutti come input. 

Concedi ad Amazon Comprehend l'accesso al bucket S3 che contiene la raccolta di documenti e i file di output. Per ulteriori informazioni, consulta [Autorizzazioni basate sui ruoli necessarie per le operazioni asincrone](security_iam_id-based-policy-examples.md#auth-role-permissions).

# Lavori di analisi per la classificazione personalizzata (console)
<a name="analysis-jobs-custom-classifier"></a>

Dopo aver creato e addestrato un [classificatore di documenti personalizzato](), è possibile utilizzare la console per eseguire processi di classificazione personalizzati con il modello.

**Per creare un processo di classificazione personalizzato (console)**

1. Accedi Console di gestione AWS e apri la console Amazon Comprehend all'indirizzo [https://console.aws.amazon.com/comprehend/](https://console.aws.amazon.com/comprehend/)

1. Dal menu a sinistra, scegli **Analysis jobs**, quindi scegli **Crea job**.

1. Assegna un nome al lavoro di classificazione. Il nome deve essere univoco per il tuo account e per la regione corrente.

1. In **Tipo di analisi**, scegli **Classificazione personalizzata**.

1. Da **Seleziona classificatore**, scegli il classificatore personalizzato da utilizzare.

1. **(Facoltativo) Se scegli di crittografare i dati utilizzati da Amazon Comprehend durante l'elaborazione del lavoro, scegli Job encryption.** Quindi scegli se utilizzare una chiave KMS associata all'account corrente o una di un altro account.
   + Se utilizzi una chiave associata all'account corrente, scegli l'ID della chiave per l'ID della **chiave KMS**.
   + Se utilizzi una chiave associata a un altro account, inserisci l'ARN per l'ID della chiave in ARN della **chiave KMS**.
**Nota**  
Per ulteriori informazioni sulla creazione e l'utilizzo delle chiavi KMS e sulla crittografia associata, consulta [Servizio di gestione delle chiavi](https://docs.aws.amazon.com/kms/latest/developerguide/overview.html) (KMS).

1. **In **Dati di input**, inserisci la posizione del bucket Amazon S3 che contiene i documenti di input o accedi al bucket scegliendo Browse S3.** Questo bucket deve trovarsi nella stessa regione dell'API che stai chiamando. Il ruolo IAM che stai utilizzando per le autorizzazioni di accesso per il processo di classificazione deve disporre delle autorizzazioni di lettura per il bucket S3.

   Per ottenere il massimo livello di precisione nell'addestramento di un modello, abbina il tipo di input al tipo di modello di classificatore. Il processo di classificazione restituisce un avviso se si inviano documenti nativi a un modello di testo semplice o documenti di testo semplice a un modello di documento nativo. Per ulteriori informazioni, consulta [Modelli di classificazione della formazione](training-classifier-model.md).

1. (Facoltativo) Per il **formato di input**, è possibile scegliere il formato dei documenti di input. Il formato può essere un documento per file o un documento per riga in un singolo file. Un documento per riga si applica solo ai documenti di testo. 

1. (Facoltativo) Per la **modalità di lettura dei documenti**, è possibile sovrascrivere le azioni di estrazione del testo predefinite. Per ulteriori informazioni, consulta [Impostazione delle opzioni di estrazione del testo](idp-set-textract-options.md). 

1. **In **Dati di output**, inserisci la posizione del bucket Amazon S3 in cui Amazon Comprehend deve scrivere i dati di output del lavoro o accedervi selezionando Browse S3.** Questo bucket deve trovarsi nella stessa regione dell'API che stai chiamando. Il ruolo IAM che stai utilizzando per le autorizzazioni di accesso per il processo di classificazione deve avere autorizzazioni di scrittura per il bucket S3.

1. **(Facoltativo) Se scegli di crittografare il risultato dell'output del tuo lavoro, scegli Crittografia.** Quindi scegli se utilizzare una chiave KMS associata all'account corrente o una di un altro account.
   + Se utilizzi una chiave associata all'account corrente, scegli l'alias o l'ID della chiave per l'ID della chiave **KMS**.
   + Se utilizzi una chiave associata a un altro account, inserisci l'ARN per l'alias o l'ID della chiave in **KMS** key ID.

1. (Facoltativo) Per avviare le tue risorse in Amazon Comprehend da un VPC, inserisci l'ID VPC in **VPC** o scegli l'ID dall'elenco a discesa. 

   1. **Scegli la sottorete in Subnet (s).** Dopo aver selezionato la prima sottorete, è possibile sceglierne altre.

   1. In **Gruppi di sicurezza**, scegli il gruppo di sicurezza da utilizzare, se ne hai specificato uno. Dopo aver selezionato il primo gruppo di sicurezza, puoi sceglierne altri.
**Nota**  
Quando utilizzi un VPC con il tuo lavoro di classificazione, quello `DataAccessRole` utilizzato per le operazioni di creazione e avvio deve concedere le autorizzazioni al VPC che accede al bucket di output.

1. Scegli **Crea lavoro per creare il processo** di classificazione dei documenti.

# Lavori di analisi per la classificazione personalizzata (API)
<a name="analysis-jobs-custom-class-api"></a>

Dopo aver [creato e addestrato](train-custom-classifier-api.md) un classificatore di documenti personalizzato, è possibile utilizzare il classificatore per eseguire lavori di analisi.

Utilizzate l'[StartDocumentClassificationJob](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_StartDocumentClassificationJob.html)operazione per iniziare a classificare i documenti senza etichetta. Si specifica il bucket S3 che contiene i documenti di input, il bucket S3 per i documenti di output e il classificatore da utilizzare.

Per ottenere il massimo livello di precisione nell'addestramento di un modello, abbina il tipo di input al tipo di modello di classificatore. Il processo di classificazione restituisce un avviso se si inviano documenti nativi a un modello di testo semplice o documenti di testo semplice a un modello di documento nativo. Per ulteriori informazioni, consulta [Modelli di classificazione della formazione](training-classifier-model.md).

 [StartDocumentClassificationJob](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_StartDocumentClassificationJob.html)è asincrono. Una volta avviato il processo, utilizzate l'[DescribeDocumentClassificationJob](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_DescribeDocumentClassificationJob.html)operazione per monitorarne l'avanzamento. Quando il `Status` campo della risposta viene visualizzato`COMPLETED`, è possibile accedere all'output nella posizione specificata.

**Topics**
+ [Utilizzando il AWS Command Line Interface](#get-started-api-customclass-cli)
+ [Usare AWS SDK per Java o SDK per Python](#get-started-api-customclass-java)

## Utilizzando il AWS Command Line Interface
<a name="get-started-api-customclass-cli"></a>

I seguenti esempi sono l'`StartDocumentClassificationJob`operazione e altri classificatori personalizzati APIs con. AWS CLI

Gli esempi seguenti utilizzano il formato dei comandi per Unix, Linux e macOS. Per Windows, sostituisci il carattere di continuazione UNIX barra rovesciata (\$1) al termine di ogni riga con un accento circonflesso (^).

Esegui un processo di classificazione personalizzato utilizzando l'`StartDocumentClassificationJob`operazione.

```
aws comprehend start-document-classification-job \
     --region region \
     --document-classifier-arn arn:aws:comprehend:region:account number:document-classifier/testDelete \
     --input-data-config S3Uri=s3://S3Bucket/docclass/file name,InputFormat=ONE_DOC_PER_LINE \
     --output-data-config S3Uri=s3://S3Bucket/output \
     --data-access-role-arn arn:aws:iam::account number:role/resource name
```

Ottieni informazioni su un classificatore personalizzato con l'ID del lavoro utilizzando l'`DescribeDocumentClassificationJob`operazione.

```
aws comprehend describe-document-classification-job \
     --region region \
     --job-id job id
```

Elenca tutti i lavori di classificazione personalizzati presenti nel tuo account utilizzando l'`ListDocumentClassificationJobs`operazione.

```
aws comprehend list-document-classification-jobs
     --region region
```

## Usare AWS SDK per Java o SDK per Python
<a name="get-started-api-customclass-java"></a>

Per esempi SDK su come avviare un processo di classificazione personalizzato, consulta. [Utilizzo `StartDocumentClassificationJob` con un AWS SDK o una CLI](example_comprehend_StartDocumentClassificationJob_section.md)

# Output per lavori di analisi asincroni
<a name="outputs-class-async"></a>

Al termine di un processo di analisi, memorizza i risultati nel bucket S3 specificato nella richiesta.

## Uscite per input di testo
<a name="outputs-class-async-text"></a>

Per entrambi i formati di documenti di input di testo (multiclasse o multietichetta), l'output del lavoro è costituito da un singolo file denominato. `output.tar.gz` È un file di archivio compresso che contiene un file di testo con l'output. 

**Output multiclasse**

Quando si utilizza un classificatore addestrato in modalità multiclasse, i risultati vengono visualizzati. `classes` Ognuna di queste `classes` è la classe utilizzata per creare l'insieme di categorie durante l'addestramento del classificatore.

Per ulteriori dettagli su questi campi di output, consulta [ClassifyDocument](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_ClassifyDocument.html)*Amazon Comprehend API* Reference.

Gli esempi seguenti utilizzano le seguenti classi che si escludono a vicenda.

```
DOCUMENTARY
SCIENCE_FICTION
ROMANTIC_COMEDY
SERIOUS_DRAMA
OTHER
```

Se il formato dei dati di input è un documento per riga, il file di output contiene una riga per ogni riga dell'input. Ogni riga include il nome del file, il numero di riga a base zero della riga di input e la classe o le classi presenti nel documento. Termina con la certezza che Amazon Comprehend ha che la singola istanza sia stata classificata correttamente.

Esempio:

```
{"File": "file1.txt", "Line": "0", "Classes": [{"Name": "Documentary", "Score": 0.8642}, {"Name": "Other", "Score": 0.0381}, {"Name": "Serious_Drama", "Score": 0.0372}]}
{"File": "file1.txt", "Line": "1", "Classes": [{"Name": "Science_Fiction", "Score": 0.5}, {"Name": "Science_Fiction", "Score": 0.0381}, {"Name": "Science_Fiction", "Score": 0.0372}]}
{"File": "file2.txt", "Line": "2", "Classes": [{"Name": "Documentary", "Score": 0.1}, {"Name": "Documentary", "Score": 0.0381}, {"Name": "Documentary", "Score": 0.0372}]}
{"File": "file2.txt", "Line": "3", "Classes": [{"Name": "Serious_Drama", "Score": 0.3141}, {"Name": "Other", "Score": 0.0381}, {"Name": "Other", "Score": 0.0372}]}
```

Se il formato dei dati di input è un documento per file, il file di output contiene una riga per ogni documento. Ogni riga contiene il nome del file e la classe o le classi presenti nel documento. Termina con la certezza che Amazon Comprehend abbia classificato accuratamente la singola istanza.

Esempio:

```
{"File": "file0.txt", "Classes": [{"Name": "Documentary", "Score": 0.8642}, {"Name": "Other", "Score": 0.0381}, {"Name": "Serious_Drama", "Score": 0.0372}]}
{"File": "file1.txt", "Classes": [{"Name": "Science_Fiction", "Score": 0.5}, {"Name": "Science_Fiction", "Score": 0.0381}, {"Name": "Science_Fiction", "Score": 0.0372}]}
{"File": "file2.txt", "Classes": [{"Name": "Documentary", "Score": 0.1}, {"Name": "Documentary", "Score": 0.0381}, {"Name": "Domentary", "Score": 0.0372}]}
{"File": "file3.txt", "Classes": [{"Name": "Serious_Drama", "Score": 0.3141}, {"Name": "Other", "Score": 0.0381}, {"Name": "Other", "Score": 0.0372}]}
```

**Output multietichetta**

Quando si utilizza un classificatore addestrato in modalità multietichetta, i risultati vengono visualizzati. `labels` Ognuna di queste `labels` è l'etichetta utilizzata per creare l'insieme di categorie durante l'addestramento del classificatore.

Gli esempi seguenti utilizzano queste etichette uniche.

```
SCIENCE_FICTION
ACTION
DRAMA
COMEDY
ROMANCE
```

Se il formato dei dati di input è un documento per riga, il file di output contiene una riga per ogni riga dell'input. Ogni riga include il nome del file, il numero di riga a base zero della riga di input e la classe o le classi presenti nel documento. Termina con la certezza che Amazon Comprehend ha che la singola istanza sia stata classificata correttamente.

Esempio:

```
{"File": "file1.txt", "Line": "0", "Labels": [{"Name": "Action", "Score": 0.8642}, {"Name": "Drama", "Score": 0.650}, {"Name": "Science Fiction", "Score": 0.0372}]}
{"File": "file1.txt", "Line": "1", "Labels": [{"Name": "Comedy", "Score": 0.5}, {"Name": "Action", "Score": 0.0381}, {"Name": "Drama", "Score": 0.0372}]}
{"File": "file1.txt", "Line": "2", "Labels": [{"Name": "Action", "Score": 0.9934}, {"Name": "Drama", "Score": 0.0381}, {"Name": "Action", "Score": 0.0372}]}
{"File": "file1.txt", "Line": "3", "Labels": [{"Name": "Romance", "Score": 0.9845}, {"Name": "Comedy", "Score": 0.8756}, {"Name": "Drama", "Score": 0.7723}, {"Name": "Science_Fiction", "Score": 0.6157}]}
```

Se il formato dei dati di input è un documento per file, il file di output contiene una riga per ogni documento. Ogni riga contiene il nome del file e la classe o le classi presenti nel documento. Termina con la certezza che Amazon Comprehend abbia classificato accuratamente la singola istanza.

Esempio:

```
{"File": "file0.txt", "Labels": [{"Name": "Action", "Score": 0.8642}, {"Name": "Drama", "Score": 0.650}, {"Name": "Science Fiction", "Score": 0.0372}]}
{"File": "file1.txt", "Labels": [{"Name": "Comedy", "Score": 0.5}, {"Name": "Action", "Score": 0.0381}, {"Name": "Drama", "Score": 0.0372}]}
{"File": "file2.txt", "Labels": [{"Name": "Action", "Score": 0.9934}, {"Name": "Drama", "Score": 0.0381}, {"Name": "Action", "Score": 0.0372}]}
{"File": "file3.txt”, "Labels": [{"Name": "Romance", "Score": 0.9845}, {"Name": "Comedy", "Score": 0.8756}, {"Name": "Drama", "Score": 0.7723}, {"Name": "Science_Fiction", "Score": 0.6157}]}
```

## Output per documenti di input semistrutturati
<a name="outputs-class-async-other"></a>

Per i documenti di input semistrutturati, l'output può includere i seguenti campi aggiuntivi:
+ DocumentMetadata — Informazioni di estrazione sul documento. I metadati includono un elenco di pagine del documento, con il numero di caratteri estratti da ciascuna pagina. Questo campo è presente nella risposta se la richiesta includeva il `Byte` parametro.
+ DocumentType — Il tipo di documento per ogni pagina del documento di input. Questo campo è presente nella risposta se la richiesta includeva il `Byte` parametro.
+ Errori: errori a livello di pagina rilevati dal sistema durante l'elaborazione del documento di input. Il campo è vuoto se il sistema non ha riscontrato errori.

Per ulteriori dettagli su questi campi di output, consulta [ClassifyDocument](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_ClassifyDocument.html)*Amazon Comprehend API* Reference.

L'esempio seguente mostra l'output di un file PDF scansionato di due pagine.

```
[{ #First page output
    "Classes": [
        {
            "Name": "__label__2 ",
            "Score": 0.9993996620178223
        },
        {
            "Name": "__label__3 ",
            "Score": 0.0004330444789957255
        }
    ],
    "DocumentMetadata": {
        "PageNumber": 1,
        "Pages": 2
    },
    "DocumentType": "ScannedPDF",
    "File": "file.pdf",
    "Version": "VERSION_NUMBER"
},
#Second page output
{
    "Classes": [
        {
            "Name": "__label__2 ",
            "Score": 0.9993996620178223
        },
        {
            "Name": "__label__3 ",
            "Score": 0.0004330444789957255
        }
    ],
    "DocumentMetadata": {
        "PageNumber": 2,
        "Pages": 2
    },
    "DocumentType": "ScannedPDF",
    "File": "file.pdf",
    "Version": "VERSION_NUMBER" 
}]
```