

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Étape 3 : Formatage de la sortie d'analyse des entités sous forme de métadonnées Amazon Kendra
<a name="tutorial-search-metadata-format-output"></a>

Pour convertir les entités extraites par Amazon Comprehend au format de métadonnées requis par un index Amazon Kendra, vous devez exécuter un script Python 3. Les résultats de la conversion sont stockés dans le `metadata` dossier de votre compartiment Amazon S3.

Pour plus d'informations sur le format et la structure des métadonnées Amazon Kendra, consultez la section Métadonnées du [document S3](https://docs.aws.amazon.com/kendra/latest/dg/s3-metadata.html).

**Topics**
+ [Téléchargement et extraction de la sortie Amazon Comprehend](#tutorial-search-metadata-format-output-download-extract)
+ [Téléchargement de la sortie dans le compartiment S3](#tutorial-search-metadata-format-output-upload)
+ [Conversion de la sortie au format de métadonnées Amazon Kendra](#tutorial-search-metadata-format-output-script)
+ [Nettoyage de votre compartiment Amazon S3](#tutorial-search-metadata-format-output-cleanup)

## Téléchargement et extraction de la sortie Amazon Comprehend
<a name="tutorial-search-metadata-format-output-download-extract"></a>

Pour formater le résultat de l'analyse des entités Amazon Comprehend, vous devez d'abord télécharger l'archive d'analyse des entités Amazon Comprehend et extraire le fichier d'`output.tar.gz`analyse des entités.

### Pour télécharger et extraire le fichier de sortie (console)
<a name="tutorial-search-metadata-download-extract-console"></a>

1. Dans le volet de navigation de la console Amazon Comprehend, accédez à **Analysis** jobs.

1. Choisissez votre tâche d'analyse d'entités`data-entities-analysis`.

1. Sous **Sortie**, choisissez le lien affiché à côté de **Emplacement des données de sortie**. Cela vous redirige vers l'`output.tar.gz`archive de votre compartiment S3.

1. Dans l'onglet **Vue d'ensemble**, choisissez **Télécharger**.
**Astuce**  
Les résultats de toutes les tâches d'analyse Amazon Comprehend portent le même nom. Le fait de renommer votre archive vous permettra de la suivre plus facilement.

1. Décompressez et extrayez le fichier Amazon Comprehend téléchargé sur votre appareil.

### Pour télécharger et extraire le fichier de sortie (AWS CLI)
<a name="tutorial-search-metadata-download-extract-cli"></a>

1. Pour accéder au nom du dossier généré automatiquement par Amazon Comprehend dans votre compartiment S3 qui contient les résultats de la tâche d'analyse des entités, utilisez la commande suivante : [describe-entities-detection-job](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/comprehend/describe-entities-detection-job.html)

------
#### [ Linux ]

   ```
   aws comprehend describe-entities-detection-job \
             --job-id entities-job-id \
             --region aws-region
   ```

   Où :
   + *entities-job-id*est votre sauvegarde `comprehend-job-id` depuis[Étape 2 : Exécution d'une tâche d'analyse d'entités sur Amazon Comprehend](tutorial-search-metadata-entities-analysis.md),
   + *aws-region*est votre AWS région.

------
#### [ macOS ]

   ```
   aws comprehend describe-entities-detection-job \
             --job-id entities-job-id \
             --region aws-region
   ```

   Où :
   + *entities-job-id*est votre sauvegarde `comprehend-job-id` depuis[Étape 2 : Exécution d'une tâche d'analyse d'entités sur Amazon Comprehend](tutorial-search-metadata-entities-analysis.md),
   + *aws-region*est votre AWS région.

------
#### [ Windows ]

   ```
   aws comprehend describe-entities-detection-job ^
             --job-id entities-job-id ^
             --region aws-region
   ```

   Où :
   + *entities-job-id*est votre sauvegarde `comprehend-job-id` depuis[Étape 2 : Exécution d'une tâche d'analyse d'entités sur Amazon Comprehend](tutorial-search-metadata-entities-analysis.md),
   + *aws-region*est votre AWS région.

------

1. À partir de l'`OutputDataConfig`objet figurant dans la description de travail de votre entité, copiez et enregistrez la `S3Uri` valeur dans `comprehend-S3uri` un éditeur de texte.
**Note**  
Le format de `S3Uri` la valeur est similaire à*s3://amzn-s3-demo-bucket/.../output/output.tar.gz*.

1. Pour télécharger l'archive de sortie des entités, utilisez la commande [copy](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3/cp.html) :

------
#### [ Linux ]

   ```
   aws s3 cp s3://amzn-s3-demo-bucket/.../output/output.tar.gz path/output.tar.gz
   ```

   Où :
   + *s3://amzn-s3-demo-bucket/.../output/output.tar.gz*est la `S3Uri` valeur sous laquelle vous avez enregistré`comprehend-S3uri`,
   + *path/*est le répertoire local dans lequel vous souhaitez enregistrer la sortie.

------
#### [ macOS ]

   ```
   aws s3 cp s3://amzn-s3-demo-bucket/.../output/output.tar.gz path/output.tar.gz
   ```

   Où :
   + *s3://amzn-s3-demo-bucket/.../output/output.tar.gz*est la `S3Uri` valeur sous laquelle vous avez enregistré`comprehend-S3uri`,
   + *path/*est le répertoire local dans lequel vous souhaitez enregistrer la sortie.

------
#### [ Windows ]

   ```
   aws s3 cp s3://amzn-s3-demo-bucket/.../output/output.tar.gz path/output.tar.gz
   ```

   Où :
   + *s3://amzn-s3-demo-bucket/.../output/output.tar.gz*est la `S3Uri` valeur sous laquelle vous avez enregistré`comprehend-S3uri`,
   + *path/*est le répertoire local dans lequel vous souhaitez enregistrer la sortie.

------

1. Pour extraire la sortie des entités, exécutez la commande suivante dans une fenêtre de terminal :

------
#### [ Linux ]

   ```
   tar -xf path/output.tar.gz -C path/
   ```

   Où :
   + *path/*est le chemin d'accès à l'`output.tar.gz`archive téléchargée sur votre appareil local.

------
#### [ macOS ]

   ```
   tar -xf path/output.tar.gz -C path/
   ```

   Où :
   + *path/*est le chemin d'accès à l'`output.tar.gz`archive téléchargée sur votre appareil local.

------
#### [ Windows ]

   ```
   tar -xf path/output.tar.gz -C path/
   ```

   Où :
   + *path/*est le chemin d'accès à l'`output.tar.gz`archive téléchargée sur votre appareil local.

------

À la fin de cette étape, vous devriez avoir un fichier sur votre appareil appelé `output` contenant une liste des entités identifiées par Amazon Comprehend.

## Téléchargement de la sortie dans le compartiment S3
<a name="tutorial-search-metadata-format-output-upload"></a>

Après avoir téléchargé et extrait le fichier d'analyse des entités Amazon Comprehend, vous chargez le fichier `output` extrait dans votre compartiment Amazon S3.

### Pour télécharger le fichier de sortie Amazon Comprehend extrait (console)
<a name="tutorial-search-metadata-upload-output-console"></a>

1. Ouvrez la console Amazon S3 à l'adresse [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Dans **Buckets**, cliquez sur le nom de votre bucket, puis choisissez **Upload**.

1. Dans **Fichiers et dossiers**, choisissez **Ajouter des fichiers**.

1. Dans la boîte de dialogue, accédez au `output` fichier extrait sur votre appareil, sélectionnez-le, puis choisissez **Ouvrir**.

1. Conservez les paramètres par défaut pour la **destination**, **les autorisations** et les **propriétés**.

1. Choisissez **Charger**.

### Pour télécharger le fichier de sortie Amazon Comprehend extrait ()AWS CLI
<a name="tutorial-search-metadata-upload-output-cli"></a>

1. Pour télécharger le `output` fichier extrait dans votre bucket, utilisez la commande [copy](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3/cp.html) :

------
#### [ Linux ]

   ```
   aws s3 cp path/output s3://amzn-s3-demo-bucket/output
   ```

   Où :
   + *path/*est le chemin de fichier local vers votre fichier extrait`output`,
   + amzn-s3-demo-bucket est le nom de votre compartiment S3.

------
#### [ macOS ]

   ```
   aws s3 cp path/output s3://amzn-s3-demo-bucket/output
   ```

   Où :
   + *path/*est le chemin de fichier local vers votre fichier extrait`output`,
   + amzn-s3-demo-bucket est le nom de votre compartiment S3.

------
#### [ Windows ]

   ```
   aws s3 cp path/output s3://amzn-s3-demo-bucket/output
   ```

   Où :
   + *path/*est le chemin de fichier local vers votre fichier extrait`output`,
   + amzn-s3-demo-bucket est le nom de votre compartiment S3.

------

1. Pour vous assurer que le `output` fichier a bien été chargé dans votre compartiment S3, vérifiez son contenu à l'aide de la commande [list](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3/ls.html) :

------
#### [ Linux ]

   ```
   aws s3 ls s3://amzn-s3-demo-bucket/
   ```

   Où :
   + amzn-s3-demo-bucket est le nom de votre compartiment S3.

------
#### [ macOS ]

   ```
   aws s3 ls s3://amzn-s3-demo-bucket/
   ```

   Où :
   + amzn-s3-demo-bucket est le nom de votre compartiment S3.

------
#### [ Windows ]

   ```
   aws s3 ls s3://amzn-s3-demo-bucket/
   ```

   Où :
   + amzn-s3-demo-bucket est le nom de votre compartiment S3.

------

## Conversion de la sortie au format de métadonnées Amazon Kendra
<a name="tutorial-search-metadata-format-output-script"></a>

Pour convertir la sortie Amazon Comprehend en métadonnées Amazon Kendra, vous devez exécuter un script Python 3. Si vous utilisez la console, utilisez AWS CloudShell pour cette étape.

### Pour exécuter le script Python 3 (console)
<a name="tutorial-search-metadata-format-output-console"></a>

1. Téléchargez le fichier compressé [.py.zip du convertisseur](https://docs.aws.amazon.com/kendra/latest/dg/samples/converter.py.zip) sur votre appareil.

1. Extrayez le fichier Python 3`converter.py`.

1. Connectez-vous à la [console AWS de gestion](https://aws.amazon.com/console/) et assurez-vous que votre AWS région est définie sur la même région que votre compartiment S3 et votre tâche d'analyse Amazon Comprehend.

1. Cliquez sur l'**AWS CloudShell icône** ou saisissez du **AWS CloudShell**texte dans la zone de **recherche** de la barre de navigation supérieure pour lancer un environnement.
**Note**  
Lors du premier AWS CloudShell lancement dans une nouvelle fenêtre de navigateur, un panneau de bienvenue s'affiche et répertorie les principales fonctionnalités. Le shell est prêt à interagir une fois que vous avez fermé ce panneau et que l'invite de commande s'affiche.

1. Une fois le terminal préparé, choisissez **Actions** dans le volet de navigation, puis choisissez **Télécharger le fichier** dans le menu.

1. Dans la boîte de dialogue qui s'ouvre, choisissez **Sélectionner un fichier**, puis choisissez le fichier `converter.py` Python 3 téléchargé sur votre appareil. Choisissez **Charger**.

1. Dans l' AWS CloudShell environnement, entrez la commande suivante :

   ```
   python3 converter.py
   ```

1. Lorsque l'interface shell vous invite à **saisir le nom de votre compartiment S3**, entrez le nom de votre compartiment S3 et appuyez sur Entrée.

1. Lorsque l'interface shell vous invite à **entrer le chemin de fichier complet vers votre fichier de sortie Comprehend**, entrez et appuyez sur Entrée. **output**

1. Lorsque l'interface shell vous invite à **saisir le chemin de fichier complet de votre dossier de métadonnées**, entrez **metadata/** et appuyez sur Entrée.

**Important**  
Pour que les métadonnées soient correctement formatées, les valeurs d'entrée des étapes 8 à 10 doivent être exactes.

### Pour exécuter le script Python 3 (AWS CLI)
<a name="tutorial-search-metadata-format-output-cli"></a>

1. Pour télécharger le fichier Python 3`converter.py`, exécutez la commande suivante dans une fenêtre de terminal :

------
#### [ Linux ]

   ```
   curl -o path/converter.py.zip https://docs.aws.amazon.com/kendra/latest/dg/samples/converter.py.zip
   ```

   Où :
   + *path/*est le chemin du fichier vers l'emplacement dans lequel vous souhaitez enregistrer le fichier compressé.

------
#### [ macOS ]

   ```
   curl -o path/converter.py.zip https://docs.aws.amazon.com/kendra/latest/dg/samples/converter.py.zip
   ```

   Où :
   + *path/*est le chemin du fichier vers l'emplacement dans lequel vous souhaitez enregistrer le fichier compressé.

------
#### [ Windows ]

   ```
   curl -o path/converter.py.zip https://docs.aws.amazon.com/kendra/latest/dg/samples/converter.py.zip
   ```

   Où :
   + *path/*est le chemin du fichier vers l'emplacement dans lequel vous souhaitez enregistrer le fichier compressé.

------

1. Pour extraire le fichier Python 3, exécutez la commande suivante dans la fenêtre du terminal :

------
#### [ Linux ]

   ```
   unzip path/converter.py.zip -d path/
   ```

   Où :
   + *path/*est le chemin du fichier enregistré. `converter.py.zip`

------
#### [ macOS ]

   ```
   unzip path/converter.py.zip -d path/
   ```

   Où :
   + *path/*est le chemin du fichier enregistré. `converter.py.zip`

------
#### [ Windows ]

   ```
   tar -xf path/converter.py.zip -C path/
   ```

   Où :
   + *path/*est le chemin du fichier enregistré. `converter.py.zip`

------

1. Assurez-vous que Boto3 est installé sur votre appareil en exécutant la commande suivante.

------
#### [ Linux ]

   ```
   pip3 show boto3
   ```

------
#### [ macOS ]

   ```
   pip3 show boto3
   ```

------
#### [ Windows ]

   ```
   pip3 show boto3
   ```

------
**Note**  
Si Boto3 n'est pas installé, lancez-vous `pip3 install boto3` pour l'installer.

1. Pour exécuter le script Python 3 afin de convertir le `output` fichier, exécutez la commande suivante.

------
#### [ Linux ]

   ```
   python path/converter.py
   ```

   Où :
   + *path/*est le chemin du fichier enregistré. `converter.py.zip`

------
#### [ macOS ]

   ```
   python path/converter.py
   ```

   Où :
   + *path/*est le chemin du fichier enregistré. `converter.py.zip`

------
#### [ Windows ]

   ```
   python path/converter.py
   ```

   Où :
   + *path/*est le chemin du fichier enregistré. `converter.py.zip`

------

1. Lorsque vous y AWS CLI êtes invité`Enter the name of your S3 bucket`, entrez le nom de votre compartiment S3 et appuyez sur Entrée.

1. Lorsque vous y AWS CLI êtes invité`Enter the full filepath to your Comprehend output file`, entrez **output** et appuyez sur Entrée.

1. Lorsque vous y AWS CLI êtes invité`Enter the full filepath to your metadata folder`, entrez **metadata/** et appuyez sur Entrée.

**Important**  
Pour que les métadonnées soient correctement formatées, les valeurs d'entrée des étapes 5 à 7 doivent être exactes.

À la fin de cette étape, les métadonnées formatées sont déposées dans le `metadata` dossier de votre compartiment S3.

## Nettoyage de votre compartiment Amazon S3
<a name="tutorial-search-metadata-format-output-cleanup"></a>

Étant donné que l'index Amazon Kendra synchronise tous les fichiers stockés dans un compartiment, nous vous recommandons de nettoyer votre compartiment Amazon S3 pour éviter les résultats de recherche redondants.

### Pour nettoyer votre compartiment Amazon S3 (console)
<a name="tutorial-search-metadata-cleanup-bucket-console"></a>

1. Ouvrez la console Amazon S3 à l'adresse [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Dans **Buckets**, choisissez votre compartiment, puis sélectionnez le dossier de sortie de l'analyse des entités Amazon Comprehend, le fichier d'analyse des entités `.temp` Amazon Comprehend et le fichier Amazon Comprehend extrait. `output`

1. Dans l'onglet **Vue d'ensemble**, choisissez **Supprimer**.

1. Dans **Supprimer des objets**, sélectionnez **Supprimer définitivement des objets ?** et entrez **permanently delete** dans le champ de saisie de texte.

1. Choisissez **Supprimer les objets**.

### Pour nettoyer votre compartiment Amazon S3 (AWS CLI)
<a name="tutorial-search-metadata-cleanup-bucket-cli"></a>

1. Pour supprimer tous les fichiers et dossiers de votre compartiment S3 à l'exception `metadata` des dossiers `data` et, utilisez la commande [remove](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3/rm.html) dans le AWS CLI :

------
#### [ Linux ]

   ```
   aws s3 rm s3://amzn-s3-demo-bucket/ --recursive --exclude "data/*" --exclude "metadata/*"
   ```

   Où :
   + amzn-s3-demo-bucket est le nom de votre compartiment S3.

------
#### [ macOS ]

   ```
   aws s3 rm s3://amzn-s3-demo-bucket/ --recursive --exclude "data/*" --exclude "metadata/*"
   ```

   Où :
   + amzn-s3-demo-bucket est le nom de votre compartiment S3.

------
#### [ Windows ]

   ```
   aws s3 rm s3://amzn-s3-demo-bucket/ --recursive --exclude "data/*" --exclude "metadata/*"
   ```

   Où :
   + amzn-s3-demo-bucket est le nom de votre compartiment S3.

------

1. Pour vous assurer que les objets ont bien été supprimés de votre compartiment S3, vérifiez son contenu à l'aide de la commande [list](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3/ls.html) :

------
#### [ Linux ]

   ```
   aws s3 ls s3://amzn-s3-demo-bucket/
   ```

   Où :
   + amzn-s3-demo-bucket est le nom de votre compartiment S3.

------
#### [ macOS ]

   ```
   aws s3 ls s3://amzn-s3-demo-bucket/
   ```

   Où :
   + amzn-s3-demo-bucket est le nom de votre compartiment S3.

------
#### [ Windows ]

   ```
   aws s3 ls s3://amzn-s3-demo-bucket/
   ```

   Où :
   + amzn-s3-demo-bucket est le nom de votre compartiment S3.

------

À la fin de cette étape, vous avez converti les résultats de l'analyse des entités Amazon Comprehend en métadonnées Amazon Kendra. Vous êtes maintenant prêt à créer un index Amazon Kendra.