

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Étiquetage des vidéos et des trames vidéo
<a name="sms-video"></a>

Vous pouvez utiliser Ground Truth pour classer les vidéos et annoter les trames vidéo (images fixes extraites de vidéos) à l’aide de l’un des trois types de tâches vidéo intégrés. Ces types de tâches rationalisent le processus de création de tâches d'étiquetage de vidéos et d'images vidéo à l'aide de la console Amazon SageMaker AI, de l'API et d'une langue spécifique SDKs. 
+ Classification des clips vidéo – Permet aux employés de classer les vidéos dans les catégories que vous spécifiez. Par exemple, vous pouvez utiliser ce type de tâche pour que les employés classent les vidéos dans des rubriques telles que le sport, la comédie, la musique et l’éducation. Pour en savoir plus, consultez [Classification des vidéos](sms-video-classification.md).
+ Travaux d’étiquetage de trames vidéo : permet aux employés d’annoter des trames vidéo extraites d’une vidéo en utilisant les outils d’annotation de cadres de délimitation, de polylignes, de polygones ou de points clés. Ground Truth propose deux types de tâches intégrés pour étiqueter les trames vidéo :
  + *Détection d’objets dans les trames vidéo* : permet aux employés d’identifier et de localiser des objets dans des trames vidéo. 
  + *Suivi d’objets dans les trames vidéo* : permet aux employés de suivre le mouvement des objets à travers les trames vidéo.
  + *Tâches d’ajustement de trame vidéo* : charge les employés d’ajuster les étiquettes, les attributs de catégorie d’étiquette et les attributs de trame à partir d’une tâche précédente d’étiquetage de détection ou de suivi d’objet de trame vidéo.
  + *Tâches de vérification de trame vidéo* : Charge les employés de vérifier les étiquettes, les attributs de catégorie d’étiquette et les attributs de trame d’une tâche précédente d’étiquetage de détection ou de suivi d’objet de trame vidéo.

  Si vous avez des fichiers vidéo, vous pouvez utiliser l’outil d’extraction automatique des trames de Ground Truth pour extraire les trames de vos vidéos. Pour en savoir plus, consultez [Données source de trame vidéo](sms-video-frame-input-data-overview.md).

**Astuce**  
Pour en savoir plus sur les types de fichiers pris en charge et les quotas de données d’entrée, consultez [Données d’entrée](sms-data-input.md).

**Topics**
+ [

# Classification des vidéos
](sms-video-classification.md)
+ [

# Trames vidéo
](sms-video-task-types.md)
+ [

# Instructions de travail
](sms-video-worker-instructions.md)

# Classification des vidéos
<a name="sms-video-classification"></a>

Utilisez une tâche d'étiquetage de classification des vidéos Amazon SageMaker Ground Truth lorsque vous avez besoin de collaborateurs pour classer les vidéos à l'aide d'étiquettes prédéfinies que vous spécifiez. Des vidéos sont présentées aux employés et il leur est demandé de choisir une étiquette pour chaque vidéo. Vous créez une tâche d'étiquetage de classification vidéo à l'aide de la section Ground Truth de la console Amazon SageMaker AI ou de l'[CreateLabelingJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)opération. 

Vos fichiers vidéo doivent être encodés dans un format pris en charge par le navigateur utilisé par l’équipe de travail qui étiquette vos données. Il est recommandé de vérifier que tous les formats de fichiers vidéo de votre fichier manifeste source s’affichent correctement en utilisant la prévisualisation de l’interface utilisateur employé. Vous pouvez indiquer les navigateurs pris en charge à vos employés en utilisant les instructions pour les employés. Pour voir les formats de fichiers pris en charge, consultez [Formats de données pris en charge](sms-supported-data-formats.md).

**Important**  
Pour ce type de tâche, si vous créez votre propre fichier manifeste, utilisez `"source-ref"` pour identifier l’emplacement dans Amazon S3 de chaque fichier vidéo que vous souhaitez étiqueter. Pour de plus amples informations, veuillez consulter [Données d’entrée](sms-data-input.md).



## Créer une tâche d’étiquetage de classification vidéo (Console)
<a name="sms-creating-video-classification-console"></a>

Vous pouvez suivre les instructions ci-dessous [Création d’une tâche d’étiquetage (Console)](sms-create-labeling-job-console.md) pour savoir comment créer une tâche d'étiquetage de classification vidéo dans la console SageMaker AI. À l’étape 10, choisissez **Vidéo** dans la liste déroulante **Catégorie de tâches**, puis choisissez **Classification vidéo** comme type de tâche. 

Ground Truth fournit une interface utilisateur employé similaire à la suivante pour l’étiquetage des tâches. Lorsque vous créez une tâche d’étiquetage dans la console, vous spécifiez des instructions pour aider les employés à effectuer la tâche et des étiquettes parmi lesquelles les employés peuvent choisir. 

![\[Gif montrant comment créer une tâche d'étiquetage de classification vidéo dans la console SageMaker AI.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/vid_classification.gif)


## Créer une tâche d’étiquetage de classification vidéo (API)
<a name="sms-creating-video-classification-api"></a>

Cette section présente les détails que vous devez connaître lorsque vous créez une tâche d'étiquetage à l'aide de l'opération d'API SageMaker `CreateLabelingJob`. Cette API définit cette opération pour tous AWS SDKs. Pour consulter la liste des langues spécifiques prises SDKs en charge pour cette opération, consultez la section **Voir aussi** de. [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)

Suivez les instructions présentées dans [Création d’une tâche d’étiquetage (API)](sms-create-labeling-job-api.md) et procédez comme suit pour configurer votre demande : 
+ Utilisez une fonction Lambda de pré-annotation qui se termine par `PRE-VideoClassification`. Pour trouver l'ARN Lambda préalable à l'annotation pour votre région [PreHumanTaskLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/dg/API_HumanTaskConfig.html#SageMaker-Type-HumanTaskConfig-PreHumanTaskLambdaArn), consultez. 
+ Utilisez une fonction Lambda de consolidation d’annotations qui se termine par `ACS-VideoClassification`. Pour trouver l'ARN Lambda de consolidation des annotations pour votre région, consultez. [AnnotationConsolidationLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/dg/API_AnnotationConsolidationConfig.html#SageMaker-Type-AnnotationConsolidationConfig-AnnotationConsolidationLambdaArn) 

Voici un exemple de [requête du kit SDK AWS Python (Boto3)](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html#SageMaker.Client.create_labeling_job) pour créer une tâche d’étiquetage dans la région USA Est (Virginie du Nord). 

```
response = client.create_labeling_job(
    LabelingJobName='example-video-classification-labeling-job,
    LabelAttributeName='label',
    InputConfig={
        'DataSource': {
            'S3DataSource': {
                'ManifestS3Uri': 's3://bucket/path/manifest-with-input-data.json'
            }
        },
        'DataAttributes': {
            'ContentClassifiers': [
                'FreeOfPersonallyIdentifiableInformation'|'FreeOfAdultContent',
            ]
        }
    },
    OutputConfig={
        'S3OutputPath': 's3://bucket/path/file-to-store-output-data',
        'KmsKeyId': 'string'
    },
    RoleArn='arn:aws:iam::*:role/*,
    LabelCategoryConfigS3Uri='s3://bucket/path/label-categories.json',
    StoppingConditions={
        'MaxHumanLabeledObjectCount': 123,
        'MaxPercentageOfInputDatasetLabeled': 123
    },
    HumanTaskConfig={
        'WorkteamArn': 'arn:aws:sagemaker:region:*:workteam/private-crowd/*',
        'UiConfig': {
            'UiTemplateS3Uri': 's3://bucket/path/worker-task-template.html'
        },
        'PreHumanTaskLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:PRE-VideoClassification',
        'TaskKeywords': [
            'Video Classification',
        ],
        'TaskTitle': 'Video classification task',
        'TaskDescription': 'Select a label to classify this video',
        'NumberOfHumanWorkersPerDataObject': 123,
        'TaskTimeLimitInSeconds': 123,
        'TaskAvailabilityLifetimeInSeconds': 123,
        'MaxConcurrentTaskCount': 123,
        'AnnotationConsolidationConfig': {
            'AnnotationConsolidationLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:ACS-VideoClassification'
        },
    Tags=[
        {
            'Key': 'string',
            'Value': 'string'
        },
    ]
)
```

### Fournir un modèle pour la classification des vidéos
<a name="sms-custom-template-video-classification"></a>

Si vous créez une tâche d’étiquetage à l’aide de l’API, vous devez fournir un modèle de tâche d’employé dans `UiTemplateS3Uri`. Copiez et modifiez le modèle suivant en modifiant `short-instructions`, `full-instructions` et `header`. Téléchargez ce modèle vers Amazon S3, et fournissez l’URI Amazon S3 de ce fichier dans `UiTemplateS3Uri`.

```
<script src="https://assets.crowd.aws/crowd-html-elements.js"></script>

              <crowd-form>
                  <crowd-classifier
                    name="crowd-classifier"
                    categories="{{ task.input.labels | to_json | escape }}"
                    header="Please classify video"
                  >
                    <classification-target>
                       <video width="100%" controls/>
                        <source src="{{ task.input.taskObject | grant_read_access }}" type="video/mp4"/>
                        <source src="{{ task.input.taskObject | grant_read_access }}" type="video/webm"/>
                        <source src="{{ task.input.taskObject | grant_read_access }}" type="video/ogg"/>
                      Your browser does not support the video tag.
                      </video>
                    </classification-target>
                    <full-instructions header="Video classification instructions">
                      <ol><li><strong>Read</strong> the task carefully and inspect the video.</li>
                        <li><strong>Read</strong> the options and review the examples provided to understand more about the labels.</li>
                        <li><strong>Choose</strong> the appropriate label that best suits the video.</li></ol>
                    </full-instructions>
                    <short-instructions>
                      <h3><span style="color: rgb(0, 138, 0);">Good example</span></h3>
                        <p>Enter description to explain the correct label to the workers</p>
                        <p><img src="https://d7evko5405gb7.cloudfront.net/fe4fed9b-660c-4477-9294-2c66a15d6bbe/src/images/quick-instructions-example-placeholder.png" style="max-width:100%"></p>
                        <h3><span style="color: rgb(230, 0, 0);">Bad example</span></h3>
                        <p>Enter description of an incorrect label</p>
                        <p><img src="https://d7evko5405gb7.cloudfront.net/fe4fed9b-660c-4477-9294-2c66a15d6bbe/src/images/quick-instructions-example-placeholder.png" style="max-width:100%"></p>
                    </short-instructions>
                  </crowd-classifier>
              </crowd-form>
```

## Données de sortie de classification vidéo
<a name="sms-vido-classification-output-data"></a>

Une fois que vous avez créé une tâche d’étiquetage de classification vidéo, vos données de sortie seront situées dans le compartiment Amazon S3 spécifié dans le paramètre `S3OutputPath` lorsque vous utilisez l’API ou dans le champ **Output dataset location (Emplacement du jeu de données de sortie)** de la section **Job overview (Présentation de la tâche)** de la console. 

Pour en savoir plus sur le fichier manifeste de sortie généré par Ground Truth et sur la structure de fichier que ce dernier utilise pour stocker vos données de sortie, consultez [Étiquetage des données de sortie des tâches](sms-data-output.md). 

Pour accéder à un exemple de fichiers manifestes en sortie pour la tâche d’étiquetage de classification vidéo, consultez [Sortie de la tâche de classification](sms-data-output.md#sms-output-class).

 

# Trames vidéo
<a name="sms-video-task-types"></a>

Vous pouvez utiliser les types de tâches de trame vidéo intégrés à Ground Truth pour que les employés annotent les trames vidéo en utilisant des cadres de délimitation, des polylignes, des polygones ou des points clés. Une *trame vidéo* est une séquence d’images qui ont été extraites d’une vidéo.

Si vous n'avez pas d'images vidéo, vous pouvez fournir des fichiers vidéo (MP4 fichiers) et utiliser l'outil d'extraction automatique d'images Ground Truth pour extraire des images vidéo. Pour en savoir plus, veuillez consulter la section [Fournir des fichiers vidéo](sms-point-cloud-video-input-data.md#sms-point-cloud-video-frame-extraction).

Vous pouvez utiliser les types de tâches vidéo intégrés suivants pour créer des tâches d'étiquetage d'images vidéo à l'aide de la console Amazon SageMaker AI, de l'API et d'une langue spécifique SDKs.
+ **Détection d’objets dans les trames vidéo** : utilisez ce type de tâche lorsque vous souhaitez que les employés identifient et localisent des objets dans des séquences de trames vidéo. Vous fournissez une liste de catégories, et les employés peuvent sélectionner une catégorie à la fois et annoter les objets auxquels la catégorie s’applique dans toutes les trames. Par exemple, vous pouvez utiliser cette tâche pour demander aux employés d’identifier et de localiser divers objets dans une scène, tels que des voitures, des vélos et des piétons.
+ **Suivi d’objets dans les trames vidéo** : utilisez ce type de tâche lorsque vous souhaitez que les employés suivent le mouvement d’instances d’objets dans des séquences de trames vidéo. Lorsqu’un employé ajoute une annotation à une trame unique, cette annotation est associée à un ID d’instance unique. L’employé ajoute des annotations associées au même ID dans toutes les autres trames pour identifier le même objet ou la même personne. Par exemple, un employé peut suivre le mouvement d’un véhicule dans une séquence de trames vidéo en dessinant des cadres de délimitation associées au même ID autour du véhicule dans chaque trame où il apparaît. 

Les rubriques suivantes vous permettront d’en savoir plus sur ces types de tâches intégrées et sur la façon de créer une tâche d’étiquetage à l’aide de chaque type de tâche. Consultez [Types de tâche](sms-video-overview.md#sms-video-frame-tools) pour en savoir plus sur les outils d’annotation (cadres de délimitation, polylignes, polygones et points clés) disponibles pour ces types de tâches.

Avant de créer une tâche d’étiquetage, nous vous recommandons de lire [Référence de tâches d’étiquetage des trames vidéo](sms-video-overview.md).

**Topics**
+ [

# Identifiez les objets à l’aide de la détection d’objets par trame vidéo
](sms-video-object-detection.md)
+ [

# Suivez des objets dans des trames vidéo à l’aide du suivi d’objets trame vidéo
](sms-video-object-tracking.md)
+ [

# Référence de tâches d’étiquetage des trames vidéo
](sms-video-overview.md)

# Identifiez les objets à l’aide de la détection d’objets par trame vidéo
<a name="sms-video-object-detection"></a>

Vous pouvez utiliser le type de tâche Détection d’objets dans une trame vidéo pour que les employés identifient et localisent des objets dans une séquence de trames vidéo (images extraites d’une vidéo) en utilisant les *outils d’annotation* de cadres de délimitation, de polylignes, de polygones ou de points clés. L’outil que vous choisissez définit le type de tâche de la trame vidéo que vous créez. Par exemple, vous pouvez utiliser une tâche de type détection d’objet de trame vidéo de cadre de délimitation pour identifier et localiser divers objets dans une série de trames vidéo, tels que des voitures, des vélos et des piétons. Vous pouvez créer une tâche d'étiquetage d'objets pour la détection d'images vidéo à l'aide de la console Amazon SageMaker AI Ground Truth, de l' SageMaker API et d'une langue spécifique AWS SDKs. Pour en savoir plus, consultez [Créer une tâche d’étiquetage de détection d’objets dans une trame vidéo](#sms-video-od-create-labeling-job) et sélectionnez votre méthode préférée. Consultez [Types de tâche](sms-video-overview.md#sms-video-frame-tools) pour en savoir plus sur les outils d’annotations que vous pouvez choisir lorsque vous créez une tâche d’étiquetage.

Ground Truth fournit une interface utilisateur employé et des outils pour effectuer vos tâches d’étiquetage : [Prévisualisation de l’interface utilisateur employé](#sms-video-od-worker-ui).

Vous pouvez créer une tâche pour ajuster les annotations créées dans une tâche d’étiquetage de détection d’objet vidéo à l’aide du type de tâche d’ajustement de détection d’objet vidéo. Pour en savoir plus, consultez [Créer une tâche d’étiquetage de détection d’objet de trame vidéo, d’ajustement ou de vérification](#sms-video-od-adjustment).

## Prévisualisation de l’interface utilisateur employé
<a name="sms-video-od-worker-ui"></a>

Ground Truth fournit aux employés une interface utilisateur (UI) Web pour effectuer vos tâches d’annotation de détection d’objets dans les trames vidéo. Vous pouvez prévisualiser l’interface utilisateur de travail et interagir avec cette dernière lorsque vous créez une tâche d’étiquetage dans la console. Si vous êtes un nouvel utilisateur, nous vous recommandons de créer une tâche d’étiquetage via la console en utilisant un petit jeu de données d’entrée afin de prévisualiser l’interface utilisateur employé et de vous assurer que vos trames vidéo, vos étiquettes et vos attributs d’étiquette apparaissent comme prévu. 

L’interface utilisateur fournit aux employés les outils d’étiquetage d’assistance suivants pour mener à bien vos tâches de détection d’objets :
+ Pour toutes les tâches, les employés peuvent utiliser les fonctions **Copier vers la suivante** et **Copier vers toutes** pour copier une annotation respectivement vers la trame suivante ou vers toutes les trames suivantes respectivement. 
+ Pour les tâches qui incluent les outils de cadre de délimitation, les employés peuvent utiliser la fonctionnalité **Prédire la suivante** pour dessiner un cadre de délimitation dans une seule trame, puis faire en sorte que Ground Truth prédise l’emplacement des zones ayant la même étiquette dans toutes les autres trames. Les employés peuvent alors faire des ajustements pour corriger les emplacements prédits des zones. 

La vidéo suivante montre comment un employé peut utiliser l’interface utilisateur employé avec l’outil de cadre de délimitation pour effectuer vos tâches de détection d’objets.

![\[Gif montrant comment un employé peut utiliser l’outil de cadre de délimitation pour ses tâches de détection d’objets.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/kitti-od-general-labeling-job.gif)


## Créer une tâche d’étiquetage de détection d’objets dans une trame vidéo
<a name="sms-video-od-create-labeling-job"></a>

Vous pouvez créer une tâche d'étiquetage d'objets de détection d'images vidéo à l'aide de la console SageMaker AI ou de l'opération [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)API. 

Cette section suppose que vous avez consulté [Référence de tâches d’étiquetage des trames vidéo](sms-video-overview.md) et avez choisi le type de données d’entrée et la connexion du jeu de données d’entrée que vous utilisez. 

### Création d’une tâche d’étiquetage (Console)
<a name="sms-video-od-create-labeling-job-console"></a>

Vous pouvez suivre les instructions ci-dessous [Création d’une tâche d’étiquetage (Console)](sms-create-labeling-job-console.md) pour savoir comment créer une tâche de suivi d'objets d'images vidéo dans la console SageMaker AI. À l’étape 10, choisissez **Vidéo - Détection d’objets** dans la liste déroulante **Catégorie de tâches**. Sélectionnez le type de tâche souhaité en sélectionnant l’une des fiches dans **Task selection (Sélection des tâches)**.

![\[Gif montrant comment créer une tâche de suivi d'objets d'images vidéo dans la console SageMaker AI.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/task-type-vod.gif)


### Création d’une tâche d’étiquetage (API)
<a name="sms-video-od-create-labeling-job-api"></a>

Vous créez une tâche d'étiquetage pour la détection d'objets à l'aide de l'opération SageMaker API`CreateLabelingJob`. Cette API définit cette opération pour tous AWS SDKs. Pour consulter la liste des langues spécifiques prises SDKs en charge pour cette opération, consultez la section **Voir aussi** de. [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html) 

[Création d’une tâche d’étiquetage (API)](sms-create-labeling-job-api.md) fournit une présentation de l’opération `CreateLabelingJob`. Suivez ces instructions et procédez comme suit pour configurer votre demande : 
+ Vous devez entrer un ARN pour `HumanTaskUiArn`. Utilisez `arn:aws:sagemaker:<region>:394669845002:human-task-ui/VideoObjectDetection`. Remplacez `<region>` par la région AWS dans laquelle vous créez la tâche d’étiquetage. 

  N’incluez pas de source pour le paramètre `UiTemplateS3Uri`. 
+ Votre élément [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html#sagemaker-CreateLabelingJob-request-LabelAttributeName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html#sagemaker-CreateLabelingJob-request-LabelAttributeName) doit se terminer par `-ref`. Par exemple, `video-od-labels-ref`. 
+ Votre fichier manifeste source doit être un fichier manifeste de séquence de trames vidéo. Vous pouvez créer ce fichier manifeste à l'aide de la console SageMaker AI ou le créer manuellement et le télécharger sur Amazon S3. Pour de plus amples informations, veuillez consulter [Configuration des données d’entrée](sms-video-data-setup.md). 
+ Vous ne pouvez utiliser que des équipes privées ou de fournisseurs pour créer des tâches d’étiquetage d’objets de détection de trame vidéo. 
+ Vous spécifiez vos étiquettes, les attributs de la catégorie d’étiquette et de trame, le type de tâche et les instructions de l’employé dans un fichier de configuration de la catégorie d’étiquette. Spécifiez le type de tâche (cadres de délimitation, polylignes, polygones ou points clés) à l’aide de `annotationType` dans le fichier de configuration de votre catégorie d’étiquette. Pour plus d’informations, consultez [Étiquetage d’un fichier de configuration de catégorie d’étiquetage avec la référence d’attributs de catégorie d’étiquette et de trame](sms-label-cat-config-attributes.md) pour savoir comment créer ce fichier. 
+ Vous devez fournir des fonctions Lambda prédéfinies ARNs pour les fonctions Lambda de pré-annotation et de post-annotation (ACS). Elles ARNs sont spécifiques à la AWS région que vous utilisez pour créer votre tâche d'étiquetage. 
  + Pour trouver l’ARN Lambda de pré-annotation, consultez [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_HumanTaskConfig.html#sagemaker-Type-HumanTaskConfig-PreHumanTaskLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_HumanTaskConfig.html#sagemaker-Type-HumanTaskConfig-PreHumanTaskLambdaArn). Utilisez la région dans laquelle vous créez votre tâche d’étiquetage pour trouver l’ARN correct qui se termine par `PRE-VideoObjectDetection`. 
  + Pour trouver l’ARN Lambda de post-annotation, consultez [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AnnotationConsolidationConfig.html#sagemaker-Type-AnnotationConsolidationConfig-AnnotationConsolidationLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AnnotationConsolidationConfig.html#sagemaker-Type-AnnotationConsolidationConfig-AnnotationConsolidationLambdaArn). Utilisez la région dans laquelle vous créez votre tâche d'étiquetage pour trouver l'ARN correct qui se termine par `ACS-VideoObjectDetection`. 
+ Le nombre de collaborateurs spécifié dans `NumberOfHumanWorkersPerDataObject` doit être `1`. 
+ L’étiquetage automatisé des données n’est pas pris en charge pour les tâches d’étiquetage de trame vidéo. Vous ne devez pas spécifier de valeurs pour les paramètres dans `[LabelingJobAlgorithmsConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html#sagemaker-CreateLabelingJob-request-LabelingJobAlgorithmsConfig)`. 
+ Les tâches d’étiquetage de suivi d’objet de trame vidéo peuvent prendre plusieurs heures. Vous pouvez spécifier une durée plus longue pour ces tâches d’étiquetage dans `TaskTimeLimitInSeconds` (jusqu’à 7 jours ou 604 800 secondes). 

Voici un exemple de [requête du kit SDK AWS Python (Boto3)](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html#SageMaker.Client.create_labeling_job) pour créer une tâche d’étiquetage dans la région USA Est (Virginie du Nord). 

```
response = client.create_labeling_job(
    LabelingJobName='example-video-od-labeling-job,
    LabelAttributeName='label',
    InputConfig={
        'DataSource': {
            'S3DataSource': {
                'ManifestS3Uri': 's3://amzn-s3-demo-bucket/path/video-frame-sequence-input-manifest.json'
            }
        },
        'DataAttributes': {
            'ContentClassifiers': [
                'FreeOfPersonallyIdentifiableInformation'|'FreeOfAdultContent',
            ]
        }
    },
    OutputConfig={
        'S3OutputPath': 's3://amzn-s3-demo-bucket/prefix/file-to-store-output-data',
        'KmsKeyId': 'string'
    },
    RoleArn='arn:aws:iam::*:role/*,
    LabelCategoryConfigS3Uri='s3://bucket/prefix/label-categories.json',
    StoppingConditions={
        'MaxHumanLabeledObjectCount': 123,
        'MaxPercentageOfInputDatasetLabeled': 123
    },
    HumanTaskConfig={
        'WorkteamArn': 'arn:aws:sagemaker:us-east-1:*:workteam/private-crowd/*',
        'UiConfig': {
            'HumanTaskUiArn: 'arn:aws:sagemaker:us-east-1:394669845002:human-task-ui/VideoObjectDetection'
        },
        'PreHumanTaskLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:PRE-VideoObjectDetection',
        'TaskKeywords': [
            'Video Frame Object Detection',
        ],
        'TaskTitle': 'Video frame object detection task',
        'TaskDescription': 'Classify and identify the location of objects and people in video frames',
        'NumberOfHumanWorkersPerDataObject': 123,
        'TaskTimeLimitInSeconds': 123,
        'TaskAvailabilityLifetimeInSeconds': 123,
        'MaxConcurrentTaskCount': 123,
        'AnnotationConsolidationConfig': {
            'AnnotationConsolidationLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:ACS-VideoObjectDetection'
        },
    Tags=[
        {
            'Key': 'string',
            'Value': 'string'
        },
    ]
)
```

## Créer une tâche d’étiquetage de détection d’objet de trame vidéo, d’ajustement ou de vérification
<a name="sms-video-od-adjustment"></a>

Vous pouvez créer une tâche d’étiquetage d’ajustement et de vérification en utilisant la console Ground Truth ou l’API `CreateLabelingJob`. Pour en savoir plus sur les tâches d’étiquetage d’ajustement et de vérification, et pour apprendre à en créer une, consultez [Vérification et ajustement de l’étiquette](sms-verification-data.md).

## Format des données en sortie
<a name="sms-video-od-output-data"></a>

Lorsque vous créez une tâche d’étiquetage pour la détection d’objets dans une trame vidéo, les tâches sont envoyées aux employés. Lorsque ces employés terminent leurs tâches, les étiquettes sont écrites dans l’emplacement de sortie Amazon S3 que vous avez spécifié lorsque vous avez créé la tâche d’étiquetage. Pour en apprendre davantage sur le format des données de sortie de la détection d’objets dans les trames vidéo, consultez [Fichier de sortie de détection d’objet de trame vidéo](sms-data-output.md#sms-output-video-object-detection). Si vous êtes un nouvel utilisateur de Ground Truth, consultez [Étiquetage des données de sortie des tâches](sms-data-output.md) pour en savoir plus sur le format des données de sortie de Ground Truth. 

# Suivez des objets dans des trames vidéo à l’aide du suivi d’objets trame vidéo
<a name="sms-video-object-tracking"></a>

Vous pouvez utiliser le type de tâche de suivi d’objets dans les trames vidéo pour que les employés suivent le mouvement des objets dans une séquence de trames vidéo (images extraites d’une vidéo) en utilisant les *outils d’annotation* de cadres de délimitation, de polylignes, de polygones ou de points clés. L'outil que vous choisissez définit le type de tâche de la trame vidéo que vous créez. Par exemple, vous pouvez utiliser un type de tâche de suivi d’objets dans les trames vidéo par cadre de délimitation pour demander aux employés de suivre le mouvement d’objets, tels que des voitures, des vélos et des piétons, en dessinant des zones autour d’eux. 

Vous fournissez une liste de catégories, et chaque annotation qu’un employé ajoute à une trame vidéo est identifiée comme une *instance* de cette catégorie à l’aide d’un ID d’instance. Par exemple, si vous fournissez l’étiquette catégorie voiture, la première voiture qu’un employé annote aura l’ID d’instance voiture:1. La deuxième voiture annotée par l’employé aura l’ID d’instance voiture:2. Pour suivre le mouvement d’un objet, l’employé ajoute des annotations associées à la même instance ID autour de l’objet dans toutes les trames. 

Vous pouvez créer une tâche d'étiquetage d'objets pour le suivi d'images vidéo à l'aide de la console Amazon SageMaker AI Ground Truth, de l' SageMaker API et d'une langue spécifique AWS SDKs. Pour en savoir plus, consultez [Créer une tâche d’étiquetage de détection d’objets dans une trame vidéo](sms-video-object-detection.md#sms-video-od-create-labeling-job) et sélectionnez votre méthode préférée. Consultez [Types de tâche](sms-video-overview.md#sms-video-frame-tools) pour en savoir plus sur les outils d’annotations que vous pouvez choisir lorsque vous créez une tâche d’étiquetage.

Ground Truth fournit une interface utilisateur employé et des outils pour effectuer vos tâches d’étiquetage : [Prévisualisation de l’interface utilisateur employé](sms-video-object-detection.md#sms-video-od-worker-ui).

Vous pouvez créer une tâche pour ajuster les annotations créées dans une tâche d’étiquetage de détection d’objet vidéo à l’aide du type de tâche d’ajustement de détection d’objet vidéo. Pour en savoir plus, consultez [Créer une tâche d’étiquetage de détection d’objet de trame vidéo, d’ajustement ou de vérification](sms-video-object-detection.md#sms-video-od-adjustment).

## Prévisualisation de l'interface utilisateur employé
<a name="sms-video-ot-worker-ui"></a>

Ground Truth fournit aux employés une interface utilisateur Web (UI) pour effectuer vos tâches d’annotation de suivi d’objet de trame vidéo. Vous pouvez prévisualiser l’interface utilisateur de travail et interagir avec cette dernière lorsque vous créez une tâche d’étiquetage dans la console. Si vous êtes un nouvel utilisateur, nous vous recommandons de créer une tâche d’étiquetage via la console en utilisant un petit jeu de données d’entrée afin de prévisualiser l’interface utilisateur employé et de vous assurer que vos trames vidéo, vos étiquettes et vos attributs d’étiquette apparaissent comme prévu. 

L’interface utilisateur met à la disposition des employés les outils d’aide à l’étiquetage suivants pour mener à bien vos tâches de suivi des objets :
+ Pour toutes les tâches, les employés peuvent utiliser les fonctions **Copier vers la suivante** et **Copier vers toutes** pour copier une annotation ayant le même ID unique vers la trame suivante ou vers toutes les trames suivantes, respectivement. 
+ Pour les tâches qui incluent les outils de cadre de délimitation, les employés peuvent utiliser la fonctionnalité **Prédire la suivante** pour dessiner un cadre de délimitation dans une seule trame, puis faire en sorte que Ground Truth prédise l’emplacement des zones ayant le même ID unique dans toutes les autres trames. Les employés peuvent alors faire des ajustements pour corriger les emplacements prédits des zones. 

La vidéo suivante montre comment un employé peut utiliser l’interface utilisateur employé avec l’outil Zone de délimitation pour effectuer vos tâches de suivi d’objet.

![\[Gif montrant comment un employé peut utiliser l’outil Bounding Box avec la fonctionnalité Prédire la suivante.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/ot_predict_next.gif)


## Créer une tâche d’étiquetage de suivi d’objets dans une trame vidéo
<a name="sms-video-ot-create-labeling-job"></a>

Vous pouvez créer une tâche d'étiquetage d'objets pour le suivi des images vidéo à l'aide de la console SageMaker AI ou de l'[https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)API. 

Cette section suppose que vous avez consulté [Référence de tâches d’étiquetage des trames vidéo](sms-video-overview.md) et avez choisi le type de données d’entrée et la connexion du jeu de données d’entrée que vous utilisez. 

### Création d’une tâche d’étiquetage (Console)
<a name="sms-video-ot-create-labeling-job-console"></a>

Vous pouvez suivre les instructions ci-dessous [Création d’une tâche d’étiquetage (Console)](sms-create-labeling-job-console.md) pour savoir comment créer une tâche de suivi d'objets d'images vidéo dans la console SageMaker AI. À l’étape 10, choisissez **Vidéo - Suivi d’objet** dans la liste déroulante **Catégorie de tâches**. Sélectionnez le type de tâche souhaité en sélectionnant l'une des fiches dans **Task selection (Sélection des tâches)**.

![\[Gif montrant comment créer une tâche de suivi d'objets d'images vidéo dans la console SageMaker AI.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/task-type-vot.gif)


### Création d’une tâche d’étiquetage (API)
<a name="sms-video-ot-create-labeling-job-api"></a>

Vous créez une tâche d'étiquetage pour le suivi des objets à l'aide de l'opération SageMaker API`CreateLabelingJob`. Cette API définit cette opération pour tous AWS SDKs. Pour consulter la liste des langues spécifiques prises SDKs en charge pour cette opération, consultez la section **Voir aussi** de. [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html) 

[Création d’une tâche d’étiquetage (API)](sms-create-labeling-job-api.md) fournit une présentation de l’opération `CreateLabelingJob`. Suivez ces instructions et procédez comme suit pour configurer votre demande : 
+ Vous devez entrer un ARN pour `HumanTaskUiArn`. Utilisez `arn:aws:sagemaker:<region>:394669845002:human-task-ui/VideoObjectTracking`. Remplacez `<region>` par la région AWS dans laquelle vous créez la tâche d’étiquetage. 

  N’incluez pas de source pour le paramètre `UiTemplateS3Uri`. 
+ Votre élément [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html#sagemaker-CreateLabelingJob-request-LabelAttributeName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html#sagemaker-CreateLabelingJob-request-LabelAttributeName) doit se terminer par `-ref`. Par exemple, `ot-labels-ref`. 
+ Votre fichier manifeste source doit être un fichier manifeste de séquence de trames vidéo. Vous pouvez créer ce fichier manifeste à l'aide de la console SageMaker AI ou le créer manuellement et le télécharger sur Amazon S3. Pour de plus amples informations, veuillez consulter [Configuration des données d’entrée](sms-video-data-setup.md). Si vous créez une tâche d’étiquetage en streaming, le fichier manifeste source est facultatif. 
+ Vous ne pouvez utiliser que des équipes privées ou de fournisseurs pour créer des tâches d'étiquetage d'objets de détection de trame vidéo.
+ Vous spécifiez vos étiquettes, les attributs de la catégorie d’étiquette et de trame, le type de tâche et les instructions de l’employé dans un fichier de configuration de la catégorie d’étiquette. Spécifiez le type de tâche (cadres de délimitation, polylignes, polygones ou points clés) à l’aide de `annotationType` dans le fichier de configuration de votre catégorie d’étiquette. Pour plus d’informations, consultez [Étiquetage d’un fichier de configuration de catégorie d’étiquetage avec la référence d’attributs de catégorie d’étiquette et de trame](sms-label-cat-config-attributes.md) pour savoir comment créer ce fichier. 
+ Vous devez fournir des fonctions Lambda prédéfinies ARNs pour les fonctions Lambda de pré-annotation et de post-annotation (ACS). Elles ARNs sont spécifiques à la AWS région que vous utilisez pour créer votre tâche d'étiquetage. 
  + Pour trouver l’ARN Lambda de pré-annotation, consultez [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_HumanTaskConfig.html#sagemaker-Type-HumanTaskConfig-PreHumanTaskLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_HumanTaskConfig.html#sagemaker-Type-HumanTaskConfig-PreHumanTaskLambdaArn). Utilisez la région dans laquelle vous créez votre tâche d’étiquetage pour trouver l’ARN correct qui se termine par `PRE-VideoObjectTracking`. 
  + Pour trouver l’ARN Lambda de post-annotation, consultez [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AnnotationConsolidationConfig.html#sagemaker-Type-AnnotationConsolidationConfig-AnnotationConsolidationLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AnnotationConsolidationConfig.html#sagemaker-Type-AnnotationConsolidationConfig-AnnotationConsolidationLambdaArn). Utilisez la région dans laquelle vous créez votre tâche d'étiquetage pour trouver l'ARN correct qui se termine par `ACS-VideoObjectTracking`. 
+ Le nombre de collaborateurs spécifié dans `NumberOfHumanWorkersPerDataObject` doit être `1`. 
+ L’étiquetage automatisé des données n’est pas pris en charge pour les tâches d’étiquetage de trame vidéo. Vous ne devez pas spécifier de valeurs pour les paramètres dans `[LabelingJobAlgorithmsConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html#sagemaker-CreateLabelingJob-request-LabelingJobAlgorithmsConfig)`. 
+ Les tâches d’étiquetage de suivi d’objet de trame vidéo peuvent prendre plusieurs heures. Vous pouvez spécifier une durée plus longue pour ces tâches d’étiquetage dans `TaskTimeLimitInSeconds` (jusqu’à 7 jours ou 604 800 secondes). 

Voici un exemple de [requête du kit SDK AWS Python (Boto3)](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html#SageMaker.Client.create_labeling_job) pour créer une tâche d'étiquetage dans la région USA Est (Virginie du Nord). 

```
response = client.create_labeling_job(
    LabelingJobName='example-video-ot-labeling-job,
    LabelAttributeName='label',
    InputConfig={
        'DataSource': {
            'S3DataSource': {
                'ManifestS3Uri': 's3://amzn-s3-demo-bucket/path/video-frame-sequence-input-manifest.json'
            }
        },
        'DataAttributes': {
            'ContentClassifiers': [
                'FreeOfPersonallyIdentifiableInformation'|'FreeOfAdultContent',
            ]
        }
    },
    OutputConfig={
        'S3OutputPath': 's3://amzn-s3-demo-bucket/prefix/file-to-store-output-data',
        'KmsKeyId': 'string'
    },
    RoleArn='arn:aws:iam::*:role/*,
    LabelCategoryConfigS3Uri='s3://bucket/prefix/label-categories.json',
    StoppingConditions={
        'MaxHumanLabeledObjectCount': 123,
        'MaxPercentageOfInputDatasetLabeled': 123
    },
    HumanTaskConfig={
        'WorkteamArn': 'arn:aws:sagemaker:us-east-1:*:workteam/private-crowd/*',
        'UiConfig': {
            'HumanTaskUiArn: 'arn:aws:sagemaker:us-east-1:394669845002:human-task-ui/VideoObjectTracking'
        },
        'PreHumanTaskLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:PRE-VideoObjectTracking',
        'TaskKeywords': [
            'Video Frame Object Tracking,
        ],
        'TaskTitle': 'Video frame object tracking task',
        'TaskDescription': Tracking the location of objects and people across video frames',
        'NumberOfHumanWorkersPerDataObject': 123,
        'TaskTimeLimitInSeconds': 123,
        'TaskAvailabilityLifetimeInSeconds': 123,
        'MaxConcurrentTaskCount': 123,
        'AnnotationConsolidationConfig': {
            'AnnotationConsolidationLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:ACS-VideoObjectTracking'
        },
    Tags=[
        {
            'Key': 'string',
            'Value': 'string'
        },
    ]
)
```

## Créer une tâche d’étiquetage de suivi d’objet ou de vérification de trame vidéo
<a name="sms-video-ot-adjustment"></a>

Vous pouvez créer une tâche d'étiquetage d'ajustement et de vérification en utilisant la console Ground Truth ou l'API `CreateLabelingJob`. Pour en savoir plus sur les tâches d’étiquetage d’ajustement et de vérification, et pour apprendre à en créer une, consultez [Vérification et ajustement de l’étiquette](sms-verification-data.md).

## Format des données en sortie
<a name="sms-video-ot-output-data"></a>

Lorsque vous créez une tâche d’étiquetage de suivi d’objets dans les trames vidéo, les tâches sont envoyées aux employés. Lorsque ces employés terminent leurs tâches, les étiquettes sont écrites dans l'emplacement de sortie Amazon S3 que vous avez spécifié lorsque vous avez créé la tâche d'étiquetage. Pour en savoir plus sur le format des données de sortie du suivi d’objet de trame vidéo, consultez [Fichier de sortie de suivi d’objets dans les trames vidéo](sms-data-output.md#sms-output-video-object-tracking). Si vous êtes un nouvel utilisateur de Ground Truth, veuillez consulter [Étiquetage des données de sortie des tâches](sms-data-output.md) pour en savoir plus sur le format des données de sortie de Ground Truth. 

# Référence de tâches d’étiquetage des trames vidéo
<a name="sms-video-overview"></a>

Utilisez cette page pour en savoir plus sur les tâches d’étiquetage de trame vidéo pour la détection et le suivi d’objets. Les informations de cette page s’appliquent à ces deux types de tâches intégrés. 

La tâche d’étiquetage de trame vidéo est unique pour les raisons suivantes :
+ Vous pouvez soit fournir des objets de données prêts à être annotés (images vidéo), soit fournir des fichiers vidéo et laisser le Ground Truth extraire automatiquement les trames vidéo. 
+ Les employés ont la possibilité de sauvegarder leur travail au fur et à mesure. 
+ Vous ne pouvez pas utiliser la Amazon Mechanical Turk main-d'œuvre pour effectuer vos tâches d'étiquetage. 
+ Ground Truth fournit une interface utilisateur pour les employés, ainsi que des outils d’assistance et d’étiquetage de base, pour les aider à accomplir vos tâches. Il n’est pas nécessaire de fournir un modèle de tâche d’employé. 

Consultez les rubriques suivantes pour en savoir plus sur les tâches d’étiquetage des trames vidéo.

**Topics**
+ [

## Données d’entrée
](#sms-video-input-overview)
+ [

## Durée de la tâche
](#sms-video-job-completion-times)
+ [

## Types de tâche
](#sms-video-frame-tools)
+ [

## Mains-d’œuvre
](#sms-video-workforces)
+ [

## Interface utilisateur (IU) d’employé
](#sms-video-worker-task-ui)
+ [

## Exigences d’autorisation de tâche de trame vidéo
](#sms-security-permission-video-frame)

## Données d’entrée
<a name="sms-video-input-overview"></a>

La tâche d’étiquetage des trames vidéo utilise des *séquences* de trames vidéo. Une séquence unique est une série d’images qui ont été extraites d’une seule vidéo. Vous pouvez soit fournir vos propres séquences de trames vidéo, soit demander à Ground Truth d’extraire automatiquement les séquences de trames vidéo de vos fichiers vidéo. Pour en savoir plus, consultez [Fournir des fichiers vidéo](sms-point-cloud-video-input-data.md#sms-point-cloud-video-frame-extraction).

Ground Truth utilise des fichiers de séquence pour identifier toutes les images d’une même séquence. Toutes les séquences que vous voulez inclure dans une seule tâche d’étiquetage sont identifiées dans un fichier manifeste source. Chaque séquence est utilisée pour créer une seule tâche d’employé. Vous pouvez créer automatiquement des fichiers de séquence et un fichier manifeste source à l’aide de la configuration automatique des données Ground Truth. Pour en savoir plus, veuillez consulter la section [Configuration automatisée des données d’entrée de trame vidéo](sms-video-automated-data-setup.md). 

Pour apprendre comment créer manuellement des fichiers de séquence et un fichier manifeste source, consultez [Création d’un fichier manifeste source de trame vidéo](sms-video-manual-data-setup.md#sms-video-create-manifest). 

## Durée de la tâche
<a name="sms-video-job-completion-times"></a>

Les tâches d’étiquetage des vidéos et de trames vidéo peuvent prendre des heures aux employés. Vous pouvez définir la durée totale pendant laquelle les collaborateurs peuvent travailler sur chaque tâche lors de la création d’une tâche d’étiquetage. La durée maximale que vous pouvez définir pour le travail des collaborateurs sur des tâches est de 7 jours. La valeur par défaut est de 3 jours. 

Il est fortement recommandé de créer des tâches que les employés pourront effectuer en 12 heures maximum. Les collaborateurs doivent garder l’interface utilisateur de travail ouverte pendant qu’ils travaillent sur une tâche. Ils peuvent enregistrer leur travail au fur et à mesure et Ground Truth enregistre leur travail toutes les 15 minutes.

Lorsque vous utilisez l'opération `CreateLabelingJob` d'API SageMaker AI, définissez la durée totale pendant laquelle une tâche est disponible pour les travailleurs dans le `TaskTimeLimitInSeconds` paramètre de`HumanTaskConfig`.

Lorsque vous créez une tâche d’étiquetage dans la console, vous pouvez spécifier cette limite de temps lorsque vous sélectionnez votre type de main-d’œuvre et votre équipe de travail.

## Types de tâche
<a name="sms-video-frame-tools"></a>

Lorsque vous créez une tâche d’étiquetage de suivi d’objet vidéo ou de détection d’objet vidéo, vous spécifiez le type d’annotation que vous voulez que les employés créent tout en travaillant sur votre tâche d’étiquetage. Le type d’annotation détermine le type de données de sortie renvoyées par Ground Truth et définit le *Type de tâche* pour votre tâche d’étiquetage. 

Si vous créez une tâche d’étiquetage à l’aide de l’opération API [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html), vous spécifiez le type de tâche à l’aide du paramètre `annotationType` du fichier de configuration de catégorie d’étiquette. Pour en savoir plus, veuillez consulter la section [Étiquetage d’un fichier de configuration de catégorie d’étiquetage avec la référence d’attributs de catégorie d’étiquette et de trame](sms-label-cat-config-attributes.md).

Les types de tâches suivants sont disponibles pour les tâches d’étiquetage de suivi d’objets vidéo ou de détection d’objets vidéo : 
+ **Cadre de délimitation** : les employés disposent d’outils pour créer des annotations de cadre de délimitation. Un cadre de délimitation est une boîte qu’un employé dessine autour d’un objet pour identifier la position des pixels et l’étiquette de cet objet dans l’image. 
+ **Polyligne** : les employés disposent d’outils pour créer des annotations par polylignes. Une polyligne est définie par une série de coordonnées x, y ordonnées. Chaque point ajouté à la polyligne est relié au point précédent par une ligne. La polyligne n’a pas besoin d’être fermée (le point de départ et le point final ne doivent pas être les mêmes) et il n’y a pas de restrictions sur les angles formés entre les lignes. 
+ **Polygone** : les employés disposent d’outils pour créer des annotations par polygones. Un polygone est une forme fermée définie par une série de coordonnées x, y ordonnées. Chaque point ajouté au polygone est relié au point précédent par une ligne et il n’y a aucune restriction sur les angles formés entre les lignes. Deux lignes (côtés) du polygone ne peuvent pas se croiser. Le point de départ et final d’un polygone doivent être identiques. 
+ **Point clé** : les employés disposent d’outils pour créer des annotations par point clé. Un point clé est un point unique associé à une coordonnée x, y dans la trame vidéo.

## Mains-d’œuvre
<a name="sms-video-workforces"></a>

Lorsque vous créez une tâche d’étiquetage de trame vidéo, vous devez spécifier une équipe de travail pour effectuer vos tâches d’annotation. Vous pouvez choisir une équipe de travail parmi la main-d’œuvre privée (vos propres employés) ou parmi la main-d’œuvre d’un fournisseur que vous sélectionnez dans le AWS Marketplace. Vous ne pouvez pas utiliser la main-d’œuvre Amazon Mechanical Turk pour les tâches d’étiquetage de trame vidéo. 

Pour en savoir plus sur la main-d’œuvre provenant d’un fournisseur, consultez [Abonnement à la main-d’œuvre de fournisseur](sms-workforce-management-vendor.md).

Pour savoir comment créer et gérer une main-d’œuvre privée, consultez [Main-d’œuvre privée](sms-workforce-private.md).

## Interface utilisateur (IU) d’employé
<a name="sms-video-worker-task-ui"></a>

Ground Truth fournit une interface utilisateur (UI), des outils et des fonctions d’aide à l’étiquetage pour aider les employés à réaliser vos tâches d’étiquetage vidéo. Vous pouvez prévisualiser l’interface utilisateur de travail lorsque vous créez une tâche d’étiquetage dans la console.

Lorsque vous créez une tâche d’étiquetage en utilisant l’opération d’API `CreateLabelingJob`, vous devez fournir un ARN fourni par Ground Truth dans le paramètre [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_UiConfig.html#sagemaker-Type-UiConfig-UiTemplateS3Uri](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_UiConfig.html#sagemaker-Type-UiConfig-UiTemplateS3Uri) afin de spécifier l’interface utilisateur d’employé pour votre type de tâche. Vous pouvez utiliser l'opération `HumanTaskUiArn` de l'[https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_RenderUiTemplate.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_RenderUiTemplate.html)API SageMaker AI pour prévisualiser l'interface utilisateur du travailleur. 

Vous fournissez des instructions aux employés, des étiquettes et, éventuellement, des attributs que ceux-ci peuvent utiliser pour fournir plus d’informations sur les étiquettes et les trames vidéo. Ces attributs sont désignés respectivement comme étant de catégorie, d’étiquette et de trame. Ils sont tous affichés dans l’interface utilisateur employé.

### Catégorie d’étiquette et attributs de trame
<a name="sms-video-label-attributes"></a>

Lorsque vous créez une tâche d’étiquetage de suivi d’objets vidéo ou de détection d’objets vidéo, vous pouvez ajouter un ou plusieurs *attributs de catégorie d’étiquette* et *attributs de trame* :
+ **Attribut de catégorie d’étiquette** : liste d’options (chaînes), zone de texte libre ou champ numérique associé à une ou plusieurs étiquettes. Il est utilisé par les employés pour fournir des métadonnées sur une étiquette. 
+ **Attribut Frame** : liste d’options (chaînes), zone de texte libre ou champ numérique qui apparaît sur chaque trame vidéo qu’un employé doit annoter. Il est utilisé par les employés pour fournir des métadonnées sur les trames vidéo. 

En outre, vous pouvez utiliser les attributs d’étiquette et de trame pour que les employés vérifient les étiquettes dans une tâche de vérification des étiquettes de trame vidéo. 

Utilisez les sections suivantes pour en savoir plus sur ces attributs. Pour savoir comment ajouter des catégories d’étiquettes et des attributs de trame à une tâche d’étiquetage, utilisez les sections **Créer une tâche d’étiquetage** de la [page de type de tâche](sms-video-task-types.md) de votre choix.

#### Attributs de catégorie d’étiquette
<a name="sms-video-label-category-attributes"></a>

Ajoutez des attributs de catégorie d’étiquette aux étiquettes pour donner aux employés la possibilité de fournir plus d’informations sur les annotations qu’ils créent. Un attribut de catégorie d’étiquette est ajouté à une étiquette individuelle ou à toutes les étiquettes. Lorsqu’un attribut de catégorie d’étiquette est appliqué à toutes les étiquettes, il est appelé *attribut de catégorie d’étiquette global*. 

Par exemple, si vous ajoutez l’étiquette catégorie *voiture*, vous pourriez également vouloir capturer des données supplémentaires sur vos voitures étiquetées, telles que le fait qu’elles soient masquées ou la taille de la voiture. Vous pouvez capturer ces métadonnées à l’aide des attributs de catégorie d’étiquette. Dans cet exemple, si vous avez ajouté l’attribut *occluded* à la catégorie d’étiquette voiture, vous pouvez affecter les attributs *partial*, *completely* ou *no* à l’attribut *occluded* et permettre aux employés de sélectionner l’une de ces options. 

Lorsque vous créez une tâche de vérification d’étiquette, vous ajoutez des attributs de catégorie d’étiquettes à chaque étiquette que les employés doivent vérifier.

#### Attributs au niveau de la trame
<a name="sms-video-frame-attributes"></a>

Ajoutez des attributs de trame pour donner aux employés la possibilité de fournir plus d’informations sur les trames vidéo individuelles. Chaque attribut de trame que vous ajoutez apparaît sur toutes les trames. 

Par exemple, vous pouvez ajouter un attribut nombre-trame pour que les employés identifient le nombre d’objets qu’ils voient dans une trame particulière. 

Dans un autre exemple, vous pouvez fournir une zone de texte libre pour donner aux employés la possibilité de fournir une réponse à une question. 

Lorsque vous créez une tâche de vérification d’étiquette, vous pouvez ajouter un ou plusieurs attributs de trame pour demander aux employés de fournir des commentaires sur toutes les étiquettes d’une trame vidéo.

### Instructions à l’intention des travailleurs
<a name="sms-video-worker-instructions-general"></a>

Vous pouvez fournir des instructions aux employés pour les aider à accomplir leurs tâches d’étiquetage de trames vidéo. Vous pouvez aborder les rubriques suivantes lors de la rédaction de vos instructions : 
+ Bonnes pratiques et choses à éviter lors de l’annotation d’objets.
+ Les attributs de catégories d’étiquettes fournis (pour les tâches de détection et de suivi d’objets) et la manière de les utiliser.
+ Comment gagner du temps lors de l’étiquetage en utilisant des raccourcis clavier. 

Vous pouvez ajouter les instructions de votre employé à l'aide de la console SageMaker AI lors de la création d'une tâche d'étiquetage. Si vous créez une tâche d’étiquetage à l’aide de l’opération d’API `CreateLabelingJob`, vous spécifiez les instructions de travail dans votre fichier de configuration de catégorie d’étiquette. 

Outre vos instructions, Ground Truth fournit un lien pour aider les employés à naviguer dans le portail d’employé et à l’utiliser. Affichez ces instructions en sélectionnant le type de tâche sur [Instructions de travail](sms-video-worker-instructions.md).

### Refus de tâches
<a name="sms-decline-task-video"></a>

Les employés peuvent refuser des tâches. 

Les employés refusent une tâche si les instructions ne sont pas claires, les données d’entrée ne s’affichent pas correctement ou s’ils rencontrent un autre problème avec la tâche. Si la tâche est refusée par le nombre d’employés par objet du jeu de données ([https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_HumanTaskConfig.html#sagemaker-Type-HumanTaskConfig-NumberOfHumanWorkersPerDataObject](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_HumanTaskConfig.html#sagemaker-Type-HumanTaskConfig-NumberOfHumanWorkersPerDataObject)), l’objet de données est marqué comme expiré et ne sera pas envoyé à d’autres employés.

## Exigences d’autorisation de tâche de trame vidéo
<a name="sms-security-permission-video-frame"></a>

Lorsque vous créez une tâche d’étiquetage de trames vidéo, outre les exigences en matière d’autorisation décrites dans [Attribuer des autorisations IAM pour utiliser Ground Truth](sms-security-permission.md), vous devez ajouter une stratégie CORS à votre compartiment S3 qui contient votre fichier manifeste source. 

### Stratégie d’autorisation CORS pour votre compartiment S3
<a name="sms-permissions-add-cors-video-frame"></a>

Lorsque vous créez une tâche d’étiquetage de trame vidéo, vous spécifiez des compartiments dans S3 où se trouvent vos données d’entrée et le fichier manifeste et où seront stockées vos données de sortie. Ces compartiments peuvent être les mêmes. Vous devez attacher la stratégie CORS (Cross-Origin Resource Sharing) suivante à vos compartiments source et de sortie. Si vous utilisez la console Amazon S3 pour ajouter la stratégie à votre compartiment, vous devez utiliser le format JSON.

**JSON**

```
[
    {
        "AllowedHeaders": [
            "*"
        ],
        "AllowedMethods": [
            "GET",
            "HEAD",
            "PUT"
        ],
        "AllowedOrigins": [
            "*"
        ],
        "ExposeHeaders": [
            "Access-Control-Allow-Origin"
        ],
        "MaxAgeSeconds": 3000
    }
]
```

**XML**

```
<?xml version="1.0" encoding="UTF-8"?>
<CORSConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
<CORSRule>
    <AllowedOrigin>*</AllowedOrigin>
    <AllowedMethod>GET</AllowedMethod>
    <AllowedMethod>HEAD</AllowedMethod>
    <AllowedMethod>PUT</AllowedMethod>
    <MaxAgeSeconds>3000</MaxAgeSeconds>
    <ExposeHeader>Access-Control-Allow-Origin</ExposeHeader>
    <AllowedHeader>*</AllowedHeader>
</CORSRule>
</CORSConfiguration>
```

Pour savoir comment ajouter une politique CORS à un compartiment S3, consultez [Comment ajouter le partage de ressources interdomaines avec CORS ?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/add-cors-configuration.html) dans le Guide de l’utilisateur Amazon Simple Storage Service.

# Instructions de travail
<a name="sms-video-worker-instructions"></a>

Cette rubrique donne une présentation du portail d’employé Ground Truth et des outils disponibles pour effectuer votre tâche d’étiquetage de trame vidéo. Tout d’abord, sélectionnez le type de tâche sur laquelle vous travaillez dans **Rubriques**.

**Important**  
Il est recommandé d’accomplir votre tâche à l’aide d’un navigateur Web Google Chrome ou Firefox. 

Pour les tâches d’ajustement, sélectionnez le type de tâche d’étiquetage d’origine qui a généré les étiquettes que vous ajustez. Passez en revue et ajustez les étiquettes de votre tâche si nécessaire.

**Topics**
+ [

# Naviguer dans l’interface utilisateur
](sms-video-worker-instructions-worker-ui-ot.md)
+ [

# Modifier en bloc les attributs d’étiquette et de trame
](sms-video-frame-worker-instructions-ot-bulk-edit.md)
+ [

# Guide des outils
](sms-video-worker-instructions-tool-guide.md)
+ [

# Guide des icônes
](sms-video-worker-instructions-ot-icons.md)
+ [

# Shortcuts
](sms-video-worker-instructions-ot-hot-keys.md)
+ [

# Comprendre les options de libération, d’arrêt et de reprise, et de refus de tâche
](sms-video-worker-instructions-skip-reject-ot.md)
+ [

# Sauvegarde et envoi de votre travail
](sms-video-worker-instructions-saving-work-ot.md)
+ [

# Tâches de suivi d’objets dans les trames vidéo
](sms-video-ot-worker-instructions.md)
+ [

# Tâches de détection d’objets dans les trames vidéo
](sms-video-od-worker-instructions.md)

# Naviguer dans l’interface utilisateur
<a name="sms-video-worker-instructions-worker-ui-ot"></a>

Vous pouvez naviguer entre les trames vidéo à l’aide de la barre de navigation située dans le coin inférieur gauche de votre interface utilisateur. 

Utilisez le bouton de lecture pour vous déplacer automatiquement dans toute la séquence de trames. 

Utilisez les boutons trame suivante et précédente pour avancer ou reculer d’une trame à la fois. Vous pouvez également saisir un numéro de trame pour y accéder directement. 



La vidéo suivante montre comment naviguer entre les trames vidéo. 

![\[Gif montrant comment naviguer entre les trames vidéo.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/nav_video_ui.gif)


Vous pouvez effectuer un zoom avant et arrière sur toutes les trames vidéo. Une fois que vous avez effectué un zoom sur une trame vidéo, vous pouvez vous déplacer dans celle-ci à l’aide de l’icône de déplacement. Lorsque vous définissez une nouvelle vue dans une seule trame vidéo en zoomant et en vous déplaçant dans cette trame, toutes les trames vidéo sont définies sur la même vue. Vous pouvez réinitialiser toutes les trames vidéo à leur vue d’origine à l’aide de l’icône Ajuster à l’écran. Pour plus d’options d’affichage, consultez [Guide des icônes](sms-video-worker-instructions-ot-icons.md). 

Lorsque vous êtes dans l’interface utilisateur de travail, les menus suivants s’affichent :
+ **Instructions** – Consultez ces instructions avant de commencer votre tâche. En outre, sélectionnez **Plus d’instructions** et passez-les en revue. 
+ **Raccourcis** – Utilisez ce menu pour afficher les raccourcis clavier que vous pouvez utiliser pour naviguer dans les trames vidéo et pour utiliser les outils fournis. 
+ **Aide** – Utilisez cette option pour revenir à cette documentation. 

# Modifier en bloc les attributs d’étiquette et de trame
<a name="sms-video-frame-worker-instructions-ot-bulk-edit"></a>

Vous pouvez modifier en bloc les attributs d’étiquette et de trame (attributs). 

Lorsque vous modifiez en bloc un attribut, vous spécifiez une ou plusieurs plages de trames auxquelles vous souhaitez appliquer la modification. L’attribut que vous sélectionnez est modifié dans toutes les trames de cette plage, y compris les trames initiale et finale que vous spécifiez. Lorsque vous modifiez en bloc les attributs d’étiquette, la plage que vous spécifiez *doit* contenir cette étiquette à laquelle l’attribut est attaché. Si vous spécifiez des trames qui ne contiennent pas cette étiquette, une erreur sera levée. 

Pour modifier en bloc un attribut, vous *devez* spécifier d’abord la valeur souhaitée pour l’attribut. Par exemple, si vous voulez changer la valeur d’un attribut de *Oui* à *Non*, vous devez sélectionner *Non*, puis effectuer la modification en bloc. 

Vous pouvez également spécifier une nouvelle valeur pour un attribut qui n’a pas été renseigné, puis utiliser la fonctionnalité de modification en bloc pour remplir cette valeur dans plusieurs trames. Pour ce faire, sélectionnez la valeur souhaitée pour l’attribut et effectuez la procédure suivante. 

**Pour modifier en bloc une étiquette ou un attribut :**

1. Utilisez votre souris pour faire un clic droit sur l’attribut que vous souhaitez modifier en bloc.

1. Spécifiez la plage de trames à laquelle vous souhaitez appliquer la modification en bloc à l’aide d’un tiret (`-`) dans la zone de texte. Par exemple, si vous souhaitez appliquer la modification aux trames une à dix, saisissez `1-10`. Si vous voulez appliquer la modification aux trames deux à cinq, huit à dix et vingt, saisissez `2-5,8-10,20`.

1. Sélectionnez **Confirm (Confirmer)**.

Si un message d’erreur s’affiche, vérifiez que vous avez entré une plage valide et que l’étiquette associée à l’attribut que vous modifiez (le cas échéant) existe dans toutes les trames spécifiées.

Vous pouvez rapidement ajouter une étiquette à toutes les trames précédentes ou suivantes à l’aide des options **Duplicate to previous frames (Dupliquer vers les images précédentes)** et **Duplicate to next frames (Dupliquer vers les images suivantes)** dans le menu **Étiquettes** en haut de votre écran. 

# Guide des outils
<a name="sms-video-worker-instructions-tool-guide"></a>

Votre tâche comprend un ou plusieurs outils. L’outil fourni dicte le type d’annotations que vous allez créer pour identifier et suivre les objets. Utilisez le tableau suivant pour en savoir plus sur chaque outil fourni. 


****  

| Outil | Icône | Action | Description | 
| --- | --- | --- | --- | 
|  Cadre de délimitation  |  ![\[L’icône Cadre de délimitation.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/Bounding%20Box.png)  |  Ajoutez une annotation de cadre de délimitation.  |  Choisissez cette icône pour ajouter un cadre de délimitation. Chaque cadre de délimitation que vous ajoutez est associé à la catégorie que vous choisissez dans le menu déroulant Catégorie d’étiquette. Sélectionnez le cadre de délimitation ou son étiquette associée pour l’ajuster.   | 
| Prédire la suivante |  ![\[L’icône Prédire la suivante.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/PredictNext.png)  |  Prédire les cadres de délimitation dans la trame suivante.  |  Sélectionnez un cadre de délimitation, puis choisissez cette icône pour prédire l’emplacement de ce cadre dans la trame suivante. Vous pouvez sélectionner l’icône plusieurs fois de suite pour détecter automatiquement l’emplacement de la zone dans plusieurs trames. Par exemple, cliquez 5 fois sur cette icône pour prédire l’emplacement d’un cadre de délimitation dans les 5 trames suivantes.   | 
|  Point clé  |  ![\[L’icône Point clé.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/Keypoint.png)  |  Ajoutez une annotation de point clé.  |  Choisissez cette icône pour ajouter un point clé. Cliquez sur un objet de l’image pour placer le point clé à cet emplacement.  Chaque point clé que vous ajoutez est associé à la catégorie que vous choisissez dans le menu déroulant Catégorie d’étiquette. Sélectionnez un point clé ou son libellé associé pour l’ajuster.   | 
|  Polyline  |  ![\[L’icône Polyligne.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/polyline.png)  |  Ajoutez une annotation polyligne.  |  Choisissez cette icône pour ajouter une polyligne. Pour ajouter une polyligne, cliquez continuellement autour de l’objet d’intérêt pour ajouter de nouveaux points. Pour arrêter de dessiner une polyligne, sélectionnez le dernier point que vous avez placé une seconde fois (ce point sera vert) ou appuyez sur **Entrée** de votre clavier.  Chaque point ajouté à la polyligne est relié au point précédent par une ligne. La polyligne n’a pas besoin d’être fermée (le point de départ et le point final ne doivent pas être les mêmes) et il n’y a pas de restrictions sur les angles formés entre les lignes.  Chaque polyligne que vous ajoutez est associée à la catégorie que vous choisissez dans le menu déroulant Catégorie d’étiquette. Sélectionnez la polyligne ou son étiquette associée pour l’ajuster.   | 
|  Polygone  |  ![\[L’icône Polygone.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/Polygon.png)  |  Ajoutez une annotation de polygone.  |  Choisissez cette icône pour ajouter un polygone. Pour ajouter un polygone, cliquez continuellement autour de l’objet d’intérêt pour ajouter de nouveaux points. Pour arrêter le dessin du polygone, sélectionnez le point de départ (ce point sera vert).  Un polygone est une forme fermée définie par une série de points que vous placez. Chaque point ajouté au polygone est relié au point précédent par une ligne et il n’y a aucune restriction sur les angles formés entre les lignes. Les points initial et final doivent être les mêmes.  Chaque polygone que vous ajoutez est associé à la catégorie que vous choisissez dans le menu déroulant Label category (Catégorie d’étiquette). Sélectionnez le polygone ou l’étiquette qui lui est associée pour l’ajuster.   | 
|  Copier vers Suivant  |  ![\[L’icône Copier vers Suivant.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/copy_to_next.png)  |  Copiez les annotations dans la trame suivante.   |  Si une ou plusieurs annotations sont sélectionnées dans la trame actuelle, ces annotations sont copiées dans la trame suivante. Si aucune annotation n’est sélectionnée, toutes les annotations de la trame actuelle seront copiées dans la trame suivante.   | 
|  Copier vers toutes  |  ![\[L’icône Copier vers toutes.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/copy_to_all.png)  |  Copier les annotations dans toutes les trames suivantes.  |  Si une ou plusieurs annotations sont sélectionnées dans la trame actuelle, ces annotations sont copiées dans toutes les trames suivantes. Si aucune annotation n’est sélectionnée, toutes les annotations de la trame actuelle seront copiées dans les trames suivantes.   | 

# Guide des icônes
<a name="sms-video-worker-instructions-ot-icons"></a>

Utilisez ce tableau pour en savoir plus sur les icônes visibles dans votre interface utilisateur. Vous pouvez sélectionner automatiquement certaines de ces icônes à l’aide des raccourcis clavier disponibles dans le menu **Raccourcis**. 


| Icône | Action  | Description | 
| --- | --- | --- | 
|  ![\[L’icône Luminosité.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/Brightness.png)  |  luminosité  |  Choisissez cette icône pour régler la luminosité de toutes les trames vidéo.   | 
|  ![\[L’icône Contraste.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/Contrast.png)  |  contraste  |  Choisissez cette icône pour régler le contraste de toutes les trames vidéo.   | 
|  ![\[L’icône Zoom avant.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/Zoom-in.png)  |  zoom avant  |  Choisissez cette icône pour effectuer un zoom avant sur toutes les trames vidéo.  | 
|  ![\[L’icône Zoom arrière.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/Zoom-out.png)  |  zoom arrière  |  Choisissez cette icône pour effectuer un zoom arrière sur toutes les trames vidéo.   | 
|  ![\[L’icône Déplacer.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/Move.png)  |  déplacer l’écran  |  Une fois que vous avez effectué un zoom sur une trame vidéo, choisissez cette icône pour vous déplacer dans cette trame vidéo. Vous pouvez vous déplacer dans la trame vidéo à l’aide de votre souris en cliquant et en faisant glisser la trame dans la direction où vous voulez qu’elle se déplace. Cela changera la vue dans toutes les vues de trames.  | 
|  ![\[L’icône Ajuster à l’écran.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/Fit%20screen.png)  | ajuster à l’écran |  Réinitialisez toutes les trames vidéo à leur position d’origine.   | 
|  ![\[L’icône Annuler.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/Undo.png)  | annuler |  Annuler une action. Vous pouvez utiliser cette icône pour supprimer un cadre de délimitation que vous venez d’ajouter ou pour annuler un ajustement que vous avez apporté à l’un d’eux.   | 
|  ![\[L’icône Rétablir.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/Redo.png)  | rétablir | Rétablir une action qui a été annulée à l’aide de l’icône Annuler. | 
|  ![\[L’icône Supprimer des étiquettes.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/Delete.png)  | supprimer une étiquette | Supprimez une étiquette. Cette opération permet de supprimer le cadre de délimitation associé à l’étiquette dans une seule trame.  | 
|  ![\[L’icône Afficher ou masquer l’étiquette.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/Show_Hide.png)  | afficher ou masquer l’étiquette | Sélectionnez cette icône pour afficher une étiquette qui a été masquée. Si cette icône est barrée d’une barre oblique, sélectionnez-la pour masquer l’étiquette.  | 
|  ![\[L’icône Modifier.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/Edit.png)  | modifier une étiquette | Sélectionnez cette icône pour ouvrir le menu Modification de l’instance. Utilisez ce menu pour modifier une catégorie d’étiquette, un ID et ajouter ou modifier des attributs d’étiquette.  | 

# Shortcuts
<a name="sms-video-worker-instructions-ot-hot-keys"></a>

Les raccourcis clavier répertoriés dans le menu **Shortcuts (Raccourcis)** vous permettent de sélectionner rapidement des icônes, d’annuler et de rétablir des annotations, et d’utiliser les outils d’ajout et de modification d’annotations. Par exemple, une fois que vous avez ajouté un cadre de délimitation, vous pouvez utiliser **P** pour prédire rapidement l’emplacement de ce cadre dans les trames suivantes. 

Avant de démarrer votre tâche, nous vous recommandons de consulter le menu **Shortcuts (Raccourcis)** et de vous familiariser avec ces commandes.

# Comprendre les options de libération, d’arrêt et de reprise, et de refus de tâche
<a name="sms-video-worker-instructions-skip-reject-ot"></a>

Lorsque vous ouvrez la tâche d’étiquetage, trois boutons en haut à droite vous permettent de refuser la tâche (**Decline task (Refuser une tâche)**), de la libérer (**Release task (Libérer une tâche)**), ou encore de l’arrêter et la reprendre ultérieurement (**Stop and resume later (Arrêter et reprendre plus tard)**). La liste suivante décrit ce qui se passe lorsque vous sélectionnez l’une de ces options :
+ **Decline task (Refuser une tâche)** : vous ne devez refuser une tâche que si quelque chose ne va pas avec celle-ci, par exemple des trames vidéo imprécises ou un problème avec l’interface utilisateur. Si vous refusez une tâche, vous ne pourrez pas y revenir.
+ **Release task (Libérer une tâche)** : utilisez cette option pour libérer une tâche et permettre à d’autres personnes de travailler dessus. Lorsque vous libérez une tâche, vous perdez tout le travail effectué sur celle-ci et d’autres employés de votre équipe peuvent la récupérer. Si un nombre suffisant d’employés se chargent de la tâche, vous ne pouvez pas y revenir. Lorsque vous sélectionnez ce bouton, puis sélectionnez **confirm**, vous revenez au portail d’employé. Si la tâche est toujours disponible, son statut sera **Available (Disponible)**. Si d’autres employés la récupèrent, elle disparaîtra de votre portail. 
+ **Arrêter et reprendre plus tard** : vous pouvez utiliser le bouton **Stop and resume later (Arrêter et reprendre plus tard)** pour arrêter de travailler et revenir à la tâche ultérieurement. Vous devez utiliser le bouton **Save (Enregistrer)** pour enregistrer votre travail avant de sélectionner **Stop and resume later (Arrêter et reprendre plus tard)**. Lorsque vous sélectionnez ce bouton, puis sélectionnez **Confirm (Confirmer)**, vous revenez au portail d’employé et l’état de la tâche est **Arrêté(e)**. Vous pouvez sélectionner la même tâche pour reprendre le travail dessus. 

  Sachez que la personne qui crée vos tâches d’étiquetage spécifie une limite de temps durant laquelle toutes les tâches doivent être terminées. Si vous ne revenez pas et ne terminez pas cette tâche dans ce délai, elle expirera et votre travail ne sera pas envoyé. Pour en savoir plus, contactez l’administrateur de votre compte. 

![\[Gif montrant les emplacements de Refuser une tâche, Libérer une tâche et Arrêter et reprendre plus tard dans l’interface utilisateur.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/reject-decline-task.gif)


# Sauvegarde et envoi de votre travail
<a name="sms-video-worker-instructions-saving-work-ot"></a>

Vous devriez enregistrer régulièrement votre travail à l’aide du bouton **Enregistrer**. Ground Truth enregistrera automatiquement votre travail toutes les 15 minutes. 

Lorsque vous ouvrez une tâche, vous devez terminer votre travail avant d’appuyer sur **Soumettre**. 

# Tâches de suivi d’objets dans les trames vidéo
<a name="sms-video-ot-worker-instructions"></a>

Les tâches de suivi des objets dans les trames vidéo nécessitent que vous suiviez le mouvement des objets à travers les trames vidéo. Une trame vidéo est une image fixe extraite d’une scène vidéo. Vous pouvez utiliser l’interface utilisateur employé pour naviguer entre les trames vidéo et utiliser les outils fournis pour identifier des objets uniques et suivre leur déplacement d’une trame à l’autre. Utilisez les rubriques suivantes pour savoir comment naviguer dans votre interface utilisateur d’employé, utiliser les outils fournis et terminer votre tâche. 

Il est recommandé d'accomplir votre tâche à l'aide d'un navigateur Web Google Chrome ou Firefox. 

**Important**  
Si vous constatez que des annotations ont déjà été ajoutées à une ou plusieurs trames vidéo lorsque vous ouvrez la tâche, ajustez ces annotations et ajoutez des annotations supplémentaires au besoin. 

**Topics**
+ [

# Votre tâche
](sms-video-worker-instructions-ot-task.md)

# Votre tâche
<a name="sms-video-worker-instructions-ot-task"></a>

Lorsque vous travaillez sur une tâche de suivi d’objet de trame vidéo, vous devez sélectionner une catégorie dans le menu **Catégorie d’étiquette** sur le côté droit de votre portail d’employé pour commencer à annoter. Après avoir choisi une catégorie, utilisez les outils fournis pour annoter les objets auxquels la catégorie s’applique. Cette annotation est associée à un ID d’étiquette unique qui ne doit être utilisé que pour cet objet. Utilisez ce même ID d’étiquette pour créer des annotations supplémentaires pour le même objet dans toutes les trames vidéo dans lesquelles il apparaît. Reportez-vous à [Guide des outils](sms-video-worker-instructions-tool-guide.md) pour en savoir plus sur les outils fournis.

Une fois que vous avez ajouté une étiquette, vous pouvez voir une flèche pointant vers le bas à côté de l’étiquette dans le menu **Étiquettes**. Sélectionnez cette flèche, puis sélectionnez une option pour chaque attribut d’étiquette affiché afin de fournir plus d’informations sur cette étiquette.

Vous pouvez voir les attributs de trame sous le menu **Étiquettes**. Ces attributs apparaîtront sur chaque trame dans votre tâche. Utilisez ces invites d’attributs pour saisir des informations supplémentaires sur chaque trame. 

![\[Exemple d’invite d’attribut de cadre.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/frame-attributes.png)


Une fois que vous avez ajouté une étiquette, vous pouvez rapidement ajouter et modifier une valeur d’attribut de catégorie d’étiquette en utilisant la flèche pointant vers le bas en regard de l’étiquette dans le menu **Étiquettes**. Si vous sélectionnez l’icône en forme de crayon en regard de l’étiquette dans le menu **Étiquettes**, le menu **Modification de l’instance** apparaîtra. Vous pouvez modifier l’ID d’étiquette, la catégorie d’étiquette et les attributs de catégorie d’étiquette à l’aide de ce menu. 

![\[Gif montrant comment modifier l’annotation des étiquettes dans la trame.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/kitti-ot-general.gif)


Pour modifier une annotation, sélectionnez l’étiquette de l’annotation à modifier dans le menu **Étiquettes** ou sélectionnez l’annotation dans la trame. Lorsque vous modifiez ou supprimez une annotation, l’action ne modifie l’annotation que dans une seule trame. 

Si vous travaillez sur une tâche qui comprend un outil de cadre de délimitation, utilisez l’icône Prédire la suivante pour prédire l’emplacement dans la trame suivante de tous les cadres de délimitation que vous avez dessinés dans une trame. Si vous sélectionnez une seule zone et que vous sélectionnez l’icône Prédire la suivante, seule cette zone sera prédite dans la trame suivante. Si vous n’avez pas ajouté de zones à la trame actuelle, une erreur sera levée. Vous devez ajouter au moins une zone à la trame avant d’utiliser cette fonctionnalité. 

Après avoir utilisé l’icône Prédire la suivante, vérifiez l’emplacement de chaque zone dans la trame suivante et modifiez l’emplacement et la taille de la zone si nécessaire. 

Le graphique suivant illustre comment utiliser l’outil Prédire la suivante :

![\[Gif montrant comment ajuster les cases prédites pour la trame suivante.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/kitti-ot-predict-next.gif)


Pour tous les autres outils, vous pouvez utiliser les fonctions **Copier vers la suivante** et **Copier vers toutes** pour copier vos annotations respectivement vers la trame suivante ou vers toutes les trames. 

# Tâches de détection d’objets dans les trames vidéo
<a name="sms-video-od-worker-instructions"></a>

Les tâches de détection d’objets dans les trames vidéo vous demandent de classer et d’identifier l’emplacement des objets dans les trames vidéo à l’aide d’annotations. Une trame vidéo est une image fixe extraite d'une scène vidéo. Vous pouvez utiliser l’interface utilisateur employé pour naviguer entre les trames vidéo et créer des annotations pour identifier les objets d’intérêt. Utilisez les rubriques suivantes pour savoir comment naviguer dans votre interface utilisateur d’employé, utiliser les outils fournis et terminer votre tâche. 

Il est recommandé d’accomplir votre tâche à l’aide d’un navigateur Web Google Chrome. 

**Important**  
Si vous constatez que des annotations ont déjà été ajoutées à une ou plusieurs trames vidéo lorsque vous ouvrez la tâche, ajustez ces annotations et ajoutez des annotations supplémentaires au besoin. 

**Topics**
+ [

# Votre tâche
](sms-video-worker-instructions-od-task.md)

# Votre tâche
<a name="sms-video-worker-instructions-od-task"></a>

Lorsque vous travaillez sur une tâche de détection d’objet dans une trame vidéo, vous devez sélectionner une catégorie dans le menu **Catégorie d’étiquette** situé sur le côté droit de votre portail d’employé pour commencer à annoter. Une fois que vous avez choisi une catégorie, dessinez des annotations autour des objets auxquels cette catégorie s’applique. Pour en savoir plus sur les outils que vous voyez dans votre interface utilisateur employé, reportez-vous à [Guide des outils](sms-video-worker-instructions-tool-guide.md).

Une fois que vous avez ajouté une étiquette, vous pouvez voir une flèche pointant vers le bas à côté de l'étiquette dans le menu **Étiquettes**. Sélectionnez cette flèche, puis sélectionnez une option pour chaque attribut d’étiquette affiché afin de fournir plus d’informations sur cette étiquette.

![\[Gif montrant comment un employé peut utiliser l’outil de cadre de délimitation pour ses tâches de détection d’objets.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/kitti-od-general-labeling-job.gif)


Vous pouvez voir les attributs de trame sous le menu **Étiquettes**. Ces attributs apparaîtront sur chaque trame dans votre tâche. Utilisez ces invites d’attributs pour saisir des informations supplémentaires sur chaque trame. 

![\[Exemple d’invite d’attribut de cadre.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/frame-attributes.png)


Pour modifier une annotation, sélectionnez l’étiquette de l’annotation à modifier dans le menu **Étiquettes** ou sélectionnez l’annotation dans la trame. Lorsque vous modifiez ou supprimez une annotation, l’action ne modifie l’annotation que dans une seule trame. 

Si vous travaillez sur une tâche qui comprend un outil de cadre de délimitation, utilisez l’icône Prédire la suivante pour prédire l’emplacement dans la trame suivante de tous les cadres de délimitation que vous avez dessinés dans une trame. Si vous sélectionnez une seule zone et que vous sélectionnez l’icône Prédire la suivante, seule cette zone sera prédite dans la trame suivante. Si vous n’avez pas ajouté de zones à la trame actuelle, une erreur sera levée. Vous devez ajouter au moins une zone à la trame avant d’utiliser cette fonctionnalité. 

**Note**  
La fonctionnalité Prédire la suivante n’écrasera pas les annotations créées manuellement. Elle n’ajoutera que des annotations. Si vous utilisez Prédire la suivante et qu’en conséquence, vous obtenez plus d’un cadre de délimitation autour d’un même objet, supprimez toutes les zones sauf une. Chaque objet ne doit être identifié qu’à l’aide d’une seule zone. 

Après avoir utilisé l'icône Prédire la suivante, vérifiez l'emplacement de chaque zone dans la trame suivante et modifiez l'emplacement et la taille de la zone si nécessaire. 

Le graphique suivant illustre comment utiliser l’outil Prédire la suivante :

![\[Gif montrant comment un employé peut ajuster les cases prédites dans la trame suivante.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/video/kitti-video-od.gif)


Pour tous les autres outils, vous pouvez utiliser les fonctions **Copier vers la suivante** et **Copier vers toutes** pour copier vos annotations respectivement vers la trame suivante ou vers toutes les trames. 