

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Détection de discours toxique
<a name="toxicity"></a>

 La détection vocale toxique est conçue pour aider à modérer les plateformes de réseaux sociaux qui impliquent peer-to-peer le dialogue, telles que les jeux en ligne et les plateformes de chat social. L’utilisation d’un discours toxique peut être profondément préjudiciable aux individus, aux groupes de pairs et aux communautés. Le signalement de propos préjudiciables aide les organisations à garder des conversations courtoises et à maintenir un environnement en ligne sûr et inclusif permettant aux utilisateurs de créer, partager et participer librement. 

 Amazon Transcribe La détection de la toxicité utilise à la fois des signaux audio et textuels pour identifier et classer les contenus toxiques vocaux en sept catégories, notamment le harcèlement sexuel, les discours de haine, les menaces, les abus, les blasphèmes, les insultes et les images. Outre le texte, Amazon Transcribe Toxicity Detection utilise des signaux vocaux, tels que les tonalités et le ton, pour mettre en évidence l’intention toxique du discours. Il s’agit d’une amélioration par rapport aux systèmes de modération de contenu standard conçus pour se concentrer uniquement sur des termes spécifiques, sans tenir compte de l’intention. 

 Amazon Transcribe signale et catégorise les discours toxiques, ce qui minimise le volume de données devant être traitées manuellement. Cela permet aux modérateurs de contenu de gérer rapidement et efficacement le discours sur leurs plateformes. 

Les catégories de discours toxiques incluent :
+ **Blasphème** : discours contenant des mots, des expressions ou des acronymes impolis, vulgaires ou offensants.
+ **Discours haineux** : discours qui critique, insulte, dénonce ou déshumanise une personne ou un groupe de personnes sur la base d’une identité (telle que la race, l’origine ethnique, le sexe, la religion, l’orientation sexuelle, les capacités et l’origine nationale).
+ **Sexualité** : discours qui indique un intérêt, une activité ou une excitation sexuelle en utilisant des références directes ou indirectes à des parties du corps, à des traits physiques ou au sexe.
+ **Insultes** : discours qui inclut un langage dégradant, humiliant, moqueur, insultant ou dénigrant. Ce type de langage est également qualifié d’intimidation.
+ **Violence ou menace** : discours qui inclut des menaces visant à infliger de la douleur, des blessures ou de l’hostilité à une personne ou à un groupe de personnes.
+ **Graphique** : discours qui utilise des images visuellement descriptives et d’une expression désagréable. Ce type de langage est souvent intentionnellement verbeux pour amplifier l’inconfort du destinataire.
+ **Harcèlement ou abus** : discours visant à affecter le bien-être psychologique du destinataire et comprenant notamment des termes dégradants et objectivants. Ce type de langage est également qualifié de harcèlement.

 La détection de toxicité analyse les segments vocaux (le discours entre les pauses naturelles) et attribue des scores de confiance à ces segments. Les scores de confiance sont des valeurs comprises entre 0 et 1. Un score de confiance plus élevé indique une plus grande probabilité que le contenu soit un discours toxique au sein de la catégorie spécifiée. Vous pouvez utiliser ces scores de confiance pour définir le seuil de détection de toxicité adapté à votre cas d’utilisation. 

**Note**  
 La détection de toxicité n’est disponible que pour les transcriptions par lots en anglais américain `(en-US)`. 

 Consultez un [exemple de sortie](toxicity-using.md#toxicity-using-output.title) au format JSON. 

# Utilisation de la détection des discours toxiques
<a name="toxicity-using"></a>

## Utilisation de la détection des discours toxiques dans une transcription par lots
<a name="toxicity-using-batch"></a>

Pour utiliser la détection des discours toxiques avec une transcription par lots, consultez les exemples suivants :

### AWS Management Console
<a name="toxicity-using-console-batch"></a>

1. Connectez-vous à la [AWS Management Console](https://console.aws.amazon.com/transcribe/).

1. Dans le volet de navigation, choisissez **Tâches de transcription**, puis sélectionnez **Créer une tâche** (en haut à droite). La page **Spécifier les détails de la tâche** s’ouvre.  
![\[Amazon Transcribe capture d'écran de la console : la page « Spécifier les détails de la tâche ».\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/toxicity-batch-details-1.png)

1.  Sur la page **Spécifier les détails de la tâche**, vous pouvez également activer l’expurgation des données d’identification personnelle (PII) si vous le souhaitez. Notez que les autres options répertoriées ne sont pas prises en charge avec Toxicity Detection. Sélectionnez **Suivant**. Vous accédez alors à la page **Configurer la tâche - facultatif**. Dans le volet **Paramètres audio**, sélectionnez **Toxicity Detection**.   
![\[Amazon Transcribe capture d'écran de la console : la page « configurer le travail ».\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/toxicity-batch-details-2.png)

1. Sélectionnez **Créer une tâche** pour exécuter votre tâche de transcription.

1. Une fois votre tâche de transcription terminée, vous pouvez télécharger votre transcription depuis le menu déroulant **Télécharger** de la page détaillée de la tâche de transcription.

### AWS CLI
<a name="toxicity-using-cli-batch"></a>

Cet exemple utilise la [start-transcription-job](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/transcribe/start-transcription-job.html)commande et le `ToxicityDetection` paramètre. Pour plus d’informations, consultez [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartTranscriptionJob.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartTranscriptionJob.html) et [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_ToxicityDetection.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_ToxicityDetection.html). 

```
aws transcribe start-transcription-job \
--region us-west-2 \
--transcription-job-name my-first-transcription-job \
--media MediaFileUri=s3://amzn-s3-demo-bucket/my-input-files/my-media-file.flac \
--output-bucket-name amzn-s3-demo-bucket \
--output-key my-output-files/ \
--language-code en-US \
--toxicity-detection ToxicityCategories=ALL
```

Voici un autre exemple d'utilisation de la [start-transcription-job](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/transcribe/start-transcription-job.html)commande et d'un corps de requête incluant la détection de toxicité.

```
aws transcribe start-transcription-job \
--region us-west-2 \
--cli-input-json file://filepath/my-first-toxicity-job.json
```

Le fichier *my-first-toxicity-job.json* contient le corps de requête suivant.

```
{
  "TranscriptionJobName": "my-first-transcription-job",
  "Media": {
        "MediaFileUri": "s3://amzn-s3-demo-bucket/my-input-files/my-media-file.flac"
  },
  "OutputBucketName": "amzn-s3-demo-bucket",
  "OutputKey": "my-output-files/", 
  "LanguageCode": "en-US",
  "ToxicityDetection": [ 
      { 
         "ToxicityCategories": [ "ALL" ]
      }
   ]
}
```

### AWS SDK pour Python (Boto3)
<a name="toxicity-using-python-batch"></a>

 Cet exemple utilise le AWS SDK pour Python (Boto3) to enable `ToxicityDetection` pour la méthode [start\$1transcription\$1job](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/transcribe.html#TranscribeService.Client.start_transcription_job). Pour plus d’informations, consultez [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartTranscriptionJob.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartTranscriptionJob.html) et [https://docs.aws.amazon.com/transcribe/latest/APIReference/Welcome.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/Welcome.html). 

Pour des exemples supplémentaires utilisant le AWS SDKs, notamment des exemples spécifiques aux fonctionnalités, des scénarios et des exemples multiservices, reportez-vous au chapitre. [Exemples de code pour Amazon Transcribe à l'aide de AWS SDKs](service_code_examples.md)

```
from __future__ import print_function
import time
import boto3
transcribe = boto3.client('transcribe', 'us-west-2')
job_name = "my-first-transcription-job"
job_uri = "s3://amzn-s3-demo-bucket/my-input-files/my-media-file.flac"
transcribe.start_transcription_job(
    TranscriptionJobName = job_name,
    Media = {
        'MediaFileUri': job_uri
    },
    OutputBucketName = 'amzn-s3-demo-bucket',
    OutputKey = 'my-output-files/', 
    LanguageCode = 'en-US', 
    ToxicityDetection = [ 
        { 
            'ToxicityCategories': ['ALL']
        }
    ]
)

while True:
    status = transcribe.get_transcription_job(TranscriptionJobName = job_name)
    if status['TranscriptionJob']['TranscriptionJobStatus'] in ['COMPLETED', 'FAILED']:
        break
    print("Not ready yet...")
    time.sleep(5)
print(status)
```

## Exemple de sortie
<a name="toxicity-using-output"></a>

 Le discours toxique est balisé et classé dans votre sortie de transcription. Chaque instance de discours toxique est classée et se voit attribuée un score de confiance (une valeur comprise entre 0 et 1). Une valeur de confiance plus élevée indique une plus grande probabilité que le contenu soit un discours toxique au sein de la catégorie spécifiée. 

### Exemple de sortie (JSON)
<a name="toxicity-using-output-json"></a>

 Voici un exemple de sortie au format JSON illustrant un discours toxique classé avec des scores de confiance associés. 

```
{
    "jobName": "my-toxicity-job",
    "accountId": "111122223333",
    "results": {
        "transcripts": [...],
        "items":[...],
        "toxicity_detection": [
            {
                "text": "What the * are you doing man? That's why I didn't want to play with your * .  man it was a no, no I'm not calming down * man. I well I spent I spent too much * money on this game.",
                "toxicity": 0.7638,
                "categories": {
                    "profanity": 0.9913,
                    "hate_speech": 0.0382,
                    "sexual": 0.0016,
                    "insult": 0.6572,
                    "violence_or_threat": 0.0024,
                    "graphic": 0.0013,
                    "harassment_or_abuse": 0.0249
                },
                "start_time": 8.92,
                "end_time": 21.45
            },
            Items removed for brevity
            {
                "text": "What? Who? What the * did you just say to me? What's your address? What is your * address? I will pull up right now on your * * man. Take your * back to , tired of this **.",
                "toxicity": 0.9816,
                "categories": {
                    "profanity": 0.9865,
                    "hate_speech": 0.9123,
                    "sexual": 0.0037,
                    "insult": 0.5447,
                    "violence_or_threat": 0.5078,
                    "graphic": 0.0037,
                    "harassment_or_abuse": 0.0613
                },
                "start_time": 43.459,
                "end_time": 54.639
            },
        ]
    },
    ...
    "status": "COMPLETED"
}
```