

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Analyse de l’audio du centre d’appels avec Call Analytics
<a name="call-analytics"></a>

Utilisez Amazon Transcribe Call Analytics pour mieux comprendre les interactions client-agent. Call Analytics est spécialement conçu pour le son des centres d’appels et vous fournit automatiquement des données précieuses relatives à chaque appel et à chaque participant. Vous pouvez également affiner les données à des moments précis de l’appel. Par exemple, vous pouvez comparer le sentiment du client dans les premières secondes d’un appel au dernier quart de l’appel pour voir si votre agent a fourni une expérience positive. D’autres exemples de cas d’utilisation sont répertoriés dans la [section suivante](#call-analytics-use-cases).

Call Analytics est disponible pour les transcriptions après appel et en temps réel. Si vous transcrivez un fichier situé dans un Amazon S3 bucket, vous effectuez une transcription après un appel. Si vous transcrivez un flux audio, vous effectuez une transcription en temps réel. Ces deux méthodes de transcription proposent des informations et des fonctionnalités Call Analytics différentes. Pour plus d’informations sur chacune de ces méthodes, consultez les sections [Analyse après appel](call-analytics-batch.md) et [Analyse Call Analytics en temps réel](call-analytics-streaming.md).

Grâce aux transcriptions Call Analytics en temps réel, vous pouvez également inclure des [analyses après appel](tca-post-call.md) dans votre demande. Votre transcription d'analyse post-appel est stockée dans le Amazon S3 compartiment que vous spécifiez dans votre demande. Pour plus d’informations, consultez la section [Analyses après appel avec transcriptions en temps réel](tca-post-call.md).

**Opérations d’API spécifiques à Call Analytics**  
Après appel : [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html), [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_DeleteCallAnalyticsCategory.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_DeleteCallAnalyticsCategory.html), [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_DeleteCallAnalyticsJob.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_DeleteCallAnalyticsJob.html), [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_GetCallAnalyticsCategory.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_GetCallAnalyticsCategory.html), [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_GetCallAnalyticsJob.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_GetCallAnalyticsJob.html), [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_ListCallAnalyticsCategories.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_ListCallAnalyticsCategories.html), [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_ListCallAnalyticsJobs.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_ListCallAnalyticsJobs.html), [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartCallAnalyticsJob.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartCallAnalyticsJob.html), [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_UpdateCallAnalyticsCategory.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_UpdateCallAnalyticsCategory.html)  
En temps réel : [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartCallAnalyticsStreamTranscription.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartCallAnalyticsStreamTranscription.html), StartCallAnalyticsStreamTranscriptionWebSocket

## Cas d’utilisation courants
<a name="call-analytics-use-cases"></a>

**Transcriptions après appel :**
+ **Surveiller la fréquence des problèmes au fil du temps** : utilisez la [catégorisation des appels](call-analytics-batch.md#tca-categorization-batch) pour identifier les mots clés récurrents dans vos transcriptions.
+ **Obtenir des informations sur l’expérience de votre service client** : utilisez les [caractéristiques de l’appel](call-analytics-batch.md#tca-characteristics-batch) (temps hors conversation, temps de conversation, interruptions, volume de la voix, vitesse de conversation) et l’analyse des sentiments pour déterminer si les problèmes des clients sont résolus de manière appropriée pendant l’appel.
+ **Garantir la conformité réglementaire ou le respect de la politique de l’entreprise** : définissez des [mots clés et des phrases](call-analytics-batch.md#tca-categorization-batch) pour les messages d’accueil spécifiques à l’entreprise ou les clauses de non-responsabilité afin de vérifier que vos agents respectent les exigences réglementaires.
+ **Améliorer le traitement des données personnelles des clients** : utilisez l’[expurgation des données d’identification personnelle (PII)](call-analytics-batch.md#tca-pii-redact-batch) dans votre sortie de transcription ou votre fichier audio pour protéger la confidentialité des clients.
+ **Améliorer la formation du personnel** : utilisez des critères (sentiment, temps hors conversation, interruptions, vitesse de conversation) pour signaler les transcriptions qui peuvent être utilisées comme exemples d’interactions positives ou négatives avec les clients.
+ **Mesurer l’efficacité du personnel dans la création d’une expérience client positive** : utilisez [l’analyse des sentiments](call-analytics-batch.md#tca-sentiment-batch) pour déterminer si vos agents sont capables de transformer un sentiment négatif en un sentiment positif à mesure que les appels progressent.
+ **Améliorer l’organisation des données** : étiquetez et triez les appels en fonction de [catégories personnalisées](call-analytics-batch.md#tca-categorization-batch) (notamment les mots clés et les phrases, les sentiments, le temps de conversation et les interruptions).
+ **Résumez les aspects importants d’un appel à l’aide de l’IA générative** : utilisez le [résumé génératif des appels](call-analytics-batch.md#tca-summarization-batch) pour obtenir un résumé concis de la transcription, qui inclut les éléments clés tels que les problèmes, les éléments d’action et les résultats abordés lors de l’appel.

**Transcriptions en temps réel :**
+ **Atténuer les escalades en temps réel** : configurez des [alertes en temps réel](tca-start-stream.md#tca-create-alert-stream) pour les phrases clés, telles qu’un client disant « parler à un responsable », afin de signaler les appels qui commencent à dégénérer. Vous pouvez créer des alertes en temps réel en utilisant des correspondances de catégories en temps réel.
+ **Améliorer le traitement des données des clients** : utilisez l’[identification des données d’identification personnelle (PII)](call-analytics-streaming.md#tca-pii-id-stream) ou l’[expurgation des données d’identification personnelle (PII)](call-analytics-streaming.md#tca-pii-redact-stream) dans votre sortie de transcription pour protéger la confidentialité des clients.
+ **Identifier des mots clés et des phrases personnalisés** : utilisez [des catégories personnalisées](call-analytics-streaming.md#tca-category-events-stream) pour signaler des mots clés spécifiques lors d’un appel.
+ **Identifier automatiquement les problèmes** : utilisez la [détection automatique des problèmes](call-analytics-streaming.md#tca-issue-detection-stream) pour obtenir un bref résumé de tous les problèmes identifiés lors d’un appel.
+ **Mesurer l’efficacité du personnel dans la création d’une expérience client positive** : utilisez [l’analyse des sentiments](call-analytics-streaming.md#tca-sentiment-stream) pour déterminer si vos agents sont capables de transformer un sentiment négatif en un sentiment positif à mesure que les appels progressent.
+ **Configurer l’assistance aux agents** : utilisez les informations de votre choix pour fournir à vos agents une assistance proactive dans la résolution des appels des clients. Pour plus d’informations, consultez la section [Live Call Analytics and agent assist for your contact center with Amazon language AI services](https://aws.amazon.com/blogs/machine-learning/live-call-analytics-and-agent-assist-for-your-contact-center-with-amazon-language-ai-services/).

Pour comparer les fonctionnalités disponibles avec Call Analytics à celles disponibles pour Amazon Transcribe et Amazon Transcribe Medical, reportez-vous au [tableau des fonctionnalités](feature-matrix.md).

Pour démarrer, consultez les sections [Démarrage d’une transcription d’analyse après appel](tca-start-batch.md) et [Démarrage d’une transcription Call Analytics en temps réel](tca-start-stream.md). Le résultat de Call Analytics est similaire à celui d’une tâche de transcription standard, mais contient des données d’analyse supplémentaires. Pour consulter un exemple de sortie, reportez-vous aux sections [Résultats d’analyse après appel](tca-output-batch.md) et [Sortie Call Analytics en temps réel](tca-output-streaming.md).

## Considérations et informations supplémentaires
<a name="tca-considerations"></a>

Avant d’utiliser Call Analytics, notez les informations suivantes :
+ Call Analytics ne prend en charge que l’audio à deux canaux, où un agent est présent sur un canal et un client sur un second canal.
+ [Mise en file d’attente des tâches](job-queueing.md) est toujours activé pour les tâches d’analyse après appel. Vous êtes donc limité à 100 tâches Call Analytics simultanées. Pour demander une augmentation du quota, consultez la section [Service Quotas AWS](https://docs.aws.amazon.com/general/latest/gr/aws_service_limits.html).
+ Les fichiers d’entrée pour les tâches d’analyse après appel ne peuvent pas dépasser 500 Mo et doivent durer moins de 4 heures. Pour les fichiers audio dont la fréquence est supérieure à 8 kHz, la durée audio doit être inférieure ou égale à 2 heures. Notez que la limite de taille de fichier peut être inférieure pour certains formats de fichiers audio compressés non WAV.
+ Si vous utilisez des catégories, vous devez créer toutes les catégories souhaitées avant de commencer une transcription Call Analytics. Aucune nouvelle catégorie ne peut être appliquée aux transcriptions existantes. Pour savoir comment créer une nouvelle catégorie, consultez les sections [Création de catégories pour les transcriptions après appel](tca-categories-batch.md) et [Création de catégories pour les transcriptions en temps réel](tca-categories-stream.md).
+ Certains quotas d'analyse des appels diffèrent de ceux Amazon Transcribe de Amazon Transcribe Medical ; reportez-vous à la [référence AWS générale](https://docs.aws.amazon.com/general/latest/gr/transcribe.html#transcribe_region) pour plus de détails.

**Approfondissez vos connaissances avec le blog AWS Machine Learning**  
Pour plus d’informations sur les options Call Analytics, consultez les sections suivantes :  
[Post Call Analytics for your contact center with Amazon language AI services](https://aws.amazon.com/blogs/machine-learning/post-call-analytics-for-your-contact-center-with-amazon-language-ai-services/)
[Live Call Analytics and agent assist for your contact center with Amazon language AI services](https://aws.amazon.com/blogs/machine-learning/live-call-analytics-and-agent-assist-for-your-contact-center-with-amazon-language-ai-services/)

Pour voir des exemples de résultats et de fonctionnalités d'analyse des appels, consultez notre [GitHubdémo](https://github.com/aws-samples/amazon-transcribe-post-call-analytics). Nous proposons également une application de [document JSON vers Word](https://github.com/aws-samples/amazon-transcribe-output-word-document) pour convertir votre transcription dans un easy-to-read format.

## Disponibilité des régions et quotas
<a name="tca-regions"></a>

Call Analytics est pris en charge dans les domaines suivants Régions AWS :


| **Région** | **Type de transcription** | 
| --- | --- | 
| ap-northeast-1 (Tokyo) | post-call, real-time | 
| ap-northeast-2 (Séoul) | post-call, real-time | 
| ap-south-1 (Bombay) | post-call | 
| ap-southeast-1 (Singapour) | post-call | 
| ap-southeast-2 (Sydney) | post-call, real-time | 
| ca-central-1, (Canada, Centre) | post-call, real-time | 
| eu-central-1 (Francfort) | post-call, real-time | 
| eu-west-2 (Londres) | post-call, real-time | 
| us-east-1 (Virginie du Nord) | post-call, real-time | 
| us-west-2 (Oregon) | post-call, real-time | 

Notez que la prise en charge de la région est différente pour [Amazon Transcribe](what-is.md#tsc-regions), [Amazon Transcribe Medical](transcribe-medical.md#med-regions) et Call Analytics.

Pour connaître les points de terminaison de chaque région prise en charge, consultez la section [Points de terminaison de service](https://docs.aws.amazon.com/general/latest/gr/transcribe.html#transcribe_region) dans la *Référence générale AWS *.

Pour obtenir la liste des quotas relatifs à vos transcriptions, consultez la section [Service Quotas](https://docs.aws.amazon.com/general/latest/gr/transcribe.html#limits-amazon-transcribe) dans la *Référence générale AWS *. Certains quotas peuvent être modifiés sur demande. Si la colonne **Ajustable** contient « **Oui** », vous pouvez demander une augmentation. Pour ce faire, sélectionnez le lien fourni.

# Analyse après appel
<a name="call-analytics-batch"></a>

Call Analytics fournit des analyses après appel qui sont utiles pour suivre les tendances du service client. 

Les transcriptions effectuées après appel fournissent les informations suivantes :
+ [Caractéristiques des appels](#tca-characteristics-batch), notamment le temps de conversation, le temps de non-conversation, le volume du locuteur, les interruptions, la vitesse de conversation, les problèmes, les résultats et les éléments d’action.
+  [Résumé génératif des appels](#tca-summarization-batch), qui crée un résumé concis de l’ensemble de l’appel 
+ [Catégorisation personnalisée](#tca-categorization-batch) avec des règles que vous pouvez utiliser pour affiner des mots clés et des critères spécifiques
+ [Expurgation des données d’identification personnelle](#tca-pii-redact-batch) de votre transcription de texte et de votre fichier audio
+ [Sentiment du locuteur](#tca-sentiment-batch) à l’égard de chaque appelant à différents moments d’un appel

## Informations après appel
<a name="call-analytics-insights-batch"></a>

Cette section détaille les informations disponibles pour les transcriptions d’analyses après appel.

### Caractéristiques des appels
<a name="tca-characteristics-batch"></a>

La fonctionnalité des caractéristiques des appels mesure la qualité des interactions agent-client en fonction des critères suivants :
+ **Interruption** : mesure si et quand un participant coupe la parole à l’autre participant au milieu d’une phrase. Les interruptions fréquentes peuvent être associées à la grossièreté ou à la colère, et peuvent être corrélées à un sentiment négatif chez l’un des participants ou les deux.
+ **Volume sonore** : mesure le volume auquel chaque participant parle. Utilisez cette métrique pour voir si l’appelant ou l’agent parle fort ou crie, ce qui indique souvent qu’il est contrarié. Cette métrique est représentée sous la forme d’une valeur normalisée (niveau de parole par seconde dans un segment donné) sur une échelle de 0 à 100, une valeur plus élevée indiquant une voix plus forte.
+ **Temps de non-conversation** : mesure les périodes pendant lesquelles il n’y a pas de parole. Utilisez cette métrique pour voir s’il existe de longues périodes de silence, par exemple si un agent maintient un client en attente pendant une durée excessive.
+ **Vitesse de conversation** : mesure la vitesse à laquelle les deux participants parlent. La compréhension peut être affectée si l’un des participants parle trop rapidement. Cette métrique est mesurée en mots par minute.
+ **Temps de conversation** : mesure le temps (en millisecondes) pendant lequel chaque participant a parlé pendant l’appel. Utilisez cette métrique pour déterminer si un participant domine l’appel ou si le dialogue est équilibré.
+ **Problèmes, résultats et éléments d’action** : identifie les problèmes, les résultats et les éléments d’action à partir de la transcription de l’appel.

Voici un [exemple de sortie](tca-output-batch.md#tca-output-characteristics-batch).

### Résumé génératif des appels
<a name="tca-summarization-batch"></a>

 La synthèse générative des appels crée un résumé concis de l'ensemble de l'appel, en capturant les éléments clés tels que le motif de l'appel, les mesures prises pour résoudre le problème et les étapes suivantes. 

 Grâce au résumé génératif des appels, vous pouvez : 
+ réduire le besoin de prendre des notes manuellement pendant et après les appels ;
+ améliorer l’efficacité des agents, car ils peuvent passer plus de temps à parler aux appelants qui attendent dans la file d’attente plutôt qu’à s’occuper du travail après l’appel ;
+ accélérer les évaluations des superviseurs, car les récapitulatifs des appels sont beaucoup plus rapides à passer en revue que les transcriptions complètes.

 Pour utiliser le résumé génératif des appels avec une tâche d’analyse après appel, consultez [Activer le résumé génératif des appels](https://docs.aws.amazon.com/transcribe/latest/dg/tca-enable-summarization.html). Pour un exemple de sortie, voir [Exemple de sortie de résumé génératif des appels](https://docs.aws.amazon.com/transcribe/latest/dg/tca-output-batch.html#tca-output-summarization-batch). Le résumé génératif des appels est facturé séparément (veuillez vous reporter à la [page de tarification](https://aws.amazon.com/transcribe/pricing)). 

**Note**  
 Le résumé génératif des appels est actuellement disponible dans `us-east-1` et `us-west-2`. Cette fonctionnalité est prise en charge par les dialectes anglais suivants : australien (`en-AU`), britannique (`en-GB`), indien (`en-IN`), irlandais (`en-IE`), écossais (`en-AB`), américain (`en-US`) et gallois (`en-WL`). 

### Catégorisation personnalisée
<a name="tca-categorization-batch"></a>

Utilisez la catégorisation des appels pour marquer des mots clés, des phrases, des sentiments ou des actions au sein d’un appel. Nos options de catégorisation peuvent vous aider à trier les escalades, telles que les appels à sentiment négatif comportant de nombreuses interruptions, ou à organiser les appels dans des catégories spécifiques, telles que les services de l’entreprise.

Les critères que vous pouvez ajouter à une catégorie sont les suivants :
+ **Temps de non-conversation** : périodes pendant lesquelles ni le client ni l’agent ne parlent.
+ **Interruptions** : lorsque le client ou l’agent interrompt l’autre personne.
+ **Sentiment du client ou de l’agent** : sentiment du client ou de l’agent pendant une période donnée. Si au moins 50 % de la conversation ( back-and-forthentre deux interlocuteurs) pendant une période donnée correspond au sentiment spécifié, Amazon Transcribe considère que le sentiment correspond.
+ **Mots clés ou phrases** : correspond à une partie de la transcription en fonction d’une phrase exacte. Par exemple, si vous définissez un filtre pour la phrase « Je souhaite parler au responsable », Amazon Transcribe filtre cette phrase *exacte*.

Vous pouvez également signaler l’inverse des critères précédents (temps de conversation, absence d’interruptions, absence d’un sentiment et absence d’une phrase spécifique).

Voici un [exemple de sortie](tca-output-batch.md#tca-output-categorization-batch).

Pour plus d’informations sur les catégories ou pour savoir comment créer une nouvelle catégorie, consultez la section [Création de catégories pour les transcriptions après appel](tca-categories-batch.md).

### Expurgation des données sensibles
<a name="tca-pii-redact-batch"></a>

L’expurgation des données sensibles remplace les données d’identification personnelle (PII) dans la transcription du texte et le fichier audio. Une transcription expurgée remplace le texte original par `[PII]` ; un fichier audio expurgé remplace les informations personnelles prononcées par le silence. Ce paramètre est utile pour protéger les informations des clients.

**Note**  
La rédaction des informations personnelles après un appel est prise en charge en anglais américain (`en-US`) et en espagnol américain (). `es-US`

Pour consulter la liste des PII supprimées à l’aide de cette fonctionnalité, ou pour en savoir plus sur l’expurgation avec Amazon Transcribe, consultez la section [Expurgation ou identification des données d’identification personnelle](pii-redaction.md).

Voici un [exemple de sortie](tca-output-batch.md#tca-output-pii-redact-batch).

### Analyse de sentiment
<a name="tca-sentiment-batch"></a>

L’analyse des sentiments permet d’estimer ce que le client et l’agent ressentent tout au long de l’appel. Cette métrique est représentée à la fois sous la forme d’une valeur quantitative (avec une plage comprise entre `5` et `-5`) et d’une valeur qualitative (`positive`, `neutral`, `mixed` ou `negative`). Les valeurs quantitatives sont fournies par trimestre et par appel ; les valeurs qualitatives sont fournies par tour.

Cette métrique peut aider à déterminer si votre agent est capable de satisfaire un client mécontent à la fin de l’appel.

L'analyse des sentiments fonctionne out-of-the-box et ne prend donc pas en charge la personnalisation, telle que la formation des modèles ou les catégories personnalisées.

Voici un [exemple de sortie](tca-output-batch.md#tca-output-sentiment-batch).

# Création de catégories pour les transcriptions après appel
<a name="tca-categories-batch"></a>

L’analyse après appel prend en charge la création de catégories personnalisées, ce qui vous permet d’adapter vos analyses de transcriptions aux besoins spécifiques de votre entreprise.

Vous pouvez créer autant de catégories que vous le souhaitez pour couvrir une gamme de scénarios différents. Pour chaque catégorie que vous créez, vous devez créer entre 1 et 20 règles. Chaque règle est basée sur l’un des quatre critères suivants : interruptions, mots clés, temps de non-conversation ou sentiment. Pour plus d’informations sur l’utilisation de ces critères dans le cadre de l’opération [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html), consultez la section [Critères de règles pour les catégories d’analyse après appel](#tca-rules-batch).

Si le contenu de votre média répond à toutes les règles que vous avez spécifiées dans une catégorie donnée, Amazon Transcribe attribue cette catégorie à votre sortie. Pour un exemple de correspondance de catégorie dans la sortie JSON, consultez la [sortie de catégorisation des appels](tca-output-batch.md#tca-output-categorization-batch).

Voici quelques exemples de ce que vous pouvez faire avec des catégories personnalisées :
+ isoler les appels présentant des caractéristiques spécifiques, tels que les appels qui se terminent par un sentiment négatif du client ;
+ identifier les tendances relatives aux problèmes des clients en signalant et en suivant des ensembles de mots clés spécifiques ;
+ surveiller la conformité, par exemple si un agent prononce (ou omet) une phrase spécifique pendant les premières secondes d’un appel ;
+ obtenir des informations sur l’expérience client en signalant les appels présentant de nombreuses interruptions de l’agent et un sentiment négatif de la part des clients ;
+ comparer plusieurs catégories pour mesurer les corrélations, par exemple en analysant si l’utilisation d’une phrase de bienvenue par un agent est en corrélation avec le sentiment positif de la part du client.

**Catégories après appel et catégories en temps réel**

Lorsque vous créez une nouvelle catégorie, vous pouvez spécifier si vous souhaitez qu’elle soit créée en tant que catégorie d’analyse après appel (`POST_CALL`) ou en tant que catégorie Call Analytics en temps réel (`REAL_TIME`). Si vous ne spécifiez aucune option, votre catégorie est créée par défaut en tant que catégorie après appel. Les correspondances de la catégories d’analyse après appel sont disponibles dans votre sortie une fois la transcription de votre analyse après appel terminée.

Pour créer une nouvelle catégorie pour les analyses post-appel, vous pouvez utiliser le **AWS Management Console**AWS CLI****, ou **AWS SDKs**; consultez les exemples suivants :

## AWS Management Console
<a name="tca-category-console-batch"></a>

1. Dans le volet de navigation, sous Amazon Transcribe, choisissez **Amazon Transcribe Call Analytics**.

1. Choisissez **Catégories Call Analytics** pour accéder à la page **Catégories Call Analytics**. Sélectionnez **Créer une catégorie**.  
![\[Amazon Transcribe capture d'écran de la console : la page « catégories » de Call Analytics.\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-categories.png)

1. Vous êtes maintenant sur la **page Créer une catégorie**. Entrez un nom pour votre catégorie, puis choisissez « Analyse des appels par lots » dans le menu déroulant **Type de catégorie**.  
![\[Amazon Transcribe capture d'écran de la console : le panneau « paramètres des catégories ».\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-categories-type.png)

1. Vous pouvez choisir un modèle pour créer votre catégorie ou en créer une de zéro.

   Si vous utilisez un modèle : sélectionnez **Utiliser un modèle (recommandé)**, choisissez le modèle souhaité, puis sélectionnez **Créer une catégorie**.  
![\[Amazon Transcribe capture d'écran de la console : le panneau « paramètres des catégories » affichant les modèles optionnels.\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-categories-settings-batch.png)

1. Si vous créez une catégorie personnalisée : sélectionnez **Créer à partir de zéro**.  
![\[Amazon Transcribe capture d'écran de la console : la page « créer une catégorie » affichant le volet « règles ».\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-categories-custom.png)

1. Ajoutez des règles à votre catégorie à l’aide du menu déroulant. Vous pouvez ajouter jusqu’à 20 règles par catégorie.  
![\[Amazon Transcribe capture d'écran de la console : le volet « règles » avec la liste des types de règles.\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-categories-custom-rules1.png)

1. Voici un exemple de catégorie comportant deux règles : un agent qui interrompt un client pendant plus de 15 secondes pendant l’appel et un sentiment négatif ressenti par le client ou l’agent au cours des deux dernières minutes de l’appel.  
![\[Amazon Transcribe capture d'écran de la console : le volet « règles » avec deux exemples de règles.\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-categories-custom-rules2.png)

1. Lorsque vous avez fini d’ajouter des règles à votre catégorie, choisissez **Créer une catégorie**.

## AWS CLI
<a name="tca-category-cli-batch"></a>

Cet exemple utilise la [create-call-analytics-category](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/transcribe/create-call-analytics-category.html)commande. Pour plus d’informations, consultez [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html), [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CategoryProperties.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CategoryProperties.html) et [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_Rule.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_Rule.html).

L’exemple suivant crée une catégorie avec les règles :
+ Le client a été interrompu dans les 60 000 premières millisecondes. La durée de ces interruptions a été d’au moins 10 000 millisecondes.
+ Il y a eu une période de silence d’au moins 20 000 millisecondes entre 10 % et 80 % de l’appel.
+ L’agent a eu un sentiment négatif à un moment donné au cours de l’appel.
+ Les mots « bienvenue » ou « bonjour » n’ont pas été utilisés pendant les 10 000 premières millisecondes de l’appel.

Cet exemple utilise la [create-call-analytics-category](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/transcribe/create-call-analytics-category.html)commande et un corps de requête qui ajoute plusieurs règles à votre catégorie.

```
aws transcribe create-call-analytics-category \
--cli-input-json file://filepath/my-first-analytics-category.json
```

Le fichier *my-first-analytics-category.json* contient le corps de requête suivant.

```
{
  "CategoryName": "my-new-category",
  "InputType": "POST_CALL",
  "Rules": [
        {
            "InterruptionFilter": {
                "AbsoluteTimeRange": {
                    "First": 60000
                },
                "Negate": false,
                "ParticipantRole": "CUSTOMER",
                "Threshold": 10000
            }
        },
        {
            "NonTalkTimeFilter": {
                "Negate": false,
                "RelativeTimeRange": {
                    "EndPercentage": 80,
                    "StartPercentage": 10
                },
                "Threshold": 20000
            }
        },
        {
            "SentimentFilter": {
                "ParticipantRole": "AGENT",
                "Sentiments": [
                    "NEGATIVE"                    
                ]
            }
        },
        {
            "TranscriptFilter": {
                "Negate": true,
                "AbsoluteTimeRange": {
                    "First": 10000
                },
                "Targets": [
                    "welcome",
                    "hello"
                ],
                "TranscriptFilterType": "EXACT"
            }
        }
    ]
}
```

## AWS SDK pour Python (Boto3)
<a name="tca-category-python-batch"></a>

Cet exemple utilise le AWS SDK pour Python (Boto3) pour créer une catégorie à l'aide des `Rules` arguments `CategoryName` et de la méthode [create\$1call\$1analytics\$1category](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/transcribe.html#TranscribeService.Client.create_call_analytics_category). Pour plus d’informations, consultez [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html), [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CategoryProperties.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CategoryProperties.html) et [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_Rule.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_Rule.html).

Pour des exemples supplémentaires utilisant le AWS SDKs, notamment des exemples spécifiques aux fonctionnalités, des scénarios et des exemples multiservices, reportez-vous au chapitre. [Exemples de code pour Amazon Transcribe à l'aide de AWS SDKs](service_code_examples.md)

L’exemple suivant crée une catégorie avec les règles :
+ Le client a été interrompu dans les 60 000 premières millisecondes. La durée de ces interruptions a été d’au moins 10 000 millisecondes.
+ Il y a eu une période de silence d’au moins 20 000 millisecondes entre 10 % et 80 % de l’appel.
+ L’agent a eu un sentiment négatif à un moment donné au cours de l’appel.
+ Les mots « bienvenue » ou « bonjour » n’ont pas été utilisés pendant les 10 000 premières millisecondes de l’appel.

```
from __future__ import print_function
import time
import boto3
transcribe = boto3.client('transcribe', 'us-west-2')
category_name = "my-new-category"
transcribe.create_call_analytics_category(
    CategoryName = category_name,
    InputType = POST_CALL,
    Rules = [
        {
            'InterruptionFilter': {
                'AbsoluteTimeRange': {
                    'First': 60000
                },
                'Negate': False,
                'ParticipantRole': 'CUSTOMER',
                'Threshold': 10000
            }
        },
        {
            'NonTalkTimeFilter': {
                'Negate': False,
                'RelativeTimeRange': {
                    'EndPercentage': 80,
                    'StartPercentage': 10
                },
                'Threshold': 20000
            }
        },
        {
            'SentimentFilter': {
                'ParticipantRole': 'AGENT',
                'Sentiments': [
                    'NEGATIVE'                    
                ]
            }
        },
        {
            'TranscriptFilter': {
                'Negate': True,
                'AbsoluteTimeRange': {
                    'First': 10000
                },
                'Targets': [
                    'welcome',
                    'hello'
                ],
                'TranscriptFilterType': 'EXACT'
            }
        }
    ]
    
)

result = transcribe.get_call_analytics_category(CategoryName = category_name)    
print(result)
```

## Critères de règles pour les catégories d’analyse après appel
<a name="tca-rules-batch"></a>

Cette section décrit les types de règles `POST_CALL` personnalisées que vous pouvez créer à l’aide de l’opération d’API [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html).

### Correspondances d’interruptions
<a name="tca-rules-interruptions-batch"></a>

Les règles utilisant des interruptions (type de données [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_InterruptionFilter.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_InterruptionFilter.html)) sont conçues pour correspondre à :
+ des instances dans lesquelles un agent interrompt un client ;
+ des instances dans lesquelles un client interrompt un agent ;
+ tout participant interrompant l’autre ;
+ l’absence d’interruptions.

Voici un exemple des paramètres disponibles avec [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_InterruptionFilter.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_InterruptionFilter.html) :

```
"InterruptionFilter": { 
    "AbsoluteTimeRange": { 
       Specify the time frame, in milliseconds, when the match should occur
    },
    "RelativeTimeRange": { 
       Specify the time frame, in percentage, when the match should occur
    },
    "Negate": Specify if you want to match the presence or absence of interruptions,
    "ParticipantRole": Specify if you want to match speech from the agent, the customer, or both,    
    "Threshold": Specify a threshold for the amount of time, in seconds, interruptions occurred during the call
},
```

Pour plus d’informations sur ces paramètres et les valeurs valides associées à chacun, consultez les rubriques [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html) et [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_InterruptionFilter.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_InterruptionFilter.html).

### Correspondances de mots clés
<a name="tca-rules-keywords-batch"></a>

Les règles utilisant des mots clés (type de données [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_TranscriptFilter.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_TranscriptFilter.html)) sont conçues pour correspondre à :
+ des mots ou phrases personnalisés prononcés par l’agent, le client ou les deux ;
+ des mots ou phrases personnalisés qui ne sont **pas** prononcés par l’agent, le client ou les deux ;
+ des mots ou phrases personnalisés qui apparaissent dans un laps de temps spécifique.

Voici un exemple des paramètres disponibles avec [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_TranscriptFilter.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_TranscriptFilter.html) :

```
"TranscriptFilter": { 
    "AbsoluteTimeRange": { 
       Specify the time frame, in milliseconds, when the match should occur
    },
    "RelativeTimeRange": { 
       Specify the time frame, in percentage, when the match should occur
    },
    "Negate": Specify if you want to match the presence or absence of your custom keywords,
    "ParticipantRole": Specify if you want to match speech from the agent, the customer, or both,
    "Targets": [ The custom words and phrases you want to match ],
    "TranscriptFilterType": Use this parameter to specify an exact match for the specified targets
}
```

Pour plus d’informations sur ces paramètres et les valeurs valides associées à chacun, consultez les rubriques [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html) et [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_TranscriptFilter.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_TranscriptFilter.html).

### Correspondances de temps de non-conversation
<a name="tca-rules-nontalktime-batch"></a>

Les règles utilisant des temps de non-conversation (type de données [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_NonTalkTimeFilter.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_NonTalkTimeFilter.html)) sont conçues pour correspondre à :
+ la présence de silence à des moments précis de l’appel ;
+ la présence de parole à des moments précis de l’appel.

Voici un exemple des paramètres disponibles avec [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_NonTalkTimeFilter.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_NonTalkTimeFilter.html) :

```
"NonTalkTimeFilter": { 
    "AbsoluteTimeRange": { 
 Specify the time frame, in milliseconds, when the match should occur
 },
    "RelativeTimeRange": { 
 Specify the time frame, in percentage, when the match should occur
 },
    "Negate": Specify if you want to match the presence or absence of speech,      
    "Threshold": Specify a threshold for the amount of time, in seconds, silence (or speech) occurred during the call
},
```

Pour plus d’informations sur ces paramètres et les valeurs valides associées à chacun, consultez les rubriques [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html) et [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_NonTalkTimeFilter.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_NonTalkTimeFilter.html).

### Correspondances des sentiments
<a name="tca-rules-sentiment-batch"></a>

Les règles utilisant des sentiments (type de données [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_SentimentFilter.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_SentimentFilter.html)) sont conçues pour correspondre à :
+ la présence ou l’absence d’un sentiment positif exprimé par le client, l’agent ou les deux à des moments précis de l’appel ;
+ la présence ou l’absence d’un sentiment négatif exprimé par le client, l’agent ou les deux à des moments précis de l’appel ;
+ la présence ou l’absence d’un sentiment neutre exprimé par le client, l’agent ou les deux à des moments précis de l’appel ;
+ la présence ou l’absence d’un sentiment mitigé exprimé par le client, l’agent ou les deux à des moments précis de l’appel.

Voici un exemple des paramètres disponibles avec [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_SentimentFilter.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_SentimentFilter.html) :

```
"SentimentFilter": { 
    "AbsoluteTimeRange": { 
    Specify the time frame, in milliseconds, when the match should occur
    },
    "RelativeTimeRange": { 
    Specify the time frame, in percentage, when the match should occur
    },
    "Negate": Specify if you want to match the presence or absence of your chosen sentiment,
    "ParticipantRole": Specify if you want to match speech from the agent, the customer, or both,    
    "Sentiments": [ The sentiments you want to match ]
},
```

Pour plus d’informations sur ces paramètres et les valeurs valides associées à chacun, consultez les rubriques [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html) et [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_SentimentFilter.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_SentimentFilter.html).

# Démarrage d’une transcription d’analyse après appel
<a name="tca-start-batch"></a>

Avant de commencer une transcription analytique après un appel, vous devez créer toutes les [catégories](tca-categories-batch.md) que vous souhaitez associer Amazon Transcribe à votre audio.

**Note**  
Les transcriptions Call Analytics ne peuvent pas être associées rétroactivement à de nouvelles catégories. Seules les catégories que vous créez *avant* de commencer une transcription Call Analytics peuvent être appliquées à cette sortie de transcription.

Si vous avez créé une ou plusieurs catégories et que votre fichier audio répond à toutes les règles d’au moins une de vos catégories, Amazon Transcribe indique à votre sortie la catégorie correspondante. Si vous choisissez de ne pas utiliser de catégories, ou si votre contenu audio ne correspond pas aux règles spécifiées dans vos catégories, votre transcription n’est pas signalée.

Pour démarrer une transcription d'analyse après un appel, vous pouvez utiliser le **AWS Management Console**AWS CLI****, ou **AWS SDKs**; voir les exemples suivants :

## AWS Management Console
<a name="analytics-start-console-batch"></a>

Utilisez la procédure suivante pour démarrer une tâche d’analyse après appel. Les appels qui correspondent à toutes les caractéristiques définies par une catégorie sont étiquetés avec cette catégorie.

1. Dans le volet de navigation, sous Analyse des Amazon Transcribe appels, sélectionnez Tâches **d'analyse des appels**.

1. Choisissez **Créer une tâche**.  
![\[Amazon Transcribe capture d'écran de la console : la page « Offres d'emploi Call Analytics ».\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-start.png)

1. Sur la page **Spécifier les détails de la tâche**, fournissez des informations sur votre tâche Call Analytics, notamment l’emplacement de vos données d’entrée.  
![\[Amazon Transcribe capture d'écran de la console : la page « Spécifier les détails de la tâche ».\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-start-settings1.png)

   Spécifiez l' Amazon S3 emplacement souhaité pour vos données de sortie et IAM le rôle à utiliser.  
![\[Amazon Transcribe capture d'écran de la console : le panneau « autorisations d'accès ».\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-start-settings2.png)

1. Choisissez **Suivant**.

1. Pour **Configurer la tâche**, activez toutes les fonctionnalités facultatives que vous souhaitez inclure dans votre tâche Call Analytics. Si vous avez déjà créé des catégories, elles apparaissent dans le volet **Catégories** et sont automatiquement appliquées à votre tâche Call Analytics.  
![\[Amazon Transcribe capture d'écran de la console : la page « configurer le travail » affichant toutes les catégories personnalisées.\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-start-configure.png)

1. Choisissez **Créer une tâche**.

## AWS CLI
<a name="analytics-start-cli"></a>

Cet exemple utilise la [start-call-analytics-job](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/transcribe/start-call-analytics-job.html)commande et le `channel-definitions` paramètre. Pour plus d’informations, consultez [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartCallAnalyticsJob.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartCallAnalyticsJob.html) et [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_ChannelDefinition.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_ChannelDefinition.html).

```
aws transcribe start-call-analytics-job \
--region us-west-2 \
--call-analytics-job-name my-first-call-analytics-job \
--media MediaFileUri=s3://amzn-s3-demo-bucket/my-input-files/my-media-file.flac \
--output-location s3://amzn-s3-demo-bucket/my-output-files/ \
--data-access-role-arn arn:aws:iam::111122223333:role/ExampleRole \
--channel-definitions ChannelId=0,ParticipantRole=AGENT ChannelId=1,ParticipantRole=CUSTOMER
```

Voici un autre exemple d'utilisation de la [start-call-analytics-job](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/transcribe/start-call-analytics-job.html)commande et d'un corps de requête qui active Call Analytics pour cette tâche.

```
aws transcribe start-call-analytics-job \
--region us-west-2 \
--cli-input-json file://filepath/my-call-analytics-job.json
```

Le fichier *my-call-analytics-job.json* contient le corps de requête suivant.

```
{
      "CallAnalyticsJobName": "my-first-call-analytics-job",
      "DataAccessRoleArn": "arn:aws:iam::111122223333:role/ExampleRole",
      "Media": {
          "MediaFileUri": "s3://amzn-s3-demo-bucket/my-input-files/my-media-file.flac"
      },
      "OutputLocation": "s3://amzn-s3-demo-bucket/my-output-files/",
      "ChannelDefinitions": [
          {
              "ChannelId": 0,
              "ParticipantRole": "AGENT"
          },
          {
              "ChannelId": 1,
              "ParticipantRole": "CUSTOMER"
          }
      ]
}
```

## AWS SDK pour Python (Boto3)
<a name="analytics-start-python-batch"></a>

Cet exemple utilise le AWS SDK pour Python (Boto3) pour démarrer une tâche Call Analytics à l'aide de la méthode [start\$1call\$1analytics\$1job](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/transcribe.html#TranscribeService.Client.start_call_analytics_job). Pour plus d’informations, consultez [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartCallAnalyticsJob.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartCallAnalyticsJob.html) et [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_ChannelDefinition.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_ChannelDefinition.html).

Pour des exemples supplémentaires utilisant le AWS SDKs, notamment des exemples spécifiques aux fonctionnalités, des scénarios et des exemples multiservices, reportez-vous au chapitre. [Exemples de code pour Amazon Transcribe à l'aide de AWS SDKs](service_code_examples.md)

```
from __future__ import print_function
import time
import boto3
transcribe = boto3.client('transcribe', 'us-west-2')
job_name = "my-first-call-analytics-job"
job_uri = "s3://amzn-s3-demo-bucket/my-input-files/my-media-file.flac"
output_location = "s3://amzn-s3-demo-bucket/my-output-files/"
data_access_role = "arn:aws:iam::111122223333:role/ExampleRole"
transcribe.start_call_analytics_job(
     CallAnalyticsJobName = job_name,
     Media = {
        'MediaFileUri': job_uri
     },
     DataAccessRoleArn = data_access_role,
     OutputLocation = output_location,
     ChannelDefinitions = [
        {
            'ChannelId': 0, 
            'ParticipantRole': 'AGENT'
        },
        {
            'ChannelId': 1, 
            'ParticipantRole': 'CUSTOMER'
        }
     ]
)
    
 while True:
   status = transcribe.get_call_analytics_job(CallAnalyticsJobName = job_name)
   if status['CallAnalyticsJob']['CallAnalyticsJobStatus'] in ['COMPLETED', 'FAILED']:
     break
   print("Not ready yet...")
   time.sleep(5)
 print(status)
```

# Résultats d’analyse après appel
<a name="tca-output-batch"></a>

Les transcriptions des analyses post-appel sont affichées dans un turn-by-turn format par segment. Elles incluent la catégorisation des appels, les caractéristiques des appels (scores de niveau sonore, interruptions, temps de non-conversation, vitesse de conversation), le récapitulatif des appels (problèmes, résultats et mesures à prendre), l’expurgation et les sentiments. Un récapitulatif des caractéristiques de la conversation est également fourni à la fin de la transcription.

Pour améliorer la précision et personnaliser davantage vos transcriptions en fonction de votre cas d’utilisation, par exemple en incluant des termes spécifiques au secteur, ajoutez des [vocabulaires personnalisés](custom-vocabulary.md) ou des [modèles de langue personnalisés](custom-language-models.md) à votre demande Call Analytics. Pour masquer, supprimer ou étiqueter des mots que vous ne voulez pas voir apparaître dans vos résultats de transcription, tels que des termes vulgaires, ajoutez un [filtrage du vocabulaire](vocabulary-filtering.md). Si vous n’êtes pas sûr du code de langue à transmettre au fichier multimédia, vous pouvez activer l’[identification de la langue par lots](https://docs.aws.amazon.com/transcribe/latest/dg/lang-id-batch.html) pour identifier automatiquement la langue de le fichier multimédia.

Les sections suivantes présentent des exemples de sortie JSON au niveau des informations. Pour les résultats compilés, consultez la section [Compilation des résultats d’analyse après appel](#tca-output-batch-compiled).

## Catégorisation des appels
<a name="tca-output-categorization-batch"></a>

Voici à quoi ressemble une correspondance de catégorie dans votre sortie de transcription. Cet exemple montre que l’audio compris entre l’horodatage de 40 040 millisecondes et l’horodatage de 42 460 millisecondes correspond à la catégorie « résolution positive ». Dans ce cas, la catégorie personnalisée « résolution positive » exigeait un sentiment positif au cours des dernières secondes du discours.

```
"Categories": {
    "MatchedDetails": {
        "positive-resolution": {
            "PointsOfInterest": [
                {
                    "BeginOffsetMillis":  40040,
                    "EndOffsetMillis":  42460
                }
            ]
        }
    },
    "MatchedCategories": [
        " positive-resolution"
    ]
},
```

## Caractéristiques des appels
<a name="tca-output-characteristics-batch"></a>

Voici à quoi ressemblent les caractéristiques des appels dans votre sortie de transcription. Notez que les scores de niveau sonore sont fournis pour chaque tour de conversation, tandis que toutes les autres caractéristiques sont fournies à la fin de la transcription.

```
"LoudnessScores": [
    87.54,
    88.74,
    90.16,
    86.36,
    85.56,
    85.52,
    81.79,
    87.74,
    89.82
],
  
...  
    
"ConversationCharacteristics": {
    "NonTalkTime": {
        "Instances": [],
        "TotalTimeMillis": 0
    },
    "Interruptions": {
        "TotalCount": 2,
        "TotalTimeMillis": 10700,
        "InterruptionsByInterrupter": {
            "AGENT": [
                {
                    "BeginOffsetMillis": 26040,
                    "DurationMillis": 5510,
                    "EndOffsetMillis": 31550
                }
            ],
            "CUSTOMER": [
                {
                    "BeginOffsetMillis": 770,
                    "DurationMillis": 5190,
                    "EndOffsetMillis": 5960
                }
            ]
        }
    },
    "TotalConversationDurationMillis": 42460,
  
    ...
    
    "TalkSpeed": {
        "DetailsByParticipant": {
            "AGENT": {
                "AverageWordsPerMinute": 150
            },
            "CUSTOMER": {
                "AverageWordsPerMinute": 167
            }
        }
    },
    "TalkTime": {
        "DetailsByParticipant": {
            "AGENT": {
                "TotalTimeMillis": 32750
            },
            "CUSTOMER": {
                "TotalTimeMillis": 18010
            }
        },
        "TotalTimeMillis": 50760
    }
},
```

 **Problèmes, éléments d’action et étapes suivantes** 
+ Dans l’exemple suivant, les **problèmes** sont identifiés comme commençant au caractère 7 et se terminant au caractère 51, ce qui fait référence à la section suivante du texte : « *J’aimerais annuler mon abonnement à une recette* ».

  ```
  "Content": "Well, I would like to cancel my recipe subscription.",
      
  "IssuesDetected": [
      {
          "CharacterOffsets": {
              "Begin": 7,
              "End": 51
          }
      }
  ],
  ```
+ Dans l’exemple suivant, **les résultats** sont identifiés comme commençant au caractère 12 et se terminant au caractère 78, ce qui fait référence à la section suivante du texte : « *J’ai apporté toutes les modifications à votre compte et cette réduction est maintenant appliquée* ».

  ```
  "Content": "Wonderful. I made all changes to your account and now this discount is applied, please check.",
  
  "OutcomesDetected": [
      {
          "CharacterOffsets": {
              "Begin": 12,
              "End": 78
          }
      }
  ],
  ```
+ Dans l’exemple suivant, les **actions** sont identifiées comme commençant au caractère 0 et se terminant au caractère 103, ce qui fait référence à la section suivante du texte : « *Je vous enverrai un e-mail avec tous les détails aujourd’hui, et je vous rappellerai la semaine prochaine pour un suivi* ».

  ```
  "Content": "I will send an email with all the details to you today, and I will call you back next week to follow up. Have a wonderful evening.",
      
  "ActionItemsDetected": [
      {
          "CharacterOffsets": {
              "Begin": 0,
              "End": 103
          }
      }
  ],
  ```

## Résumé génératif des appels
<a name="tca-output-summarization-batch"></a>

Voici à quoi ressemble un résumé génératif des appels dans la sortie de transcription :

```
"ContactSummary": {
    "AutoGenerated": {
        "OverallSummary": {
            "Content": "A customer wanted to check to see if we had a bag allowance. We told them that we didn't have it, but we could add the bag from Canada to Calgary and then do the one coming back as well."
        }
    }
}
```

La tâche d'analyse s'achèvera sans génération de résumé dans les cas suivants :
+ Contenu de conversation insuffisant : la conversation doit inclure au moins un tour de la part de l'agent et du client. Lorsque le contenu de la conversation est insuffisant, le service renvoie le code d'erreur INSUFICIENT\$1CONVERSATION\$1CONTENT.
+ Garde-corps de sécurité : La conversation doit respecter les garde-fous en place pour garantir la génération d'un résumé approprié. Lorsque ces barrières ne sont pas respectées, le service renvoie le code d'erreur FAILED\$1SAFETY\$1GUIDELINES.

Le code d'erreur se trouve `AnalyticsJobDetails` dans `Skipped` la section ci-dessous de la sortie. Vous pouvez également trouver la raison de l'erreur `CallAnalyticsJobDetails` dans la réponse de l'[https://docs.aws.amazon.com/transcribe/latest/APIReference/API_GetCallAnalyticsJob.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_GetCallAnalyticsJob.html)API.

 **Exemple de sortie d'erreur** 

```
{
    "JobStatus": "COMPLETED",
    "AnalyticsJobDetails": {
        "Skipped": [
            {
                "Feature": "GENERATIVE_SUMMARIZATION",
                "ReasonCode": "INSUFFICIENT_CONVERSATION_CONTENT",
                "Message": "The conversation needs to have at least one turn from both the participants to generate summary"
            }
        ]
    },
    "LanguageCode": "en-US",
    "AccountId": "***************",
    "JobName": "Test2-copy",
    ...
}
```

## Analyse de sentiment
<a name="tca-output-sentiment-batch"></a>

Voici à quoi ressemble l’analyse des sentiments dans la sortie de transcription.
+ Valeurs de turn-by-turn sentiment qualitatives :

  ```
  "Content": "That's very sad to hear. Can I offer you a 50% discount to have you stay with us?",
      
  ...
      
  "BeginOffsetMillis": 12180,
  "EndOffsetMillis": 16960,
  "Sentiment": "NEGATIVE",
  "ParticipantRole": "AGENT"
              
  ...
              
  "Content": "That is a very generous offer. And I accept.",
  
  ...
  
  "BeginOffsetMillis": 17140,
  "EndOffsetMillis": 19860,
  "Sentiment": "POSITIVE",
  "ParticipantRole": "CUSTOMER"
  ```
+ Valeurs quantitatives des sentiments pour l’ensemble de l’appel :

  ```
  "Sentiment": {
      "OverallSentiment": {
          "AGENT": 2.5,
          "CUSTOMER": 2.1
      },
  ```
+ Valeurs quantitatives des sentiments par participant et par trimestre d’appel :

  ```
  "SentimentByPeriod": {
      "QUARTER": {
          "AGENT": [
              {
                  "Score": 0.0,
                  "BeginOffsetMillis": 0,
                  "EndOffsetMillis": 9862
              },
              {
                  "Score": -5.0,
                  "BeginOffsetMillis": 9862,
                  "EndOffsetMillis": 19725
              },
              {
                  "Score": 5.0,
                  "BeginOffsetMillis": 19725,
                  "EndOffsetMillis": 29587
              },
              {
                  "Score": 5.0,
                  "BeginOffsetMillis": 29587,
                  "EndOffsetMillis": 39450
              }
          ],
          "CUSTOMER": [
              {
                  "Score": -2.5,
                  "BeginOffsetMillis": 0,
                  "EndOffsetMillis": 10615
              },
              {
                  "Score": 5.0,
                  "BeginOffsetMillis": 10615,
                  "EndOffsetMillis": 21230
              },
              {
                  "Score": 2.5,
                  "BeginOffsetMillis": 21230,
                  "EndOffsetMillis": 31845
              },
              {
                  "Score": 5.0,
                  "BeginOffsetMillis": 31845,
                  "EndOffsetMillis": 42460
              }
          ]
      }
  }
  ```

## Expurgation des données d’identification personnelle (PII)
<a name="tca-output-pii-redact-batch"></a>

Voici à quoi ressemble l’expurgation des données d’identification personnelle (PII) dans la sortie de transcription.

```
"Content": "[PII], my name is [PII], how can I help?",
"Redaction": [{
    "Confidence": "0.9998",
    "Type": "NAME",
    "Category": "PII"
}]
```

Pour plus d’informations, reportez-vous à [Expurgation des données d’identification personnelle (PII) dans la tâche de lot](https://docs.aws.amazon.com/transcribe/latest/dg/pii-redaction-batch.html).

## Identification de la langue
<a name="tca-output-language-id-batch"></a>

Voici à quoi ressemble l’identification de la langue dans la sortie de transcription si la fonctionnalité est activée.

```
"LanguageIdentification": [{
  "Code": "en-US",
  "Score": "0.8299"
}, {
  "Code": "en-NZ",
  "Score": "0.0728"
}, {
  "Code": "zh-TW",
  "Score": "0.0695"
}, {
  "Code": "th-TH",
  "Score": "0.0156"
}, {
  "Code": "en-ZA",
  "Score": "0.0121"
}]
```

Dans l’exemple de sortie ci-dessus, Identification de la langue remplit les codes de langue avec des scores de confiance. Le résultat avec le score le plus élevé est sélectionné comme code de langue pour la transcription. Pour plus de détails sur le mode, reportez-vous à [Identification des langues dominantes des médias](https://docs.aws.amazon.com/transcribe/latest/dg/lang-id.html).

## Compilation des résultats d’analyse après appel
<a name="tca-output-batch-compiled"></a>

Par souci de concision, une partie du contenu est remplacée par des points de suspension dans la sortie de transcription suivante.

Cet exemple inclut une fonctionnalité optionnelle : le résumé génératif des appels.

```
{
    "JobStatus": "COMPLETED",
    "LanguageCode": "en-US",
    "Transcript": [
        {
            "LoudnessScores": [
                78.63,
                78.37,
                77.98,
                74.18
            ],
            "Content": "[PII], my name is [PII], how can I help?",
            
            ...
     
             "Content": "Well, I would like to cancel my recipe subscription.",
             "IssuesDetected": [
                 {
                     "CharacterOffsets": {
                         "Begin": 7,
                         "End": 51
                     }
                 }
             ],
            
            ...
     
            "Content": "That's very sad to hear. Can I offer you a 50% discount to have you stay with us?",
            "Items": [
            ...
             ],
            "Id": "649afe93-1e59-4ae9-a3ba-a0a613868f5d",
            "BeginOffsetMillis": 12180,
            "EndOffsetMillis": 16960,
            "Sentiment": "NEGATIVE",
            "ParticipantRole": "AGENT"
        },
        {     
            "LoudnessScores": [
                    80.22,
                    79.48,
                    82.81
            ],
            "Content": "That is a very generous offer. And I accept.",
            "Items": [
            ...
            ],
            "Id": "f9266cba-34df-4ca8-9cea-4f62a52a7981",
            "BeginOffsetMillis": 17140,
            "EndOffsetMillis": 19860,
            "Sentiment": "POSITIVE",
            "ParticipantRole": "CUSTOMER"
        },
        {
     
     ...
     
            "Content": "Wonderful. I made all changes to your account and now this discount is applied, please check.",
            "OutcomesDetected": [
                {
                    "CharacterOffsets": {
                        "Begin": 12,
                        "End": 78
                    }
                }
            ],
            
            ...
            
            "Content": "I will send an email with all the details to you today, and I will call you back next week to follow up. Have a wonderful evening.",
            "Items": [
            ...   
            ],
            "Id": "78cd0923-cafd-44a5-a66e-09515796572f",
            "BeginOffsetMillis": 31800,
            "EndOffsetMillis": 39450,
            "Sentiment": "POSITIVE",
            "ParticipantRole": "AGENT"
        },
        {
           "LoudnessScores": [
               78.54,
               68.76,
               67.76
           ],
           "Content": "Thank you very much, sir. Goodbye.",
           "Items": [
           ...     
           ],
           "Id": "5c5e6be0-8349-4767-8447-986f995af7c3",
           "BeginOffsetMillis": 40040,
           "EndOffsetMillis": 42460,
           "Sentiment": "POSITIVE",
           "ParticipantRole": "CUSTOMER"
       }
   ],
   
   ...
     
   "Categories": {
        "MatchedDetails": {
            "positive-resolution": {
                "PointsOfInterest": [
                    {
                        "BeginOffsetMillis": 40040,
                        "EndOffsetMillis": 42460
                    }
                ]
            }
        },
        "MatchedCategories": [
            "positive-resolution"
        ]
    },  
 
    ...
    
    "ConversationCharacteristics": {
        "NonTalkTime": {
            "Instances": [],
            "TotalTimeMillis": 0
        },
        "Interruptions": {
            "TotalCount": 2,
            "TotalTimeMillis": 10700,
            "InterruptionsByInterrupter": {
                "AGENT": [
                    {
                        "BeginOffsetMillis": 26040,
                        "DurationMillis": 5510,
                        "EndOffsetMillis": 31550
                    }
                ],
                "CUSTOMER": [
                    {
                        "BeginOffsetMillis": 770,
                        "DurationMillis": 5190,
                        "EndOffsetMillis": 5960
                    }
                ]
            }
        },
        "TotalConversationDurationMillis": 42460,
        "Sentiment": {
            "OverallSentiment": {
                "AGENT": 2.5,
                "CUSTOMER": 2.1
            },
            "SentimentByPeriod": {
                "QUARTER": {
                    "AGENT": [
                        {
                            "Score": 0.0,
                            "BeginOffsetMillis": 0,
                            "EndOffsetMillis": 9862
                        },
                        {
                            "Score": -5.0,
                            "BeginOffsetMillis": 9862,
                            "EndOffsetMillis": 19725
                        },
                        {
                            "Score": 5.0,
                            "BeginOffsetMillis": 19725,
                            "EndOffsetMillis": 29587
                        },
                        {
                            "Score": 5.0,
                            "BeginOffsetMillis": 29587,
                            "EndOffsetMillis": 39450
                        }
                    ],
                    "CUSTOMER": [
                        {
                            "Score": -2.5,
                            "BeginOffsetMillis": 0,
                            "EndOffsetMillis": 10615
                        },
                        {
                            "Score": 5.0,
                            "BeginOffsetMillis": 10615,
                            "EndOffsetMillis": 21230
                        },
                        {
                            "Score": 2.5,
                            "BeginOffsetMillis": 21230,
                            "EndOffsetMillis": 31845
                        },
                        {
                            "Score": 5.0,
                            "BeginOffsetMillis": 31845,
                            "EndOffsetMillis": 42460
                        }
                    ]
                }
            }
        },
        "TalkSpeed": {
            "DetailsByParticipant": {
                "AGENT": {
                    "AverageWordsPerMinute": 150
                },
                "CUSTOMER": {
                    "AverageWordsPerMinute": 167
                }
            }
        },
        "TalkTime": {
            "DetailsByParticipant": {
                "AGENT": {
                    "TotalTimeMillis": 32750
                },
                "CUSTOMER": {
                    "TotalTimeMillis": 18010
                }
            },
            "TotalTimeMillis": 50760
        },
        "ContactSummary": { // Optional feature - Generative call summarization
            "AutoGenerated": {
                "OverallSummary": {
                    "Content": "The customer initially wanted to cancel but the agent convinced them to stay by offering a 50% discount, which the customer accepted after reconsidering cancelling given the significant savings. The agent ensured the discount was applied and said they would follow up to ensure the customer remained happy with the revised subscription."
                }
            }
        }
    },
    "AnalyticsJobDetails": {
        "Skipped": []
    },
    ...
}
```

# Activation du résumé génératif des appels
<a name="tca-enable-summarization"></a>

**Note**  
 **Propulsé par Amazon Bedrock :** AWS implémente la [détection automatique des abus](https://docs.aws.amazon.com//bedrock/latest/userguide/abuse-detection.html). Le résumé après contact optimisé par l’IA générative étant basé sur Amazon Bedrock, les utilisateurs peuvent tirer pleinement parti des contrôles mis en œuvre dans Amazon Bedrock pour renforcer la sûreté, la sécurité et l’utilisation responsable de l’intelligence artificielle (IA). 

Pour utiliser le résumé génératif des appels avec une tâche d’analyse après appel, consultez les exemples suivants :

## AWS Management Console
<a name="analytics-summarization-console"></a>

Dans le panneau Résumé, activez le résumé génératif des appels pour recevoir le résumé dans la sortie.

![\[Amazon Transcribe capture d'écran de la console : la page « Offres d'emploi Call Analytics ».\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-summarization.png)


## AWS CLI
<a name="analytics-summarization-cli"></a>

Cet exemple utilise la [start-call-analytics-job](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/transcribe/start-call-analytics-job.html)commande et le `Settings` paramètre avec les `Summarization` sous-paramètres. Pour de plus amples informations, veuillez consulter [https://docs.aws.amazon.com//transcribe/latest/APIReference/API_StartCallAnalyticsJob.html](https://docs.aws.amazon.com//transcribe/latest/APIReference/API_StartCallAnalyticsJob.html). 

```
aws transcribe start-call-analytics-job \
--region us-west-2 \
--call-analytics-job-name my-first-call-analytics-job \
--media MediaFileUri=s3://amzn-s3-demo-bucket/my-input-files/my-media-file.flac \
--output-location s3://amzn-s3-demo-bucket/my-output-files/ \
--data-access-role-arn arn:aws:iam::111122223333:role/ExampleRole \
--channel-definitions ChannelId=0,ParticipantRole=AGENT ChannelId=1,ParticipantRole=CUSTOMER
--settings '{"Summarization":{"GenerateAbstractiveSummary":true}}'
```

Voici un autre exemple d'utilisation de la [start-call-analytics-job](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/transcribe/start-call-analytics-job.html)commande et d'un corps de requête qui permet de résumer cette tâche.

```
aws transcribe start-call-analytics-job \
--region us-west-2 \
--cli-input-json file://filepath/my-call-analytics-job.json
```

Le fichier *my-call-analytics-job.json* contient le corps de requête suivant.

```
{
  "CallAnalyticsJobName": "my-first-call-analytics-job",
  "DataAccessRoleArn": "arn:aws:iam::111122223333:role/ExampleRole",
  "Media": {
    "MediaFileUri": "s3://amzn-s3-demo-bucket/my-input-files/my-media-file.flac"
  },
  "OutputLocation": "s3://amzn-s3-demo-bucket/my-output-files/",
  "ChannelDefinitions": [
    {
      "ChannelId": 0,
      "ParticipantRole": "AGENT"
    },
    {
      "ChannelId": 1,
      "ParticipantRole": "CUSTOMER"
    }
  ],
  "Settings": {
    "Summarization":{
      "GenerateAbstractiveSummary": true
    }
  }
}
```

## AWS SDK pour Python (Boto3)
<a name="analytics-summarization-python"></a>

Cet exemple utilise le AWS SDK pour Python (Boto3) pour démarrer une analyse des appels avec la synthèse activée à l'aide de la méthode [start\$1call\$1analytics\$1job](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/transcribe.html#TranscribeService.Client.start_call_analytics_job). Pour de plus amples informations, veuillez consulter [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartCallAnalyticsJob.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartCallAnalyticsJob.html).

Pour des exemples supplémentaires utilisant le AWS SDKs, notamment des exemples spécifiques aux fonctionnalités, des scénarios et des exemples multiservices, reportez-vous au chapitre. [Exemples de code pour Amazon Transcribe à l'aide de AWS SDKs](service_code_examples.md)

```
from __future__ import print_function
from __future__ import print_function
import time
import boto3
transcribe = boto3.client('transcribe', 'us-west-2')
job_name = "my-first-call-analytics-job"
job_uri = "s3://amzn-s3-demo-bucket/my-input-files/my-media-file.flac"
output_location = "s3://amzn-s3-demo-bucket/my-output-files/"
data_access_role = "arn:aws:iam::111122223333:role/ExampleRole"
transcribe.start_call_analytics_job(
  CallAnalyticsJobName = job_name,
  Media = {
    'MediaFileUri': job_uri
  },
  DataAccessRoleArn = data_access_role,
  OutputLocation = output_location,
  ChannelDefinitions = [
    {
      'ChannelId': 0, 
      'ParticipantRole': 'AGENT'
    },
    {
      'ChannelId': 1, 
      'ParticipantRole': 'CUSTOMER'
    }
  ],
  Settings = {
    "Summarization":
      {
        "GenerateAbstractiveSummary": true
      }
  }
)
    
while True:
  status = transcribe.get_call_analytics_job(CallAnalyticsJobName = job_name)
  if status['CallAnalyticsJob']['CallAnalyticsJobStatus'] in ['COMPLETED', 'FAILED']:
    break
  print("Not ready yet...")
  time.sleep(5)
print(status)
```

# Analyse Call Analytics en temps réel
<a name="call-analytics-streaming"></a>

L’analyse Call Analytics en temps réel fournit des informations en temps réel qui peuvent être utilisées pour résoudre des problèmes et atténuer les escalades à mesure qu’elles se produisent.

Les informations suivantes sont disponibles grâce à l’analyse Call Analytics en temps réel :
+ Les [événements de catégorie](#tca-category-events-stream) qui utilisent des règles pour signaler des mots clés et des phrases spécifiques. Les événements de catégorie peuvent être utilisés pour créer des [alertes en temps réel](tca-start-stream.md#tca-create-alert-stream).
+ La [détection des problèmes](#tca-issue-detection-stream) qui identifient les problèmes évoqués dans chaque segment audio.
+ L’[identification des PII (données sensibles)](#tca-pii-id-stream) dans votre transcription de texte.
+ L’[expurgation des PII (données sensibles)](#tca-pii-redact-stream) de votre transcription de texte.
+ L’[analyse des sentiments](#tca-sentiment-stream) pour chaque segment de discours.
+ [L'identification de la langue](#tca-language-id-stream) détecte la langue principale parlée dans chaque canal audio

Outre l'analyse des appels en temps réel, Amazon Transcribe vous pouvez également effectuer des [analyses post-appel](tca-post-call.md) sur votre flux multimédia. Vous pouvez inclure des analyses après appel dans votre demande Call Analytics en temps réel à l’aide du paramètre [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_PostCallAnalyticsSettings.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_PostCallAnalyticsSettings.html).

## Informations en temps réel
<a name="call-analytics-insights-streaming"></a>

Cette section détaille les informations disponibles pour les transcriptions Call Analytics en temps réel.

### Événements de catégorie
<a name="tca-category-events-stream"></a>

Les événements de catégorie vous permettent de faire correspondre votre transcription à un mot clé ou une phrase exact. Par exemple, si vous définissez un filtre pour la phrase « Je souhaite parler au responsable », il Amazon Transcribe filtre pour cette phrase *exacte*.

Voici un [exemple de sortie](tca-output-streaming.md#tca-output-category-event-stream).

Pour plus d’informations sur la création de catégories Call Analytics en temps réel, consultez la section [Création de catégories pour les transcriptions en temps réel](tca-categories-stream.md).

**Astuce**  
Les événements de catégorie vous permettent de définir des alertes en temps réel. Pour plus d’informations, consultez la section [Création d’alertes en temps réel pour les correspondances de catégorie](tca-start-stream.md#tca-create-alert-stream).

### Détection des problèmes
<a name="tca-issue-detection-stream"></a>

La détection des problèmes fournit de brefs récapitulatifs des problèmes détectés dans chaque segment audio. La fonctionnalité de détection des problèmes vous permet de :
+ réduire le besoin de prendre des notes manuellement pendant et après les appels ;
+ améliorer l’efficacité des agents afin de leur permettre de répondre plus rapidement aux clients.

**Note**  
La détection des problèmes est prise en charge avec les dialectes anglais suivants : australien (`en-AU`), britannique (`en-GB`) et américain (`en-US`).

La fonctionnalité de détection des problèmes fonctionne dans tous les secteurs d’activité et est basée sur le contexte. Il fonctionne out-of-the-box et ne prend donc pas en charge la personnalisation, telle que la formation des modèles ou les catégories personnalisées.

La détection des problèmes avec Call Analytics en temps réel est effectuée sur chaque segment audio complet.

Voici un [exemple de sortie](tca-output-streaming.md#tca-output-issue-detection-stream).

### Identification des PII (données sensibles)
<a name="tca-pii-id-stream"></a>

L’identification des données sensibles indique les données d’identification personnelle (PII) dans la transcription de texte. Ce paramètre est utile pour protéger les informations des clients.

**Note**  
L'identification des informations personnelles en temps réel est prise en charge avec les dialectes anglais suivants : australien (`en-AU`), britannique (`en-GB`), américain (`en-US`) et avec le dialecte espagnol (). `es-US`

L’identification des PII avec Call Analytics en temps réel est effectuée sur chaque segment audio complet.

Pour consulter la liste des informations personnelles identifiées à l'aide de cette fonctionnalité, ou pour en savoir plus sur l'identification par des informations personnelles Amazon Transcribe, consultez. [Expurgation ou identification des données d’identification personnelle](pii-redaction.md)

Voici un [exemple de sortie](tca-output-streaming.md#tca-output-pii-id-stream).

### Expurgation des PII (données sensibles)
<a name="tca-pii-redact-stream"></a>

L’expurgation des données sensibles remplace les informations d’identification personnelle (PII) dans votre transcription de texte par le type de PII (par exemple, `[NAME]`). Ce paramètre est utile pour protéger les informations des clients.

**Note**  
La rédaction des informations personnelles en temps réel est prise en charge avec les dialectes anglais suivants : australien (`en-AU`), britannique (`en-GB`), américain (`en-US`) et avec le dialecte espagnol (). `es-US`

L’expurgation des PII avec Call Analytics en temps réel est effectuée sur chaque segment audio complet.

Pour consulter la liste des PII supprimées à l’aide de cette fonctionnalité, ou pour en savoir plus sur l’expurgation avec Amazon Transcribe, consultez la section [Expurgation ou identification des données d’identification personnelle](pii-redaction.md).

Voici un [exemple de sortie](tca-output-streaming.md#tca-output-pii-redact-stream).

### Analyse de sentiment
<a name="tca-sentiment-stream"></a>

L’analyse des sentiments permet d’estimer ce que le client et l’agent ressentent tout au long de l’appel. Cette métrique est fournie pour chaque segment vocal et est représentée sous la forme d’une valeur qualitative (`positive`, `neutral`, `mixed` ou `negative`).

Ce paramètre vous permet d’évaluer qualitativement le sentiment général de chaque participant à l’appel et le sentiment de chaque participant pendant chaque segment de discours. Cette métrique peut aider à déterminer si votre agent est capable de satisfaire un client mécontent à la fin de l’appel.

L’analyse des sentiments avec Call Analytics en temps réel est effectuée sur chaque segment audio complet.

L'analyse des sentiments fonctionne out-of-the-box et ne prend donc pas en charge la personnalisation, telle que la formation des modèles ou les catégories personnalisées.

Voici un [exemple de sortie](tca-output-streaming.md#tca-output-sentiment-stream).

### Identification de la langue
<a name="tca-language-id-stream"></a>

L'identification de la langue reconnaît et détermine automatiquement la langue principale parlée sur chaque canal de vos flux audio lors de l'analyse des appels en temps réel. Une fois identifiée, Call Analytics traitera et renverra la transcription la plus appropriée en fonction de la langue détectée, en renvoyant ces informations par le biais du flux en temps réel.

Cette fonctionnalité vous permet de reconnaître et d'identifier automatiquement la langue dominante parlée sur chaque canal de votre flux audio. Une fois la langue détectée, Call Analytics traite et fournit la transcription appropriée pour la langue identifiée en temps réel.

L'identification automatique de la langue est prise en charge pour toutes les [langues prises en charge par le streaming Call Analytics](https://docs.aws.amazon.com/transcribe/latest/dg/supported-languages.html) actuellement prises en charge pour les transcriptions en streaming sans frais supplémentaires, et est disponible dans les [régions AWS](https://docs.aws.amazon.com/general/latest/gr/transcribe.html#transcribe_region) prises en charge par Call Analytics.

**Important**  
Call Analytics prend uniquement en charge l'identification en une seule langue, qui identifie la langue dominante parlée sur votre chaîne audio. L'identification multilingue n'est pas prise en charge, ce qui signifie que chaque canal ne peut être transcrit que dans une seule langue.  
Pour utiliser l'identification de langue, vous devez fournir au moins deux codes de langue et au plus cinq codes de langue, et vous ne pouvez sélectionner qu'un seul dialecte linguistique par langue et par flux parmi les [langues de streaming prises en charge par Call Analytics](https://docs.aws.amazon.com/transcribe/latest/dg/supported-languages.html). Cela signifie que vous ne pouvez pas sélectionner en-US et en-AU comme options linguistiques pour la même transcription. Lorsque vous utilisez cette fonctionnalité, le LanguageCode paramètre doit rester nul dans la demande, car ce IdentifyLanguage sont LanguageCode des options qui s'excluent mutuellement.

**Avertissement**  
Si les codes de langue que vous avez spécifiés ne correspondent pas à la langue parlée, le système sélectionnera la langue la plus similaire parmi vos options, ce qui peut entraîner des transcriptions inexactes.

Grâce à la fonction d'identification de la langue, vous pouvez :
+ Détectez automatiquement la langue dominante en temps réel
+ Traitez différentes langues sur des canaux distincts
+ Recevez des scores de confiance pour la détection de la langue
+ Appliquer des vocabulaires personnalisés spécifiques à une langue

Pour utiliser l'identification de langue, vous devez configurer les paramètres suivants :

**Paramètres requis :**
+ `identifyLanguage`- Réglez sur true pour permettre l'identification de la langue.
+ `languageOptions`- Une liste des codes de langue possibles à utiliser lorsque IdentifyLanguage est défini sur true. Vous devez sélectionner au moins deux langues, car la sélection d'une seule langue n'est pas prise en charge.

**Paramètres facultatifs :**
+ `preferredLanguage`- Votre langue principale attendue parmi les options de langue fournies. L'ajout d'une langue préférée peut aider Call Analytics à identifier la langue plus rapidement.
+ `vocabularyNames`- Noms de vocabulaire personnalisés pour une meilleure précision. Notez que les noms de vocabulaire distinguent les majuscules et minuscules, et si la langue du vocabulaire personnalisé ne correspond pas à la langue multimédia identifiée, elle ne sera pas appliquée à la transcription.
+ `vocabularyFilterNames`- Noms de filtres de vocabulaire pour personnaliser la sortie de transcription.

Voici un [exemple de sortie](tca-output-streaming.md#tca-output-language-id-stream).

# Création de catégories pour les transcriptions en temps réel
<a name="tca-categories-stream"></a>

L’analyse Call Analytics en temps réel prend en charge la création de catégories personnalisées, que vous pouvez utiliser pour adapter vos analyses de transcriptions aux besoins spécifiques de votre entreprise.

Vous pouvez créer autant de catégories que vous le souhaitez pour couvrir une gamme de scénarios différents. Pour chaque catégorie que vous créez, vous devez créer entre 1 et 20 règles. Les transcriptions Call Analytics en temps réel ne prennent en charge que les règles qui utilisent [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_TranscriptFilter.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_TranscriptFilter.html) (correspondances de mots clés). Pour plus d’informations sur l’utilisation de règles dans le cadre de l’opération [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html), consultez la section [Critères de règles pour les catégories Call Analytics en temps réel](#tca-rules-stream).

Si le contenu de votre média répond à toutes les règles que vous avez spécifiées dans une catégorie donnée, Amazon Transcribe attribue cette catégorie à votre sortie. Pour un exemple de correspondance de catégorie au format de sortie JSON, consultez [la sortie d’un événement de catégorie](tca-output-streaming.md#tca-output-category-event-stream).

Voici quelques exemples de ce que vous pouvez faire avec des catégories personnalisées :
+ identifier les problèmes qui nécessitent une attention immédiate en signalant et en suivant des ensembles de mots clés spécifiques ;
+ surveiller la conformité, par exemple si un agent prononce (ou omet) une phrase spécifique ;
+ marquer des mots et des phrases spécifiques en temps réel ; vous pouvez ensuite définir la correspondance de votre catégorie pour définir une alerte immédiate. Par exemple, si vous créez une catégorie Call Analytics en temps réel pour un client qui dit « *parler à un responsable* », vous pouvez définir une [alerte d’événement](tca-start-stream.md#tca-create-alert-stream) pour cette correspondance de catégorie en temps réel qui notifie le responsable en service.

**Catégories après appel et catégories en temps réel**

Lorsque vous créez une nouvelle catégorie, vous pouvez spécifier si vous souhaitez qu’elle soit créée en tant que catégorie après appel (`POST_CALL`) ou en tant que catégorie en temps réel (`REAL_TIME`). Si vous ne spécifiez aucune option, votre catégorie est créée par défaut en tant que catégorie après appel. Les correspondances de catégories en temps réel peuvent être utilisées pour créer des alertes en temps réel. Pour de plus amples informations, veuillez consulter [Création d’alertes en temps réel pour les correspondances de catégorie](tca-start-stream.md#tca-create-alert-stream).

Pour créer une nouvelle catégorie pour l'analyse des appels en temps réel **AWS Management Console**, vous pouvez utiliser le **AWS CLI**, ou **AWS SDKs**; voir les exemples suivants :

## AWS Management Console
<a name="tca-category-console"></a>

1. Dans le volet de navigation, sous Amazon Transcribe, choisissez **Amazon Transcribe Call Analytics**.

1. Choisissez **Catégories Call Analytics** pour accéder à la page **Catégories Call Analytics**. Cliquez sur le bouton **Créer une catégorie**.  
![\[Amazon Transcribe capture d'écran de la console : la page « catégories » de Call Analytics.\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-categories.png)

1. Vous êtes maintenant sur la **page Créer une catégorie**. Entrez un nom pour votre catégorie, puis choisissez « Analyse des appels en temps réel » dans le menu déroulant **Type de catégorie**.  
![\[Amazon Transcribe capture d'écran de la console : le panneau « paramètres des catégories ».\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-categories-type.png)

1. Vous pouvez choisir un modèle pour créer votre catégorie ou en créer une de zéro.

   Si vous utilisez un modèle : sélectionnez **Utiliser un modèle (recommandé)**, choisissez le modèle souhaité, puis sélectionnez **Créer une catégorie**.  
![\[Amazon Transcribe capture d'écran de la console : le panneau « paramètres des catégories » affichant les modèles optionnels.\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-categories-settings-stream.png)

1. Si vous créez une catégorie personnalisée : sélectionnez **Créer à partir de zéro**.  
![\[Amazon Transcribe capture d'écran de la console : la page « créer une catégorie » affichant le volet « règles ».\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-categories-custom.png)

1. Ajoutez des règles à votre catégorie à l’aide du menu déroulant. Vous pouvez ajouter jusqu’à 20 règles par catégorie. Avec les transcriptions Call Analytics en temps réel, vous ne pouvez inclure que des règles impliquant des correspondances de contenu de transcription. Toutes les correspondances sont signalés en temps réel.  
![\[Amazon Transcribe capture d'écran de la console : le volet « règles » avec la liste des types de règles.\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-categories-custom-rules-stream.png)

1. Voici un exemple de catégorie comportant une règle : un client qui dit « parler à un responsable » à tout moment au cours de l’appel.  
![\[Amazon Transcribe capture d'écran de la console : le volet « règles » avec les options logiques.\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-categories-custom-rules-stream2.png)

1. Lorsque vous avez fini d’ajouter des règles à votre catégorie, choisissez **Créer une catégorie**.

## AWS CLI
<a name="tca-category-cli-stream"></a>

Cet exemple utilise la [create-call-analytics-category](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/transcribe/create-call-analytics-category.html)commande. Pour plus d’informations, consultez [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html), [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CategoryProperties.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CategoryProperties.html) et [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_Rule.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_Rule.html).

L’exemple suivant crée une catégorie avec la règle :
+ Le client a prononcé la phrase « parler au responsable » à n’importe quel moment de l’appel.

Cet exemple utilise la [create-call-analytics-category](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/transcribe/create-call-analytics-category.html)commande et un corps de requête qui ajoute une règle à votre catégorie.

```
aws transcribe create-call-analytics-category \
--cli-input-json file://filepath/my-first-analytics-category.json
```

Le fichier *my-first-analytics-category.json* contient le corps de requête suivant.

```
{
  "CategoryName": "my-new-real-time-category",
  "InputType": "REAL_TIME",
  "Rules": [
        {
            "TranscriptFilter": {
                "Negate": false,
                "Targets": [
                    "speak to the manager"
                ],
                "TranscriptFilterType": "EXACT"
            }
        }
    ]
}
```

## AWS SDK pour Python (Boto3)
<a name="tca-category-python-stream"></a>

Cet exemple utilise le AWS SDK pour Python (Boto3) pour créer une catégorie à l'aide des `Rules` arguments `CategoryName` et de la méthode [create\$1call\$1analytics\$1category](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/transcribe.html#TranscribeService.Client.create_call_analytics_category). Pour plus d’informations, consultez [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html), [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CategoryProperties.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CategoryProperties.html) et [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_Rule.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_Rule.html).

Pour des exemples supplémentaires utilisant le AWS SDKs, notamment des exemples spécifiques aux fonctionnalités, des scénarios et des exemples multiservices, reportez-vous au chapitre. [Exemples de code pour Amazon Transcribe à l'aide de AWS SDKs](service_code_examples.md)

L’exemple suivant crée une catégorie avec la règle :
+ Le client a prononcé la phrase « parler au responsable » à n’importe quel moment de l’appel.

```
from __future__ import print_function
import time
import boto3
transcribe = boto3.client('transcribe', 'us-west-2')
category_name = "my-new-real-time-category"
transcribe.create_call_analytics_category(
    CategoryName = category_name,
    InputType = "REAL_TIME",
    Rules = [
        {
            'TranscriptFilter': {
                'Negate': False,
                'Targets': [
                    'speak to the manager'                    
                ],
                'TranscriptFilterType': 'EXACT'
            }
        }
    ]
)

result = transcribe.get_call_analytics_category(CategoryName = category_name)    
print(result)
```

## Critères de règles pour les catégories Call Analytics en temps réel
<a name="tca-rules-stream"></a>

Cette section décrit les types de règles `REAL_TIME` personnalisées que vous pouvez créer à l’aide de l’opération d’API [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html).

La détection des problèmes étant automatique, vous n’avez pas besoin de créer de règles ou de catégories pour signaler les problèmes.

Notez que seules les correspondances de mots clés sont prises en charge pour les transcriptions Call Analytics en temps réel. Si vous souhaitez créer des catégories incluant des interruptions, du silence ou des sentiments, reportez-vous à la section [Critères de règles pour les catégories d’analyse après appel](tca-categories-batch.md#tca-rules-batch).

### Correspondances de mots clés
<a name="tca-rules-keywords-stream"></a>

Les règles utilisant des mots clés (type de données [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_TranscriptFilter.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_TranscriptFilter.html)) sont conçues pour correspondre à :
+ des mots ou phrases personnalisés prononcés par l’agent, le client ou les deux ;
+ des mots ou phrases personnalisés qui ne sont **pas** prononcés par l’agent, le client ou les deux ;
+ des mots ou phrases personnalisés qui apparaissent dans un laps de temps spécifique.

Voici un exemple des paramètres disponibles avec [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_TranscriptFilter.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_TranscriptFilter.html) :

```
"TranscriptFilter": { 
    "AbsoluteTimeRange": { 
       Specify the time frame, in milliseconds, when the match should occur
    },
    "RelativeTimeRange": { 
       Specify the time frame, in percentage, when the match should occur
    },
    "Negate": Specify if you want to match the presence or absence of your custom keywords,
    "ParticipantRole": Specify if you want to match speech from the agent, the customer, or both,
    "Targets": [ The custom words and phrases you want to match ],
    "TranscriptFilterType": Use this parameter to specify an exact match for the specified targets
}
```

Pour plus d’informations sur ces paramètres et les valeurs valides associées à chacun, consultez les rubriques [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_CreateCallAnalyticsCategory.html) et [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_TranscriptFilter.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_TranscriptFilter.html).

# Analyses après appel avec transcriptions en temps réel
<a name="tca-post-call"></a>

L’analyse après appel est une fonctionnalité facultative disponible avec les transcriptions Call Analytics en temps réel. Outre les [informations d’analyse en temps réel](call-analytics-streaming.md#call-analytics-insights-streaming) standard, les analyses après appel vous fournissent les informations suivantes :
+ **éléments d’action** : répertorie tous les éléments d’action identifiés dans l’appel ;
+ **interruptions** : mesure si et quand un participant coupe la parole à l’autre participant au milieu d’une phrase ;
+ **problèmes** : fournit les problèmes identifiés dans l’appel ;
+ **niveau sonore** : mesure le volume auquel chaque participant parle ;
+ **temps de non-conversation** : mesure les périodes pendant lesquelles il n’y a pas de parole ;
+ **résultats** : fournit le résultat, ou la résolution, identifié dans l’appel ;
+ **vitesse de conversation** : mesure la vitesse à laquelle les deux participants parlent ;
+ **temps de conversation** : mesure le temps (en millisecondes) pendant lequel chaque participant a parlé pendant l’appel.

Lorsqu'elle est activée, l'analyse post-appel à partir d'un flux audio produit une transcription similaire à une [analyse post-appel à partir d'un fichier audio](call-analytics-batch.md) et la stocke dans le Amazon S3 bucket spécifié dans. `OutputLocation` En outre, l'analyse post-appel enregistre votre flux audio et l'enregistre sous forme de fichier audio (`WAV`format) dans le même Amazon S3 compartiment. Si vous activez la rédaction, une transcription expurgée et un fichier audio expurgé sont également stockés dans le compartiment spécifié. Amazon S3 L’activation de l’analyse après appel avec votre flux audio produit entre deux et quatre fichiers, comme décrit ici :
+ Si l’expurgation n’est **pas** activée, vos fichiers de sortie sont les suivants :

  1. une transcription non expurgée ;

  1. un fichier audio expurgé.
+ Si l’expurgation est activée **sans** l’option non expurgée (`redacted`), vos fichiers de sortie sont les suivants :

  1. une transcription expurgée ;

  1. un fichier audio expurgé.
+ Si l’expurgation est activée **avec** l’option non expurgée (`redacted_and_unredacted`), vos fichiers de sortie sont les suivants :

  1. une transcription expurgée ;

  1. un fichier audio expurgé.

  1. une transcription non expurgée ;

  1. un fichier audio expurgé.

Notez que si vous activez l’analyse après appel ([https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_PostCallAnalyticsSettings.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_PostCallAnalyticsSettings.html)) avec votre demande et que vous utilisez un flux `FLAC` ou `OPUS-OGG`, `loudnessScore` n’apparaît **pas** dans votre transcription et aucun enregistrement audio de votre flux n’est créé. Transcribe peut également ne pas être en mesure de fournir des analyses post-appel pour les flux audio de longue durée d'une durée supérieure à 90 minutes.

Pour en savoir plus sur les informations disponibles avec l’analyse après appel des flux audio, consultez la section [post-call analytics insights](call-analytics-batch.md#call-analytics-insights-batch).

**Astuce**  
Si vous activez l’analyse après appel avec votre demande Call Analytics en temps réel, toutes vos catégories `POST_CALL` et `REAL-TIME` sont appliquées à votre transcription d’analyse après appel.

## Activation de l’analyse après appel
<a name="tca-post-call-enable"></a>

Pour activer l’analyse après appel, vous devez inclure le paramètre [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_PostCallAnalyticsSettings.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_PostCallAnalyticsSettings.html) dans votre demande Call Analytics en temps réel. Les paramètres suivants doivent être inclus lorsque `PostCallAnalyticsSettings` est activé :
+ `OutputLocation`: le Amazon S3 compartiment dans lequel vous souhaitez stocker votre transcription après un appel.
+ `DataAccessRoleArn` : ARN (Amazon Resource Name) du rôle Amazon S3 autorisé à accéder au compartiment Amazon S3 spécifié. Notez que vous devez également utiliser la [stratégie d’approbation des analyses en temps réel](security_iam_id-based-policy-examples.md#trust-policy).

Si vous souhaitez obtenir une version expurgée de votre transcription, vous pouvez inclure `ContentRedactionOutput` ou `ContentRedactionType` dans votre demande. Pour plus d’informations sur ces paramètres, consultez [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_StartCallAnalyticsStreamTranscription.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_StartCallAnalyticsStreamTranscription.html) dans la Référence d’API.

Pour démarrer une transcription d'analyse des appels en temps réel avec l'analyse post-appel activée, vous pouvez utiliser le **AWS Management Console**(démo uniquement), **HTTP/2 ou**. **WebSockets** Pour obtenir des exemples, consultez [Démarrage d’une transcription Call Analytics en temps réel](tca-start-stream.md).

**Important**  
Actuellement, le AWS Management Console seul propose une démo d'analyse des appels en temps réel avec des exemples audio préchargés. Si vous souhaitez utiliser votre propre audio, vous devez utiliser l'API (HTTP/2 ou un SDK). WebSockets

## Exemple de résultats d’analyse après appel
<a name="tca-output-post-call"></a>

Les transcriptions post-appel sont affichées dans un turn-by-turn format par segment. Elles incluent les caractéristiques des appels, le sentiment, le récapitulatif des appels, la détection des problèmes et (éventuellement) l’expurgation des PII. Si l’une de vos catégories après appel correspond au contenu audio, elle est également présente dans votre sortie.

Pour améliorer la précision et personnaliser davantage vos transcriptions en fonction de votre cas d’utilisation, par exemple en incluant des termes spécifiques au secteur, ajoutez des [vocabulaires personnalisés](custom-vocabulary.md) ou des [modèles de langue personnalisés](custom-language-models.md) à votre demande Call Analytics. Pour masquer, supprimer ou étiqueter des mots que vous ne voulez pas voir apparaître dans vos résultats de transcription, tels que des termes vulgaires, ajoutez un [filtrage du vocabulaire](vocabulary-filtering.md).

Voici un exemple de sortie d’analyse après appel compilée :

```
{
    "JobStatus": "COMPLETED",
    "LanguageCode": "en-US",
    "AccountId": "1234567890",
    "Channel": "VOICE",
    "Participants": [{
        "ParticipantRole": "AGENT"
    }, 
    {
        "ParticipantRole": "CUSTOMER"
    }],
    "SessionId": "12a3b45c-de6f-78g9-0123-45h6ab78c901",
    "ContentMetadata": {
        "Output": "Raw"
    }
    "Transcript": [{
        "LoudnessScores": [
            78.63,
            78.37,
            77.98,
            74.18
        ],
        "Content": "[PII], my name is [PII], how can I help?",

            ...

        "Content": "Well, I would like to cancel my recipe subscription.",
            "IssuesDetected": [{
                "CharacterOffsets": {
                    "Begin": 7,
                    "End": 51
                }
            }],

            ...

        "Content": "That's very sad to hear. Can I offer you a 50% discount to have you stay with us?",
        "Id": "649afe93-1e59-4ae9-a3ba-a0a613868f5d",
        "BeginOffsetMillis": 12180,
        "EndOffsetMillis": 16960,
        "Sentiment": "NEGATIVE",
        "ParticipantRole": "AGENT"
    },
    {
        "LoudnessScores": [
            80.22,
            79.48,
            82.81
        ],
        "Content": "That is a very generous offer. And I accept.",
        "Id": "f9266cba-34df-4ca8-9cea-4f62a52a7981",
        "BeginOffsetMillis": 17140,
        "EndOffsetMillis": 19860,
        "Sentiment": "POSITIVE",
        "ParticipantRole": "CUSTOMER"
    },
            ...

        "Content": "Wonderful. I made all changes to your account and now this discount is applied, please check.",
        "OutcomesDetected": [{
        "CharacterOffsets": {
            "Begin": 12,
            "End": 78
        }
        }],

            ...

        "Content": "I will send an email with all the details to you today, and I will call you back next week to follow up. Have a wonderful evening.",
        "Id": "78cd0923-cafd-44a5-a66e-09515796572f",
        "BeginOffsetMillis": 31800,
        "EndOffsetMillis": 39450,
        "Sentiment": "POSITIVE",
        "ParticipantRole": "AGENT"
    },
    {
        "LoudnessScores": [
            78.54,
            68.76,
            67.76
        ],
        "Content": "Thank you very much, sir. Goodbye.",
        "Id": "5c5e6be0-8349-4767-8447-986f995af7c3",
        "BeginOffsetMillis": 40040,
        "EndOffsetMillis": 42460,
        "Sentiment": "POSITIVE",
        "ParticipantRole": "CUSTOMER"
    }
    ],

    ...

    "Categories": {
        "MatchedDetails": {
            "positive-resolution": {
                "PointsOfInterest": [{
                    "BeginOffsetMillis": 40040,
                    "EndOffsetMillis": 42460
                }]
            }
        },
        "MatchedCategories": [
            "positive-resolution"
        ]
    },

    ...

    "ConversationCharacteristics": {
        "NonTalkTime": {
            "Instances": [],
            "TotalTimeMillis": 0
        },
        "Interruptions": {
            "TotalCount": 2,
            "TotalTimeMillis": 10700,
            "InterruptionsByInterrupter": {
                "AGENT": [{
                    "BeginOffsetMillis": 26040,
                    "DurationMillis": 5510,
                    "EndOffsetMillis": 31550
                }],
                "CUSTOMER": [{
                    "BeginOffsetMillis": 770,
                    "DurationMillis": 5190,
                    "EndOffsetMillis": 5960
                }]
            }
        },
        "TotalConversationDurationMillis": 42460,
        "Sentiment": {
            "OverallSentiment": {
                "AGENT": 2.5,
                "CUSTOMER": 2.1
            },
            "SentimentByPeriod": {
                "QUARTER": {
                    "AGENT": [{
                        "Score": 0.0,
                        "BeginOffsetMillis": 0,
                        "EndOffsetMillis": 9862
                    },
                    {
                        "Score": -5.0,
                        "BeginOffsetMillis": 9862,
                        "EndOffsetMillis": 19725
                    },
                    {
                        "Score": 5.0,
                        "BeginOffsetMillis": 19725,
                        "EndOffsetMillis": 29587
                    },
                    {
                       "Score": 5.0,
                        "BeginOffsetMillis": 29587,
                        "EndOffsetMillis": 39450
                    }
                    ],
                    "CUSTOMER": [{
                        "Score": -2.5,
                        "BeginOffsetMillis": 0,
                        "EndOffsetMillis": 10615
                    },
                    {
                        "Score": 5.0,
                        "BeginOffsetMillis": 10615,
                        "EndOffsetMillis": 21230
                    },
                    {
                        "Score": 2.5,
                        "BeginOffsetMillis": 21230,
                        "EndOffsetMillis": 31845
                    },
                    {
                        "Score": 5.0,
                        "BeginOffsetMillis": 31845,
                        "EndOffsetMillis": 42460
                    }
                    ]
                }
            }
        },
        "TalkSpeed": {
            "DetailsByParticipant": {
                "AGENT": {
                    "AverageWordsPerMinute": 150
                },
                "CUSTOMER": {
                    "AverageWordsPerMinute": 167
                }
            }
        },
        "TalkTime": {
            "DetailsByParticipant": {
                "AGENT": {
                    "TotalTimeMillis": 32750
                },
                "CUSTOMER": {
                    "TotalTimeMillis": 18010
                }
            },
            "TotalTimeMillis": 50760
        }
    },
    ...
}
```

# Démarrage d’une transcription Call Analytics en temps réel
<a name="tca-start-stream"></a>

Avant de commencer une transcription des analyses d'appels en temps réel, vous devez créer toutes les [catégories](tca-categories-stream.md) que vous Amazon Transcribe souhaitez associer à votre appel.

**Note**  
Les transcriptions Call Analytics ne peuvent pas être associées rétroactivement à de nouvelles catégories. Seules les catégories que vous créez *avant* de commencer une transcription Call Analytics peuvent être appliquées à cette sortie de transcription.

Si vous avez créé une ou plusieurs catégories et que votre fichier audio répond à toutes les règles d’au moins une de vos catégories, Amazon Transcribe indique à votre sortie les catégories correspondantes. Si vous choisissez de ne pas utiliser de catégories, ou si votre contenu audio ne correspond pas aux règles spécifiées dans vos catégories, votre transcription n’est pas signalée.

Pour inclure des analyses après appel dans votre transcription Call Analytics en temps réel, vous devez fournir un compartiment Amazon S3 dans votre demande à l’aide du paramètre `OutputLocation`. Vous devez également inclure un ARN `DataAccessRoleArn` disposant d’autorisations d’écriture sur le compartiment spécifié. Une transcription distincte est produite et stockée dans le compartiment spécifié à la fin de votre session de streaming Call Analytics en temps réel.

Grâce à l’analyse Call Analytics en temps réel, vous avez également la possibilité de créer des alertes de catégorie en temps réel. Pour obtenir des instructions, consultez la section [Création d’alertes en temps réel pour les correspondances de catégorie](#tca-create-alert-stream).

Pour démarrer une transcription Call Analytics en temps réel, vous pouvez utiliser le **AWS Management Console****HTTP/2** ou **WebSockets**; consultez les exemples suivants :

**Important**  
Actuellement, le AWS Management Console seul propose une démo d'analyse des appels en temps réel avec des exemples audio préchargés. Si vous souhaitez utiliser votre propre audio, vous devez utiliser l'API (HTTP/2 ou un SDK). WebSockets

## AWS Management Console
<a name="analytics-start-console-stream"></a>

Utilisez la procédure suivante pour démarrer une demande Call Analytics. Les appels qui correspondent à toutes les caractéristiques définies par une catégorie sont étiquetés avec cette catégorie.

**Note**  
Une démo est disponible dans la AWS Management Console uniquement. Pour démarrer une transcription d’analyse personnalisée en temps réel, vous devez utiliser l’[API](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_StartCallAnalyticsStreamTranscription.html).

1. Dans le volet de navigation, sous Analyse des Amazon Transcribe appels, choisissez **Analyser un appel en temps réel**.  
![\[Amazon Transcribe capture d'écran de la console : la page de démonstration « analyser un appel en streaming ».\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-start-stream.png)

1. Pour l’**étape 1 : Spécifier l’audio d’entrée**, choisissez un fichier de test de démonstration dans le menu déroulant.  
![\[Amazon Transcribe capture d'écran de la console : une sélection déroulante pour le son d'entrée de la démo.\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-start-stream-settings1.png)

1. Pour l’**étape 2 : Examiner les catégories d’appels**, vous avez la possibilité de consulter les catégories Call Analytics en temps réel précédemment créées. Toutes les catégories Call Analytics en temps réel sont appliquées à votre transcription.

   Si vous choisissez **Afficher les catégories**, un nouveau volet affiche vos catégories Call Analytics en temps réel existantes et fournit un lien pour en créer de nouvelles.  
![\[Amazon Transcribe capture d'écran de la console : la page « catégories d'analyse des appels ».\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-start-stream-settings2.png)

1. Pour l’**étape 3 : Configurer l’entrée et la sortie**, vous avez la possibilité d’appliquer des paramètres supplémentaires.

   Si vous choisissez **Configurer les paramètres avancés**, un nouveau volet s’affiche, dans lequel vous pouvez définir les paramètres d’expurgation du contenu.  
![\[Amazon Transcribe capture d'écran de la console : les panneaux de paramètres avancés, tous réduits.\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-start-stream-settings3.png)

   Une fois que vous avez effectué toutes vos sélections, choisissez **Enregistrer** pour revenir à la page principale.

1. Pour appliquer des analyses supplémentaires, vous pouvez activer les **analyses après appel**. Vous obtenez ainsi les mêmes analyses qu’une transcription d’analyse après appel, notamment en ce qui concerne les interruptions, le niveau sonore, le temps de non-conversation, la vitesse de conversation, le temps de conversation, les problèmes, les mesures à prendre et les résultats. Les résultats d’analyse après appel sont stockés dans un fichier distinct de votre transcription Call Analytics en temps réel.  
![\[Amazon Transcribe capture d'écran de la console : le panneau d'analyse post-appel, réduit.\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-start-stream-post-call1.png)

   Si vous appliquez des analyses après un appel, vous devez spécifier une destination du fichier Amazon S3 de sortie et un IAM rôle. Vous pouvez éventuellement choisir de chiffrer votre sortie.  
![\[Amazon Transcribe capture d'écran de la console : le panneau d'analyse post-appel, étendu.\]](http://docs.aws.amazon.com/fr_fr/transcribe/latest/dg/images/analytics-start-stream-post-call1a.png)

1. Choisissez **Démarrer le streaming**.

## flux HTTP/2
<a name="analytics-start-http2"></a>

Cet exemple crée une demande HTTP/2 avec Call Analytics activé. Pour plus d'informations sur l'utilisation du streaming HTTP/2 avec Amazon Transcribe, consultez[Configuration d’un flux HTTP/2](streaming-setting-up.md#streaming-http2). Pour plus de détails sur les paramètres et les en-têtes spécifiques à Amazon Transcribe, voir [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_StartCallAnalyticsStreamTranscription.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_StartCallAnalyticsStreamTranscription.html).

Cet exemple inclut une [analyse après appel](tca-post-call.md). Si vous ne souhaitez pas d’analyse après appel, supprimez la section `PostCallAnalyticsSettings` de la demande.

Notez que l’événement de configuration présenté dans l’exemple suivant doit être transmis en tant que premier événement du flux.

```
POST /stream-transcription HTTP/2
host: transcribestreaming.us-west-2.amazonaws.com
X-Amz-Target: com.amazonaws.transcribe.Transcribe.StartCallAnalyticsStreamTranscription
Content-Type: application/vnd.amazon.eventstream
X-Amz-Content-Sha256: string
X-Amz-Date: 20220208T235959Z
Authorization: AWS4-HMAC-SHA256 Credential=access-key/20220208/us-west-2/transcribe/aws4_request, SignedHeaders=content-type;host;x-amz-content-sha256;x-amz-date;x-amz-target;x-amz-security-token, Signature=string
x-amzn-transcribe-language-code: en-US
x-amzn-transcribe-media-encoding: flac
x-amzn-transcribe-sample-rate: 16000  
transfer-encoding: chunked
    
{
    "AudioStream": { 
        "AudioEvent": { 
            "AudioChunk": blob
        },
        "ConfigurationEvent": {
            "ChannelDefinitions": [
                {
                    "ChannelId": 0,
                    "ParticipantRole": "AGENT"
                },
                {
                     "ChannelId": 1,
                    "ParticipantRole": "CUSTOMER"
                }
            ],
            "PostCallAnalyticsSettings": {
                "OutputLocation": "s3://amzn-s3-demo-bucket/my-output-files/",
                "DataAccessRoleArn": "arn:aws:iam::111122223333:role/ExampleRole"
            }
        }
    }
}
```

Les définitions des paramètres se trouvent dans la [référence d'API](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_Reference.html) ; les paramètres communs à toutes les opérations d' AWS API sont répertoriés dans la section [Paramètres communs](https://docs.aws.amazon.com/transcribe/latest/APIReference/CommonParameters.html).

## WebSocket flux
<a name="analytics-start-websocket"></a>

Cet exemple crée une URL présignée qui utilise Call Analytics dans un WebSocket flux. Les sauts de ligne ont été ajoutés pour faciliter la lecture. Pour plus d'informations sur l'utilisation WebSocket des flux avec Amazon Transcribe, consultez[Configuration d'un WebSocket stream](streaming-setting-up.md#streaming-websocket). Pour plus de détails sur les paramètres, consultez la section [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_StartCallAnalyticsStreamTranscription.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_StartCallAnalyticsStreamTranscription.html).

Cet exemple inclut une [analyse après appel](tca-post-call.md). Si vous ne souhaitez pas d’analyse après appel, supprimez la section `PostCallAnalyticsSettings` de la demande.

Notez que l’événement de configuration présenté dans l’exemple suivant doit être transmis en tant que premier événement du flux.

```
GET wss://transcribestreaming.us-west-2.amazonaws.com:8443/call-analytics-stream-transcription-websocket?
&X-Amz-Algorithm=AWS4-HMAC-SHA256
&X-Amz-Credential=AKIAIOSFODNN7EXAMPLE%2F20220208%2Fus-west-2%2Ftranscribe%2Faws4_request
&X-Amz-Date=20220208T235959Z
&X-Amz-Expires=300
&X-Amz-Security-Token=security-token
&X-Amz-Signature=string
&X-Amz-SignedHeaders=content-type%3Bhost%3Bx-amz-date
&language-code=en-US
&media-encoding=flac    
&sample-rate=16000

{
    "AudioStream": { 
        "AudioEvent": { 
            "AudioChunk": blob
        },
        "ConfigurationEvent": {
            "ChannelDefinitions": [
                {
                    "ChannelId": 0,
                    "ParticipantRole": "AGENT"
                },
                {
                     "ChannelId": 1,
                    "ParticipantRole": "CUSTOMER"
                }
            ],
            "PostCallAnalyticsSettings": {
                "OutputLocation": "s3://amzn-s3-demo-bucket/my-output-files/",
                "DataAccessRoleArn": "arn:aws:iam::111122223333:role/ExampleRole"
            }
        }
    }
}
```

Les définitions des paramètres se trouvent dans la [référence d'API](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_Reference.html) ; les paramètres communs à toutes les opérations d' AWS API sont répertoriés dans la section [Paramètres communs](https://docs.aws.amazon.com/transcribe/latest/APIReference/CommonParameters.html).

**Astuce**  
Le HTTP/2 et les WebSocket exemples ci-dessus incluent des analyses post-appel. Si vous ne souhaitez pas d’analyse après appel, supprimez la section `PostCallAnalyticsSettings` de la demande.  
Si vous activez `PostCallAnalyticsSettings`, vous devez envoyer un événement de configuration en tant que premier événement. Votre événement de configuration inclut les paramètres pour `ChannelDenifitions` et `PostStreamAnalyticsSettings`, comme indiqué dans les exemples précédents.  
Les données binaires sont transmises sous forme de message binaire avec `content-type application/octet-stream`, et l’événement de configuration est transmis sous forme de message texte avec `content-type application/json`.  
Pour de plus amples informations, veuillez consulter [Configuration d’une transcription en streaming](streaming-setting-up.md).

## Création d’alertes en temps réel pour les correspondances de catégorie
<a name="tca-create-alert-stream"></a>

Pour configurer des alertes en temps réel, vous devez d’abord créer une catégorie [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_TranscriptFilter.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_TranscriptFilter.html) avec l’indicateur `REAL_TIME`. Cet indicateur permet d’appliquer votre catégorie aux transcriptions Call Analytics en temps réel.

Pour obtenir des instructions sur la création d’une catégorie, consultez la section [Création de catégories pour les transcriptions en temps réel](tca-categories-stream.md).

Lorsque vous démarrez votre transcription Call Analytics en temps réel, toutes les catégories avec l’indicateur `REAL_TIME` sont automatiquement appliquées à votre sortie de transcription au niveau du segment. Si une correspondance `TranscriptFilterType` se produit, elle apparaît dans la section `CategoryEvent` de votre transcription. Vous pouvez ensuite utiliser ce paramètre et ses sous-paramètres `MatchedCategories` et `MatchedDetails` pour configurer des alertes en temps réel personnalisées.

Voici un exemple de sortie de transcription Call Analytics en temps réel pour une correspondance `CategoryEvent` :

```
"CategoryEvent": { 
    "MatchedCategories": [ "shipping-complaint" ],
    "MatchedDetails": { 
        "my package never arrived" : { 
            "TimestampRanges": [    
                { 
                    "BeginOffsetMillis": 19010,
                    "EndOffsetMillis": 22690
                }
            ]
        }
    }
},
```

L’exemple précédent représente une correspondance textuelle exacte avec le discours « *mon colis n’est jamais arrivé* », qui représente une règle relevant de la catégorie « plainte relative à l’expédition ».

Vous pouvez configurer votre alerte en temps réel pour inclure n’importe quelle combinaison de paramètres répertoriés. Par exemple, vous pouvez configurer votre alerte pour inclure uniquement la phrase correspondante (`MatchedDetails`) ou uniquement le nom de catégorie (`MatchedCategories`). Vous pouvez également configurer votre alerte pour inclure tous les paramètres.

La façon dont vous configurez vos alertes en temps réel dépend des interfaces de votre organisation et du type d’alerte que vous souhaitez. Par exemple, vous pouvez définir une correspondance `CategoryEvent` pour envoyer une notification contextuelle, un e-mail, un SMS ou toute autre alerte que votre système peut accepter.

# Sortie Call Analytics en temps réel
<a name="tca-output-streaming"></a>

Les transcriptions d'analyse des appels en temps réel sont affichées dans un turn-by-turn format par segment. Elles incluent des événements de catégorie, la détection des problèmes, les sentiments, ainsi que l’identification et l’expurgation des PII. Les événements de catégorie vous permettent de définir des alertes en temps réel. Pour plus d’informations, consultez la section [Création d’alertes en temps réel pour les correspondances de catégorie](tca-start-stream.md#tca-create-alert-stream).

Pour améliorer la précision et personnaliser davantage vos transcriptions en fonction de votre cas d’utilisation, par exemple en incluant des termes spécifiques au secteur, ajoutez des [vocabulaires personnalisés](custom-vocabulary.md) ou des [modèles de langue personnalisés](custom-language-models.md) à votre demande Call Analytics. Pour masquer, supprimer ou étiqueter des mots que vous ne voulez pas voir apparaître dans vos résultats de transcription, tels que des termes vulgaires, ajoutez un [filtrage du vocabulaire](vocabulary-filtering.md).

Les sections suivantes présentent des exemples de sortie JSON pour les transcriptions Call Analytics en temps réel.

## Événements de catégorie
<a name="tca-output-category-event-stream"></a>

Voici à quoi ressemble une correspondance de catégorie dans votre sortie de transcription. Cet exemple montre que l’audio entre l’horodatage de 19 010 millisecondes et l’horodatage de 22 690 millisecondes correspond à la catégorie « plainte réseau ». Dans ce cas, la catégorie personnalisée « plainte réseau » exigeait que le client indique « *problèmes de réseau* » (correspondance exacte des mots).

```
"CategoryEvent": { 
    "MatchedCategories": [ 
        "network-complaint" 
    ],
    "MatchedDetails": { 
        "network issues" : { 
            "TimestampRanges": [    
                { 
                    "BeginOffsetMillis": 9299375,
                    "EndOffsetMillis": 7899375
                }
            ]
        }
    }
},
```

## Détection des problèmes
<a name="tca-output-issue-detection-stream"></a>

Voici à quoi ressemble une correspondance de détection de problèmes dans votre sortie de transcription. Cet exemple montre que le texte compris entre le caractère 26 et le caractère 62 décrit un problème.

```
"UtteranceEvent": {
    ...
    "Transcript": "Wang Xiulan I'm tired of the network issues my phone is having.",
    ...
    "IssuesDetected": [
        {
            "CharacterOffsets": {
                "BeginOffsetChar": 26,
                "EndOffsetChar": 62
            }
        }
    ]
},
```

## Sentiment
<a name="tca-output-sentiment-stream"></a>

Voici à quoi ressemble l’analyse des sentiments dans votre sortie de transcription.

```
"UtteranceEvent": {    
    ...
    "Sentiment": "NEGATIVE",
    "Items": [{
        ...
```

## Identification des PII
<a name="tca-output-pii-id-stream"></a>

Voici à quoi ressemble l’identification des PII dans votre sortie de transcription.

```
"Entities": [
    {
        "Content": "Wang Xiulan",
        "Category": "PII",
        "Type": "NAME",
        "BeginOffsetMillis": 7999375,
        "EndOffsetMillis": 199375,
        "Confidence": 0.9989
    }
],
```

## Expurgation des PII
<a name="tca-output-pii-redact-stream"></a>

Voici à quoi ressemble l’expurgation des PII dans votre sortie de transcription.

```
"Content": "[NAME]. Hi, [NAME]. I'm [NAME] Happy to be helping you today.",
"Redaction": {
    "RedactedTimestamps": [
        {
            "BeginOffsetMillis": 32670,
            "EndOffsetMillis": 33343
        }, 
        {
            "BeginOffsetMillis": 33518,
            "EndOffsetMillis": 33858
        }, 
        {
            "BeginOffsetMillis": 34068,
            "EndOffsetMillis": 34488
        }
    ]
},
```

## Identification de la langue
<a name="tca-output-language-id-stream"></a>

Voici à quoi ressemble l'identification de la langue dans votre sortie de transcription.

```
{
  "LanguageCode": "en-US",
  "LanguageIdentification": [
    {
      "Code": "en-US",
      "Score": 0.823
    },
    {
      "Code": "de-DE",
      "Score": 0.177
    }
  ]
}
```

## Sortie Call Analytics en temps réel compilée
<a name="tca-output-streaming-compiled"></a>

Par souci de concision, une partie du contenu est remplacée par des points de suspension dans la sortie de transcription suivante.

```
{
    "CallAnalyticsTranscriptResultStream": {
        "BadRequestException": {},
        "ConflictException": {},
        "InternalFailureException": {},
        "LimitExceededException": {},
        "ServiceUnavailableException": {},
        "UtteranceEvent": {
            "UtteranceId": "58c27f92-7277-11ec-90d6-0242ac120003",
            "ParticipantRole": "CUSTOMER",
            "IsPartial": false,
            "Transcript": "Wang Xiulan I'm tired of the network issues my phone is having.",
            "BeginOffsetMillis": 19010,
            "EndOffsetMillis": 22690,
            "Sentiment": "NEGATIVE",
            "Items": [{
                    "Content": "Wang",
                    "BeginOffsetMillis": 379937,
                    "EndOffsetMillis": 299375,
                    "Type": "pronunciation",
                    "Confidence": 0.9961,
                    "VocabularyFilterMatch": false
                },
                {
                    "Content": "Xiulan",
                    "EndOffsetMillis": 5899375,
                    "BeginOffsetMillis": 3899375,
                    "Type": "pronunciation",
                    "Confidence": 0.9961,
                    "VocabularyFilterMatch": false
                },
                ...
                {
                    "Content": "network",
                    "EndOffsetMillis": 199375,
                    "BeginOffsetMillis": 9299375,
                    "Type": "pronunciation",
                    "Confidence": 0.9961,
                    "VocabularyFilterMatch": false
                },
                {
                    "Content": "issues",
                    "EndOffsetMillis": 7899375,
                    "BeginOffsetMillis": 5999375,
                    "Type": "pronunciation",
                    "Confidence": 0.9961,
                    "VocabularyFilterMatch": false
                },
                {
                    "Content": "my",
                    "EndOffsetMillis": 9199375,
                    "BeginOffsetMillis": 7999375,
                    "Type": "pronunciation",
                    "Confidence": 0.9961,
                    "VocabularyFilterMatch": false
                },
                {
                    "Content": "phone",
                    "EndOffsetMillis": 199375,
                    "BeginOffsetMillis": 9299375,
                    "Type": "pronunciation",
                    "Confidence": 0.9961,
                    "VocabularyFilterMatch": false
                },
                ...
            ],
            "Entities": [{
                "Content": "Wang Xiulan",
                "Category": "PII",
                "Type": "NAME",
                "BeginOffsetMillis": 7999375,
                "EndOffsetMillis": 199375,
                "Confidence": 0.9989
            }],
            "IssuesDetected": [{
                "CharacterOffsets": {
                    "BeginOffsetChar": 26,
                    "EndOffsetChar": 62
                }
            }],
            "LanguageCode": "en-US",
            "LanguageIdentification": [
                {
                    "Code": "en-US",
                    "Score": 0.823
                },
                {
                    "Code": "de-DE",
                    "Score": 0.177
                }
            ]
        },
        "CategoryEvent": { 
            "MatchedCategories": [ 
                "network-complaint" 
            ],
            "MatchedDetails": { 
                "network issues" : { 
                    "TimestampRanges": [    
                        { 
                            "BeginOffsetMillis": 9299375,
                            "EndOffsetMillis": 7899375
                        }
                    ]
                }
            }
        }
    }
}
```