

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Évaluez les performances des agents et des interactions en libre-service dans Amazon Connect
<a name="evaluations"></a>

**Astuce**  
**Nouvel utilisateur ?** Consultez l’[atelier sur les formulaires d’évaluation des agents Amazon Connect](https://catalog.workshops.aws/amazon-connect-evaluation-forms/en-US). Ce cours en ligne vous explique comment créer un exemple pratique de formulaire d’évaluation.  
**Administrateurs informatiques** : pour activer les fonctionnalités d'évaluation d'Amazon Connect, accédez à la Amazon Connect console, choisissez l'alias de votre instance, choisissez **Stockage des données**, **Évaluations du contenu**, **Modifier**. Vous serez invité à créer ou à choisir un compartiment S3. Une fois le compartiment créé, vous pouvez stocker les évaluations et les exporter.

Les évaluations des performances d'Amazon Connect vous permettent de définir des critères d'évaluation des performances personnalisés afin d'évaluer, de surveiller et d'améliorer la manière dont les agents et les systèmes automatisés (robots, agents IA) interagissent avec les clients et résolvent les problèmes. Vous pouvez ensuite surveiller les performances en consultant les informations agrégées dans les tableaux de bord et en analysant les contacts individuels pour consulter les évaluations ainsi que les enregistrements, les transcriptions, les résumés des conversations et les analyses dans une seule vue. Grâce au coaching intégré, vous pouvez fournir des commentaires aux agents en soulignant leurs points forts et les opportunités d'amélioration. 

Vous pouvez effectuer des évaluations manuelles pour tous les types de contacts (voix, chat, e-mail et tâche). Vous pouvez effectuer des interactions automatisées pour les contacts vocaux et de chat analysés par Amazon Connect Conversational Analytics. Vous pouvez effectuer des évaluations automatisées des interactions avec les agents et des interactions automatisées (gérées par des robots ou des agents d'intelligence artificielle). Pour plus de détails sur les évaluations automatisées, consultez[Étape 6 : activer les évaluations automatiques](create-evaluation-forms.md#step-automate).

Pour effectuer des évaluations manuelles, vous pouvez rechercher un contact, choisir le formulaire d'évaluation approprié, consulter l'audio, l'enregistrement d'écran ou la transcription du contact, puis évaluer la manière dont l'humain, l'agent IA ou le robot a interagi avec le client. Vous pouvez ensuite utiliser ces informations pour améliorer l'expérience client en fournissant des commentaires aux agents et en optimisant les robots, les agents dotés d'intelligence artificielle et les flux de travail en libre-service.

**Pour évaluer les performances**

1. Connectez-vous à Amazon Connect avec un compte utilisateur disposant des [autorisations requises pour effectuer des évaluations](evaluation-and-coaching-permissions.md). 

1. Accédez au contact que vous souhaitez évaluer. Il y a plusieurs manières de le faire. Par exemple, quelqu'un peut avoir partagé l'URL du contact avec vous ou vous avoir affecté une tâche contenant cette URL. Vous pouvez également avoir l'ID du contact, qui vous permet de rechercher l'enregistrement du contact en procédant comme suit : dans le volet de navigation, choisissez **Analytique et optimisation**, **Recherche de contact**, puis recherchez le contact que vous souhaitez évaluer.

1. Sur la page **Détails de contact**, choisissez **Évaluations** ou l'icône **<**.  
![\[Page Détails de contact, bouton Évaluations.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-evaluatebutton.png)

1. Le panneau **Évaluations** répertorie toutes les évaluations en cours ou terminées pour le contact.  
![\[Le volet des évaluations, le statut de deux évaluations.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-startevaluation.png)

1. Pour démarrer une évaluation, choisissez un formulaire d'évaluation dans le menu déroulant, puis choisissez **Commencer l'évaluation**. Si vous n'avez pas encore créé de formulaire d'évaluation, vous devrez le faire au préalable. Pour de plus amples informations, veuillez consulter [Création d'un formulaire d'évaluation](create-evaluation-forms.md).

1. Pour parcourir un formulaire d'évaluation particulièrement long, utilisez les flèches situées à côté de chaque section pour le réduire ou le développer.   
![\[Le volet des évaluations, la flèche pour réduire ou développer une section.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-exampleevaluation.png)

1. Choisissez **Enregistrer** pour enregistrer un formulaire en cours. Le statut du formulaire devient **Brouillon**. Vous pouvez y revenir à tout moment pour continuer, ou vous pouvez le supprimer et recommencer à zéro.  
![\[Le volet des évaluations, le statut d'une évaluation défini sur Brouillon.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-draft.png)

1. Une fois que vous avez terminé, choisissez **Envoyer**. Si vous avez omis des questions facultatives dans le formulaire, un avertissement vous demande de confirmer que vous souhaitez soumettre l’évaluation. Choisissez **Yes** (Oui). L’évaluation est maintenant **terminée**.  
![\[Ignorez les questions facultatives et envoyez l’évaluation.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-draft-submit.png)

# Attribuez des autorisations de profil de sécurité pour les évaluations des performances et le coaching
<a name="evaluation-and-coaching-permissions"></a>

Pour permettre aux utilisateurs de créer des formulaires d’évaluation, de les automatiser et d’y accéder, attribuez les autorisations de profil de sécurité **Analytique et optimisation** suivantes : 
+ **Formulaires d'évaluation - effectuer des évaluations de contacts** : permet à un utilisateur, tel qu'un membre de l'équipe d'assurance qualité, d'utiliser un formulaire d'évaluation pour examiner un contact. Pour obtenir un exemple d'image, consultez [Évaluez les performances des agents et des interactions en libre-service dans Amazon Connect](evaluations.md). 

  Cette autorisation permet aux utilisateurs de [rechercher](search-evaluations.md) des évaluations par formulaire, score, date/plage de dernière mise à jour, évaluateur et statut. Elle leur permet également de consulter la piste d’audit du formulaire d’évaluation.
  + Les autorisations d’**affichage** permettent aux utilisateurs de consulter les évaluations envoyées. Vous pouvez accorder ces autorisations aux utilisateurs qui effectuent des évaluations (tels que les responsables) et aux utilisateurs (tels que les agents) qui ont besoin de consulter les évaluations.
  + Les autorisations de **création** permettent aux utilisateurs de créer des évaluations, de consulter des ébauches d’évaluations et de les modifier.
  + Les autorisations de **modification** permettent aux utilisateurs de modifier les évaluations envoyées.
  + Les autorisations de **suppression** permettent aux utilisateurs de supprimer à la fois les ébauches et les évaluations soumises.
+ **Formulaires d'évaluation - gérer les définitions de formulaire** : permet aux administrateurs et aux responsables de [créer](create-evaluation-forms.md) et de [gérer](evaluationform-audit-trail.md) des formulaires d'évaluation.
+ **Règles** : les autorisations de création, d’affichage, de modification et de suppression des règles sont nécessaires pour [classer automatiquement les contacts](rules.md) en fonction de comportements d’agents et de résultats clients spécifiques. Ces catégories de contacts peuvent être utilisées pour [configurer l’automatisation](create-evaluation-forms.md#step-automate) au niveau des formulaires d’évaluation. En outre, des autorisations fournies via des règles sont nécessaires pour [créer une règle permettant d’envoyer des évaluations automatisées](contact-lens-rules-submit-automated-evaluation.md).
+ **Formulaires d’évaluation - demander à l’assistant IA** : permet d’accéder au bouton **Demandez à l’IA** lors de l’exécution des évaluations. Le bouton **Demandez à l’IA** permet à l’utilisateur d’obtenir des [recommandations alimentées par l’IA générative](generative-ai-performance-evaluations.md) pour les réponses aux questions des formulaires d’évaluation.
+ **Formulaires d’évaluation - gérer les sessions d’étalonnage** : permet aux administrateurs de créer et de gérer des sessions d’étalonnage afin de garantir la cohérence et la précision du mode d’évaluation des performances des agents par les responsables.
+ **Exemples de contacts** : permet aux responsables d'échantillonner de manière aléatoire les contacts des agents à des fins d'évaluation. Par exemple, un responsable peut sélectionner tous les agents de sa hiérarchie et obtenir 5 contacts aléatoires par agent la semaine dernière à des fins d'évaluation.

Pour permettre aux utilisateurs de gérer les sessions de coaching ou d'y accéder, attribuez les autorisations suivantes au profil de sécurité **d'analyse et d'optimisation** : 
+ **Coaching - mes sessions de coaching** : accédez aux sessions de coaching où vous êtes désigné en tant que coach ou participant.
  + **Afficher** : consultez les sessions de coaching dont vous êtes le coach ou le participant. Si vous êtes le participant, vous pouvez accuser réception de la séance de coaching avec cette autorisation.
  + **Création** : créez de nouvelles sessions de coaching avec vous-même en tant que coach.
  + **Modifier** : modifiez les sessions de coaching dont vous êtes le coach.
  + **Supprimer** : supprimez les sessions de coaching dont vous êtes le coach.
+ **Coaching - gérez les séances de coaching** : accédez à des sessions de coaching réalisées par vous-même ou par d'autres personnes. Cette autorisation est réservée aux administrateurs ou aux responsables de la qualité.
  + **Afficher** : consultez n'importe quelle séance de coaching.
  + **Créer** : créez de nouvelles sessions de coaching. Vous pouvez vous choisir comme coach ou désigner d'autres utilisateurs comme coach.
  + **Modifier** : modifiez n'importe quelle session de coaching.
  + **Supprimer** : supprimez toute session de coaching.

Le profil de sécurité **Administrateur** dispose de ces autorisations par défaut. 

Pour en savoir plus sur l’ajout d’autorisations à un profil de sécurité existant, consultez [Mise à jour de profils de sécurité dans Amazon Connect](update-security-profiles.md).

# Affichage d’une piste d’audit d’évaluation dans Amazon Connect
<a name="evaluation-audit-trail"></a>

 Une évaluation peut être modifiée et soumise plusieurs fois. Lorsqu’un évaluateur apporte des modifications à une évaluation existante, les responsables peuvent consulter une piste d’audit qui enregistre les informations suivantes :
+ Qui a soumis l’évaluation initiale
+ Qui a soumis l’évaluation à nouveau
+ Quelles modifications ont été apporté (par exemple, modification des réponses ou des notes de réponse d’une évaluation)

Les responsables des centres de contact peuvent utiliser ces informations pour effectuer des audits internes et identifier des améliorations possibles de la cohérence entre les évaluateurs.

**Pour afficher la piste d’audit d’une évaluation**

1. Connectez-vous à Amazon Connect avec un compte utilisateur doté d’une autorisation **Analytique et optimisation** - ** [Formulaires d’évaluation - effectuer des évaluations](evaluation-and-coaching-permissions.md)** sur son profil de sécurité. 

1. Accédez à un contact dont l’évaluation a été modifiée après son envoi.

1. Choisissez l’évaluation que vous souhaitez étudier. L’image suivante montre la page **Évaluations** avec un lien vers une évaluation terminée.  
![\[Lien vers une évaluation terminée que vous pouvez choisir pour consulter la piste d’audit.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluation-audit-example.png)

1. La section **Aperçu** de l’évaluation contient l’**historique des modifications**. Il indique le nombre de fois que l’évaluation a été soumise. Choisissez le lien, comme illustré dans l’image suivante.  
![\[Propriété Historique des modifications.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluation-audit-change-history.png)

1. Vous pouvez consulter la piste d’audit des soumissions postérieures à la soumission initiale. Cliquez sur la flèche située à côté de toute soumission supplémentaire pour afficher le détail des modifications. L’image suivante montre un exemple de piste d’audit qui a été créée pour une évaluation après sa soumission.  
![\[Piste d’audit d’une évaluation qui a été modifiée après sa soumission.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluation-audit.png)

# Création d’un formulaire d’évaluation dans Amazon Connect
<a name="create-evaluation-forms"></a>

Dans Amazon Connect, vous pouvez créer [de nombreux formulaires d'évaluation différents](feature-limits.md#evaluationforms-feature-specs). Par exemple, vous aurez peut-être besoin d'un formulaire d'évaluation différent pour chaque unité commerciale et pour différentes files d'attente. Vous pouvez également créer différents formulaires d'évaluation pour évaluer l'interaction de l'agent et l'interaction en libre-service avec un robot Lex ou un agent AI.

Chaque formulaire peut contenir plusieurs sections et questions. 
+ Vous pouvez attribuer une [pondération](about-scoring-and-weights.md) à chaque question et section pour indiquer dans quelle mesure leur note influe sur la note globale du formulaire d'évaluation.
+ Vous pouvez configurer l’automatisation pour chaque question afin que leurs réponses soient automatiquement renseignées à l’aide des informations et des métriques issues de l’analytique conversationnelle Contact Lens.

Cette rubrique explique comment créer un formulaire et configurer l'automatisation à l'aide du site Web Amazon Connect d'administration. Pour créer et gérer des formulaires par programmation, consultez [Actions d’évaluation](https://docs.aws.amazon.com/connect/latest/APIReference/evaluation-api.html) dans le *Guide de référence des API Amazon Connect*.

**Topics**
+ [

## Étape 1 : créer un formulaire d’évaluation avec un titre
](#step-title)
+ [

## Étape 2 : ajouter des sections et des questions
](#step-sections)
+ [

## Étape 3 : ajouter des réponses
](#step-answers)
+ [

## Étape 4 : activer l’affichage de questions de manière conditionnelle
](#step-conditionally-enable-questions)
+ [

## Étape 5 : attribuer des scores et des plages aux réponses
](#step-assignscores)
+ [

## Étape 6 : activer les évaluations automatiques
](#step-automate)
+ [

## Étape 7 : afficher une version préliminaire du formulaire d’évaluation
](#step-preview)
+ [

## Étape 8 : attribuer des poids pour le score final
](#step-weights)
+ [

## Étape 9 : activer un formulaire d’évaluation
](#step-activateform)

## Étape 1 : créer un formulaire d’évaluation avec un titre
<a name="step-title"></a>

Les étapes suivantes vous expliquent comment créer ou dupliquer un formulaire d’évaluation et comment définir un titre.

1. Connectez-vous à Amazon Connect avec un compte utilisateur doté de l’autorisation de profil de sécurité suivante : **Analytique et optimisation** - **Formulaires d’évaluation - gérer les définitions de formulaire** - **Créer**.

1. Choisissez **Analytique et optimisation**, puis sélectionnez **Formulaires d’évaluation**. 

1. Sur la page **Formulaires d'évaluation**, choisissez **Créer un formulaire**. 

   —ou—

   Sélectionnez un formulaire existant et choisissez **Dupliquer**.

1. Entrez un titre pour le formulaire (*Évaluation des ventes*, par exemple) ou modifiez le titre existant. Ajoutez des balises au formulaire pour contrôler l'accès au formulaire (voir [Configuration des tag-based-access contrôles sur les évaluations des performances](https://docs.aws.amazon.com/connect/latest/adminguide/tag-based-access-control-performance-evaluations.html)) Lorsque vous avez terminé, cliquez sur **OK**.   
![\[La page des formulaires d'évaluation, la section du titre du formulaire défini.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-title.png)

   Les onglets suivants apparaissent en haut de la page du formulaire d’évaluation :
   + **Sections et questions**. Ajoutez des sections, des questions et des réponses au formulaire.
   + **Notation**. Activez la notation sur le formulaire. Vous pouvez également appliquer une notation aux sections ou aux questions.

1. Choisissez **Enregistrer** à tout moment lors de la création du formulaire. Cela vous permet de quitter la page et de revenir au formulaire ultérieurement.

1. Passez à l'étape suivante pour ajouter des sections et des questions.

## Étape 2 : ajouter des sections et des questions
<a name="step-sections"></a>

1. Dans l'onglet **Sections et questions**, ajoutez un titre à la section 1, par exemple, *Message d'accueil*.   
![\[La page du formulaire d'évaluation, l'onglet de sections et de files d'attente.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-greetingtitle.png)

1. Choisissez **Ajouter une question** pour ajouter une question. 

1. Dans la zone **Titre de la question**, saisissez la question qui apparaîtra sur le formulaire d'évaluation. Par exemple, *l'agent a-t-il donné son nom et indiqué qu'il était là pour vous aider ?*   
![\[La page du formulaire d'évaluation, la zone de titre de la question.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-greetingquestion1.png)

1. Dans la zone **Instructions pour les évaluateurs**, ajoutez des informations pour aider les évaluateurs ou l’IA générative à répondre à la question.

   Par exemple, pour la question *L’agent a-t-il essayé de valider l’identité du client ?*, vous pouvez fournir des instructions supplémentaires telles que la suivante : « *L’agent doit toujours demander à un client son numéro de membre et son code postal avant de répondre aux questions*.

1. Dans la zone **Type de question**, choisissez l'une des options suivantes à afficher dans le formulaire :
   + **Sélection unique** : l'évaluateur peut choisir parmi une liste d'options, par exemple **Oui**, **Non** ou **Bien**, **Passable** ou **Mauvais**.
   + **Sélection multiple** : l'évaluateur peut choisir plusieurs réponses parmi une liste d'options, telles que la liste des produits que le client souhaitait acheter ou les comportements non conformes des agents. 
   + **Champ de texte** : l'évaluateur peut saisir du texte en format libre. 
   + **Numéro** : l'évaluateur peut saisir un nombre dans une plage que vous spécifiez, par exemple 1 à 10. 
   + **Date** : L'évaluateur peut choisir une date comme réponse. 

1. Passez à l'étape suivante pour ajouter des réponses.

## Étape 3 : ajouter des réponses
<a name="step-answers"></a>

1. Dans l'onglet **Réponses**, ajoutez les options de réponse que vous souhaitez afficher aux évaluateurs, par exemple **Oui**, **Non**.

1. Pour ajouter d'autres réponses, choisissez **Ajouter une option**. 

   L'image suivante montre des exemples de réponses à une question à **Sélection unique**.  
![\[Onglet Réponses, commande Ajouter une option.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-greetingquestion1-answer.png)

   L'image suivante montre une plage de réponses pour une question **numérique**.  
![\[Onglet Réponses, cases Valeur minimale et Valeur maximale.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-questionscoring4.png)

1. Vous pouvez également marquer une question comme facultative. Cela permet aux responsables d’ignorer la question (ou de la marquer comme **Non applicable**) lors de l’évaluation.   
![\[Option permettant de marquer une question comme « non applicable ».\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-questionscoring-not-applicable.png)

## Étape 4 : activer l’affichage de questions de manière conditionnelle
<a name="step-conditionally-enable-questions"></a>

Les formulaires d’évaluation peuvent contenir des questions activées ou désactivées de manière conditionnelle, en fonction des réponses fournies à d’autres questions. Par exemple, vous pouvez configurer une question complémentaire pour qu’elle n’apparaisse dans le formulaire que si cela est nécessaire.

1. Choisissez une question qui nécessite une question complémentaire. Le type de question doit être à **sélection unique** ou à **sélection multiple**, et il ne doit pas s'agir d'une question facultative (ne cochez pas la case **Question facultative**).

   Par exemple, dans l’image suivante, la question 1.1 est *Quelle était la raison de l’appel ?* et la case **Question facultative** n’est pas cochée.   
![\[Le type de question est Sélection unique, et la case Question facultative n’est pas cochée.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/conditionalquestions1.png)

1. Ajoutez une question complémentaire et cochez la case **Question facultative**.

   Dans l’image suivante, la question complémentaire est la question 1.2 *L’agent a-t-il vérifié si le client a essayé d’ouvrir un nouveau compte en ligne ?* et la case **Question facultative** est cochée.   
![\[Question complémentaire, avec la case Question facultative cochée.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/conditionalquestions2.png)

1. Choisissez l’onglet **Activer la question de manière conditionnelle**, puis activez l’option **Question conditionnelle**. Cette option est illustrée dans l’image suivante.   
![\[Onglet Activer la question de manière conditionnelle, option Question conditionnelle.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/conditionalquestions3.png)

1. Configurez la question complémentaire pour qu’elle ne soit activée qu’en cas de réponse à la question 1.1. *Quelle était la raison de l’appel ?* est **Ouverture d’un nouveau compte**. Ces options sont décrites dans l’image suivante.  
![\[L’option Question conditionnelle est l’une des options disponibles sous Autre.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/conditionalquestions4.png)

   Avec cette configuration, la question complémentaire *L’agent a-t-il vérifié si le client a tenté d’ouvrir un nouveau compte en ligne ?* n’est ajoutée de manière dynamique au formulaire que si la réponse à la question *Quelle était la raison de l’appel ?* est **Ouverture d’un nouveau compte**. Dans tous les autres cas, cette question ne figurera pas dans le formulaire et il ne sera pas nécessaire d’y répondre.

1. Pour vérifier que cette configuration fonctionne comme prévu, utilisez l’action **Aperçu**. 

Voici quelques éléments à garder à l’esprit lorsque vous créez des questions conditionnelles :
+ Lorsqu’une question est activée de manière conditionnelle, elle est désactivée par défaut.
+ Lorsqu’une question est désactivée de manière conditionnelle, elle est activée par défaut.
+ Vous ne pouvez utiliser que des questions à **sélection unique** ou à **sélection multiple** pour activer ou désactiver d'autres questions de manière conditionnelle. La question ne peut pas être facultative.
+  Vous pouvez choisir une ou plusieurs réponses possibles pour déclencher la condition d’une question conditionnelle. 

**Note**  
Si l’automatisation alimentée par l’IA générative est activée au niveau d’une question activée de manière conditionnelle, l’utilisation de l’IA générative pour cette question sera prise en compte dans la limite d’utilisation des questions pouvant être évaluées sur un contact à l’aide de l’IA générative. Cela est valable même si la question a été désactivée de manière conditionnelle.  
Pour connaître la limite par défaut du **nombre de questions d’évaluation avec lesquelles il est possible de recourir à l’IA générative pour y répondre automatiquement lors d’un contact**, consultez [Quotas de service Contact Lens](amazon-connect-service-limits.md#contactlens-quotas). 

## Étape 5 : attribuer des scores et des plages aux réponses
<a name="step-assignscores"></a>

1. Accédez à la partie supérieure du formulaire. Choisissez l’onglet **Notation**, puis cochez la case **Activer la notation**.  
![\[Page Formulaires d’évaluation, onglet Notation, case à cocher Activer la notation.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-enablescoring.png)

   Cela active la notation pour l'ensemble du formulaire. Cela vous permet également d'ajouter des plages de réponses aux types de questions **numériques**.

1. Retournez à l'onglet **Sections et questions**. Vous avez désormais la possibilité d'attribuer des scores à la **Sélection unique** et d'ajouter des plages pour les types de questions **numériques**.  
![\[Onglet Sections et questions, onglet de notation spécifique à la question.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-scoring-feature.png)

1. Lorsque vous créez une question de type **numérique**, dans l'onglet **Notation**, choisissez **Ajouter une plage** pour saisir une plage de valeurs. Indiquez les notes de la plus mauvaise à la meilleure pour la réponse. 

   L'image suivante montre un exemple de plages et de notation pour un type de question **numérique**.   
![\[Onglet de notation spécifique à la question, plages de réponses.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-questionscoring5.png)
   + Si l'agent a interrompu le client 0 fois, il obtient un score de 10 (meilleur).
   + Si l'agent a interrompu le client 1 à 4 fois, il obtient un score de 5. 
   + Si l'agent a interrompu le client 5 à 10 fois, il obtient un score de 1 (plus mauvais). 
**Note**  
Vous pouvez configurer un score de **0 (échec automatique)** pour une réponse possible. Vous pouvez choisir d’appliquer l’**échec automatique** à la section, à la sous-section ou à l’ensemble du formulaire. Dans ce cas, la sélection de cette réponse lors d’une évaluation attribuera une note de zéro à la section, à la sous-section ou à l’ensemble du formulaire. L'option **Échec automatique** est illustrée dans l'image suivante.  

![\[Option Échec automatique.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-automaticfail.png)


1. Après avoir attribué des scores à toutes les réponses, choisissez **Enregistrer**.

1. Lorsque vous avez terminé d'attribuer des scores, passez à l'étape suivante pour automatiser la question de certaines questions, ou continuez à [afficher une version préliminaire du formulaire d'évaluation](#step-preview). 

## Étape 6 : activer les évaluations automatiques
<a name="step-automate"></a>

Amazon Connect vous permet de répondre automatiquement aux questions contenues dans les formulaires d'évaluation (par exemple, l'agent a-t-il suivi le script d'accueil ?) en utilisant les informations et les mesures issues de l'analyse conversationnelle. L’automatisation peut être utilisée pour :
+ **Aider les évaluateurs à évaluer les performances** : les évaluateurs reçoivent des réponses automatisées aux questions figurant dans les formulaires d’évaluation lorsqu’ils effectuent des évaluations. Les évaluateurs peuvent remplacer les réponses automatisées avant de les soumettre.
+ **Remplissage et envoi automatiques des évaluations** : les administrateurs peuvent configurer des formulaires d'évaluation pour automatiser les réponses à toutes les questions d'un formulaire d'évaluation et soumettre automatiquement des évaluations pour un maximum de 100 % des interactions avec les clients. Les évaluateurs peuvent modifier les évaluations et les soumettre à nouveau (si nécessaire).

Les méthodes d'automatisation varient selon que vous évaluez l'interaction avec un agent ou une interaction automatisée (par exemple, le self-service lors de l'interaction avec un robot Lex ou un agent d'intelligence artificielle). Vous pouvez choisir entre une interaction avec un agent et une interaction automatisée en choisissant les **paramètres supplémentaires**, sous **Type d'interaction avec le contact**.

Tant pour aider les évaluateurs que pour la soumission automatique des évaluations, vous devez d'abord configurer l'automatisation des questions individuelles dans un formulaire d'évaluation. Amazon Connect propose trois méthodes pour automatiser les évaluations :
+ **Catégories de contact** : questions à *sélection unique* (par exemple, l'agent a-t-il correctement accueilli le client (Oui/Non) ?) , et Questions à *sélection multiple* (par exemple, quelles parties du script d'accueil l'agent a-t-il correctement énoncées ?) peuvent être répondues automatiquement en utilisant des catégories de contacts définies par des règles. Pour de plus amples informations, veuillez consulter [Création de règles Contact Lens à l’aide du site Web d’administration Amazon Connect](build-rules-for-contact-lens.md).
+ **IA générative** : l’IA générative permet de répondre automatiquement aux questions de type *Sélection unique* et *Champ de texte*.
**Note**  
Actuellement, l'IA générative intégrée ne peut pas être utilisée pour automatiser les évaluations des interactions en libre-service (automatisées) avec les robots Lex et les agents d'IA.
+ **Métriques** : il est possible de répondre automatiquement aux questions de type *Numérique* (par exemple, quelle est la plus longue durée pendant laquelle le client a été mis en attente ?) à l’aide de métriques telles que le temps d’attente le plus long, le score de sentiment, etc.

Vous trouverez ci-dessous des exemples de chaque type d’automatisation pour chaque type de question.

**Exemple d’automatisation pour une question à sélection unique à l’aide des catégories Contact Lens**
+ L'image suivante montre que la réponse à la question d'évaluation est « oui » lorsque le contact Contact Lens a été classé par une étiquette **ProperGreeting**. Pour étiqueter les contacts comme tels **ProperGreeting**, vous devez d'abord configurer une règle qui détecte les mots ou les phrases attendus dans le cadre d'un message d'accueil approprié. Par exemple, l'agent a mentionné « Merci d'avoir appelé » dans les 30 premières secondes de l'interaction. Pour de plus amples informations, veuillez consulter [Classer automatiquement les contacts](rules.md).  
![\[Section de questions, onglet Automatisation avec les catégories Contact Lens.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-automation1.png)

  Pour plus d'informations sur la configuration des catégories de contacts, consultez[Classer automatiquement les contacts](rules.md).

**Exemple d'automatisation pour une question *facultative* à sélection unique utilisant des catégories de contacts**
+ L’image suivante montre un exemple d’automatisation d’une question facultative à sélection unique. La première vérification consiste à déterminer si la question est applicable ou non. Une règle est créée pour vérifier si la prise de contact concerne l’ouverture d’un nouveau compte. Dans ce cas, le contact est classé dans la catégorie **CallReasonNewAccountOpening**. Si l’appel ne concerne pas l’ouverture d’un nouveau compte, la question est marquée comme **Non applicable**.

  Les conditions suivantes ne sont exécutées que si la question est applicable. La réponse est marquée par **Oui** ou **Non** en fonction de la catégorie de contact **NewAccountDisclosures**. Cette catégorie vérifie si l’agent a fourni au client les informations requises concernant l’ouverture d’un nouveau compte.  
![\[Une section de questions, l'onglet Automatisation.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-automation1a.png)

  Pour plus d'informations sur la configuration des catégories de contacts, consultez[Classer automatiquement les contacts](rules.md).

**Exemple d’automatisation pour une question *facultative* à sélection unique à l’aide de l’IA générative**
+ L’image suivante montre un exemple d’automatisation à l’aide de l’IA générative. L’IA générative répond automatiquement à la question d’évaluation en interprétant le titre de la question et les critères d’évaluation spécifiés dans les instructions de cette question, et en les utilisant pour analyser la transcription de la conversation. L’utilisation de phrases complètes pour formuler la question d’évaluation et la spécification claire des critères d’évaluation dans les instructions améliorent la précision de l’IA générative. Pour plus d'informations, consultez [Évaluation des performances des agents dans Amazon Connect à l’aide de l’IA générative](generative-ai-performance-evaluations.md).  
![\[Section de questions, option Contact Lens d’IA générative.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-automation-genai.png)

**Exemple d'automatisation pour une question à sélection multiple utilisant des Contact Lens catégories**
+ Des questions à sélection multiple peuvent être utilisées pour saisir le raisonnement des réponses à une seule question de sélection. Il peut également être utilisé pour déclencher des questions conditionnelles, en vérifiant les scénarios clients, tels que les raisons des appels. L'exemple suivant montre comment vous pouvez tirer parti des règles qui capturent les raisons de l'appel des clients pour remplir automatiquement les réponses à une question à sélection multiple. Contrairement aux questions à sélection unique, toutes les conditions sont exécutées de manière séquentielle pour répondre à une question à sélection multiple. Dans l'exemple ci-dessous, si les catégories 1 **StatusCheck**et 2 ** ChangeExistingRequest**sont présentes sur le contact, la réponse serait à la fois « Vérifier le statut d'une demande de service existante » et « Modifier une demande de service ».  
![\[Section de questions, onglet Automatisation avec les catégories Contact Lens.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-automation1b.png)

  Pour plus d'informations sur la configuration des catégories de contacts, consultez[Classer automatiquement les contacts](rules.md).

**Exemple d'automatisation pour une question numérique**
+ Si la durée de l'interaction avec l'agent était inférieure à 30 secondes, attribuez un score de 10 à la question.   
![\[Une section de question, l'onglet de notation, une question numérique.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-automation2.png)
+ Dans l'onglet **Automatisation**, choisissez la métrique utilisée pour évaluer automatiquement la question.  
![\[Une section de question, un onglet d'automatisation, une métrique pour évaluer automatiquement la question.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-automation3.png)
+ Vous pouvez automatiser les réponses aux questions numériques à l’aide de métriques Contact Lens (telles que le score de sentiment des clients, le pourcentage de temps passé sans parole et le nombre d’interruptions) et de métriques de contact (telles que le temps d’attente le plus long, le nombre de mises en attente et la durée d’interaction avec les agents).

Une fois qu'un formulaire d'évaluation est activé avec l'automatisation configurée pour certaines questions, vous recevrez des réponses automatiques à ces questions lorsque vous lancerez une évaluation depuis le site Web de l' Amazon Connect administrateur.

**Pour remplir et soumettre automatiquement des évaluations**

1. Configurez l’automatisation pour chaque question d’un formulaire d’évaluation, comme décrit précédemment.

1. Activez l’option **Permettre des évaluations entièrement automatisées** avant d’activer le formulaire d’évaluation. Cette option est illustrée dans l’image suivante.  
![\[L’option Permettre des évaluations entièrement automatisées est définie sur Activé.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-automation4.png)

1. Activez le formulaire d’évaluation.

1. Lors de l’activation, il vous sera demandé de créer une règle dans Contact Lens qui enverra une évaluation automatique. Pour plus d’informations, consultez [Création d’une règle dans Contact Lens qui soumet une évaluation automatique](contact-lens-rules-submit-automated-evaluation.md). Cette règle vous permet de spécifier quels contacts doivent être évalués automatiquement à l’aide du formulaire d’évaluation.

## Étape 7 : afficher une version préliminaire du formulaire d’évaluation
<a name="step-preview"></a>

Le bouton **Version préliminaire** n'est actif qu'une fois que vous avez attribué des notes aux réponses pour toutes les questions.

![\[La page du formulaire d'évaluation, le bouton de version préliminaire.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-previewbutton.png)


L'image suivante montre la version préliminaire du formulaire. Utilisez les flèches pour réduire les sections et faciliter l'affichage d'une version préliminaire du formulaire. Vous pouvez modifier le formulaire tout en affichant la version préliminaire, comme illustré dans l'image suivante.

![\[Version préliminaire du formulaire d'évaluation.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-previewmode.png)


## Étape 8 : attribuer des poids pour le score final
<a name="step-weights"></a>

Lorsque la notation est activée pour le formulaire d'évaluation, vous pouvez attribuer des *poids* aux sections ou aux questions. Le poids augmente ou diminue l'impact d'une section ou d'une question sur le score final de l'évaluation.

![\[La page du formulaire d'évaluation, l'onglet de notation, la section des poids des scores, l'option de question.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-scoring.png)


### Mode de répartition du poids
<a name="weight-distribution-mode"></a>

Avec **Mode de répartition du poids**, vous pouvez choisir d'attribuer le poids par section ou par question : 
+ **Poids par section** : vous pouvez répartir uniformément le poids de chaque question dans la section.
+ **Poids par question** : vous pouvez réduire ou augmenter le poids de certaines questions.

Lorsque vous modifiez le poids d'une section ou d'une question, les autres poids sont automatiquement ajustés afin que le total soit toujours de 100 %.

Par exemple, dans l’image suivante, la question 2.1 a été définie manuellement sur 50 %. Les poids affichés en italique ont été ajustés automatiquement. En outre, vous pouvez activer l’option **Exclure les questions facultatives de la notation**, qui attribue à toutes les questions facultatives une pondération de zéro et redistribue la pondération entre les questions restantes.

![\[Poids des scores pour une question.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-weightdistribution3.png)


## Étape 9 : activer un formulaire d’évaluation
<a name="step-activateform"></a>

Choisissez **Activer** pour mettre le formulaire à la disposition des évaluateurs. Les évaluateurs ne peuvent plus choisir la version précédente du formulaire dans la liste déroulante lorsqu’ils lancent de nouvelles évaluations. Pour toutes les évaluations effectuées à l’aide de versions précédentes, vous pourrez toujours consulter la version du formulaire sur laquelle l’évaluation a eu lieu.

Si vous travaillez toujours sur la configuration du formulaire d’évaluation et que vous souhaitez enregistrer votre travail à tout moment, vous pouvez choisir **Enregistrer**, **Enregistrer le brouillon**.

Si vous souhaitez vérifier si le formulaire a été correctement configuré sans toutefois l’activer, sélectionnez **Enregistrer**, **Sauvegarder et valider**.

# Mettre en place tag-based-access des contrôles sur les évaluations des performances
<a name="tag-based-access-control-performance-evaluations"></a>

Amazon Connect permet aux entreprises de restreindre l'accès à des formulaires d'évaluation des performances spécifiques, empêchant ainsi tout accès non autorisé aux modèles de formulaires d'évaluation et aux évaluations terminées. Les entreprises peuvent autoriser les responsables à modifier ou à utiliser uniquement les modèles de formulaires d'évaluation adaptés à leur secteur d'activité ou à leur fonction, ce qui améliore la sécurité et permet aux responsables de sélectionner plus facilement le bon formulaire lors de la réalisation des évaluations. En outre, les responsables et les agents peuvent être empêchés de consulter certaines évaluations terminées. Par exemple, vous pouvez empêcher les agents de consulter les évaluations de test remplies avec un modèle de formulaire qui n'a pas encore été finalisé.

Vous pouvez commencer par étiqueter les formulaires d'évaluation, par exemple « Service : Nouveau client ». Lorsque vous balisez un formulaire d'évaluation, toutes les évaluations suivantes remplies avec le formulaire d'évaluation portent également la même étiquette. Vous pouvez ensuite activer les contrôles d'accès basés sur des balises aux formulaires d'évaluation et aux évaluations dans les profils de sécurité des utilisateurs pour lesquels vous souhaitez restreindre l'accès à des formulaires d'évaluation et à des évaluations spécifiques. Une fois le tag-based-access contrôle des formulaires d'évaluation activé, les utilisateurs ne pourront modifier que des formulaires d'évaluation spécifiques sur la page **Formulaires d'évaluation**. Sur Contact Search, les utilisateurs pourront uniquement rechercher les formulaires d'évaluation auxquels ils ont accès et utiliser les formulaires d'évaluation pour démarrer des évaluations. De même, dans **les tableaux** de bord Amazon Connect, les utilisateurs ne pourront consulter les scores agrégés que pour les formulaires d'évaluation auxquels ils ont accès. Le contrôle d'accès aux évaluations basé sur des balises empêche les utilisateurs de consulter uniquement des évaluations spécifiques sur la page des **coordonnées**. Par exemple, si une évaluation spécifique ne doit être visible que par certaines personnes, comme dans le cas d'une enquête sur une fraude, vous pouvez empêcher les agents de consulter ces évaluations sur la page Informations de contact.

**Remarques importantes**  
Une fois que vous aurez activé le contrôle d'accès basé sur des balises pour les évaluations, les utilisateurs perdront l'accès à toutes les évaluations avant d'avoir tagué le formulaire d'évaluation. Si vous utilisez déjà des évaluations de performance, nous vous recommandons de baliser d'abord les formulaires d'évaluation et de cumuler les évaluations sur plusieurs mois, avant d'activer l'accès aux évaluations basé sur des balises.
Il est recommandé d'utiliser un seul tag sur un formulaire d'évaluation (par exemple « Service : Nouveau client ») lors de la configuration de l'accès basé sur un tag. Bien qu'il soit possible d'attribuer et d'autoriser l'accès à plusieurs balises, cela crée de la complexité. Cette question est abordée plus en détail ci-dessous.

## Marquage des formulaires d'évaluation
<a name="tagging-evaluation-forms"></a>

Vous pouvez étiqueter les formulaires d'évaluation lors de la création d'un nouveau formulaire d'évaluation ou en mettant à jour un formulaire d'évaluation existant. Les balises que vous pouvez ajouter à un formulaire d'évaluation dépendent du tag-based-access contrôle accordé sur votre ou vos profils de sécurité :
+ Si aucun contrôle d'accès basé sur des balises n'est configuré dans votre profil de sécurité pour les formulaires d'évaluation, vous pouvez créer ou mettre à jour un formulaire avec n'importe quelle balise.
+ Si vous avez un profil de sécurité dont le tag-based-access contrôle est activé sur un formulaire d'évaluation, les balises de formulaire d'évaluation de votre profil de sécurité seront automatiquement ajoutées lors de la création des formulaires d'évaluation via l'interface utilisateur Amazon Connect. Dans ce scénario, vous ne pourrez pas mettre à jour les balises des formulaires d'évaluation.
+ Si vous avez plusieurs profils de sécurité, vous devez ajouter toutes les balises de l'un de vos profils de sécurité au formulaire d'évaluation lors de la création ou de la mise à jour d'un formulaire d'évaluation. Par exemple, si l'un de vos profils de sécurité vous donne accès à « Service : Ventes » et qu'un autre vous donne accès à « Service : rétention », vous devez ajouter la balise « Département : Ventes » ou « Département : rétention » sur le formulaire d'évaluation. Lors de la création d'un formulaire d'évaluation, les balises de l'un de vos profils de sécurité seront automatiquement ajoutées.

Vous trouverez ci-dessous les étapes à suivre pour ajouter des balises à un formulaire d'évaluation.

**Lors de la création d'un formulaire d'évaluation**
+ Vous serez invité à ajouter des balises à un formulaire d'évaluation lorsque vous le créerez (voir[Création d'un formulaire d'évaluation](create-evaluation-forms.md)).  
![\[La page des formulaires d'évaluation, la section du titre du formulaire définie avec un champ de balises.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-title.png)

**Lors de la modification d'un formulaire d'évaluation**

1. Ouvrez le formulaire d'évaluation avec un profil de sécurité doté de l'autorisation **Formulaires d'évaluation - Gérer les définitions de formulaires** - **Modifier**.

1. Cliquez sur l'icône d'édition à côté des tags.  
![\[L'icône de modification des balises dans le formulaire d'évaluation.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-tags-edit-form-tags.png)

1. Mettez à jour les balises.  
![\[La boîte de dialogue de mise à jour des balises.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-tags-update-form-tags.png)

**Note**  
Les modifications de balises sont appliquées immédiatement à toutes les versions du formulaire. La mise à jour des balises ne vous oblige pas à enregistrer ou à activer le formulaire.

## Héritage des balises des formulaires d'évaluation aux évaluations
<a name="tag-inheritance-evaluation-forms"></a>

Lors de la création d'une évaluation à partir de l'interface utilisateur Amazon Connect, les balises du formulaire d'évaluation sont copiées dans l'évaluation lors de sa création. Par exemple, si le formulaire d'évaluation est étiqueté « Département : Ventes », l'évaluation créée avec cette évaluation portera également le même tag. Si le formulaire d'évaluation contient plusieurs étiquettes (département : ventes, produit : lave-vaisselle), celles-ci seront également reportées à l'évaluation à condition que vous ayez accès à la création d'une évaluation avec ces balises (voir plus en détail dans la section suivante).

**Note**  
Les balises ne sont copiées que dans les nouvelles évaluations. Si vous avez des évaluations existantes, l'ajout ou la mise à jour de balises sur les formulaires d'évaluation ne modifiera pas les évaluations effectuées par le passé.

## Configurer un accès basé sur des balises aux formulaires d'évaluation et aux évaluations
<a name="setup-tag-based-access-control"></a>

1. Connectez-vous à **Amazon Connect** avec un profil utilisateur qui a accès aux autorisations **Profils de sécurité - Afficher** et **modifier**.

1. Accédez à la page **Utilisateurs > Profils** de sécurité dans les profils de sécurité et sélectionnez le profil de sécurité que vous souhaitez modifier.

1. Cliquez sur **Afficher les options avancées**.

1. Sélectionnez **Autoriser : contrôle d'accès basé sur des balises**.

1. Dans la section Ressources, sélectionnez **Formulaires d'évaluation** et **Contacter les évaluations**.

1. Entrez le tag auquel vous souhaitez restreindre le profil de sécurité des utilisateurs.  
![\[L'écran de configuration du contrôle d'accès basé sur des balises.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-tags-tbac-setup.png)

Si vous avez des évaluations existantes, l'activation de l'accès basé sur des balises aux évaluations des contacts aura pour conséquence que les personnes qui ont déjà accès aux évaluations perdront l'accès aux évaluations historiques. Pour conserver l'accès aux évaluations historiques, vous pouvez :
+ Commencez par baliser les formulaires. Cela se traduirait par le même tag pour toutes les évaluations effectuées par la suite. Une fois que vous avez cumulé plusieurs mois d'évaluations, vous pouvez l'activer tag-based-access.
+ Votre administrateur technique peut utiliser l'[TagResource](https://docs.aws.amazon.com/connect/latest/APIReference/API_TagResource.html)API pour étiqueter les évaluations historiques.
+ Activez l'accès basé sur des balises sur les **formulaires d'évaluation**, mais ne **contactez pas les évaluations**. Cela peut être souhaitable dans les situations où la sécurité limite déjà l'accès aux contacts auxquels les contacts sont accessibles. Par exemple, les superviseurs peuvent déjà être limités à l'accès aux contacts au sein de leur propre hiérarchie, et vous souhaiterez peut-être accorder à vos superviseurs l'accès à toutes les évaluations de ces contacts.

Si vous avez activé le contrôle d'accès basé sur des balises dans les **évaluations des contacts**, il est recommandé de faire preuve de cohérence avec tag-based-access les **formulaires d'évaluation**. Il est également recommandé que les profils de sécurité des utilisateurs aient accès à toutes les balises du ou des formulaires qu'ils doivent utiliser. Par exemple, si un utilisateur doit utiliser un formulaire comportant les balises « Service : Nouveau client », « Produit : Assurance automobile », le contrôle d'accès de son profil de sécurité doit être activé pour ces deux balises, à la fois dans les **formulaires d'évaluation** et dans les **évaluations des contacts**. S'ils ne possèdent qu'une seule des balises, la création manuelle d'une évaluation dans l'interface utilisateur échouera.

## Restreindre l'accès aux formulaires d'évaluation automatisés en cours de test
<a name="tag-based-access-automated-evaluation-forms-testing"></a>

Tag-based-access-control peut être utilisé pour exécuter des tests d'évaluation automatisés en production, sans révéler les résultats de l'évaluation aux agents et aux superviseurs. Cela est utile si vous utilisez déjà des formulaires d'évaluation en production. Voici un exemple de configuration :
+ Sur la page **Formulaires d'évaluation**, marquez les formulaires d'évaluation qui sont en ligne et devraient être visibles pour les agents et les superviseurs comme « En direct : Oui »
+ Dans **Utilisateurs > Profils de sécurité**, vous pouvez activer le contrôle d'accès basé sur des balises pour les **formulaires d'évaluation** et les **évaluations**, en limitant l'accès des agents et des superviseurs aux formulaires portant le tag « Live:Yes »
**Note**  
Avant d'activer tag-based-access-control, vous souhaiterez peut-être accumuler suffisamment d'historique, par exemple 2 mois d'évaluations, car cela entraînerait une perte des évaluations historiques
+ Les formulaires d'évaluation automatisés qui sont encore en cours de test peuvent être étiquetés « Live:No », ce qui les empêche d'être visibles par les agents et les superviseurs
+ Les responsables de la qualité chargés de créer les formulaires d'évaluation peuvent accéder aux formulaires d'évaluation sans restrictions basées sur des balises. Vous pouvez également attribuer deux profils de sécurité aux responsables qualité :
  + Le premier leur donnerait accès aux **formulaires d'évaluation** et aux **évaluations** portant le tag « Live : No »
  + La seconde leur donnerait accès aux **formulaires d'évaluation** et aux **évaluations** portant le tag « Live : Yes »
+ Une fois que vous êtes prêt à lancer les évaluations automatisées, vous pouvez dupliquer le formulaire et changer le tag en « Live : Yes ». Le formulaire original, lorsqu'il était en cours de test, devrait continuer à porter le tag « Live : No ». Cela garantit que les superviseurs et les agents ne peuvent pas voir l'historique des scores d'évaluation agrégés dans **les tableaux** de bord lorsque le formulaire était en cours de test.

## Contrôle d'accès basé sur des balises lors de la mise en place de règles pour soumettre des évaluations automatisées
<a name="tag-based-access-automated-evaluations"></a>

Vous ne pouvez créer une règle pour soumettre des évaluations automatisées qu'à l'aide d'un formulaire auquel vous avez accès. Supposons, par exemple, qu'il existe un formulaire d'évaluation automatique **Auto Insurance Sales Scorecard** avec les balises « Service : Nouveau client », « Produit : Assurance automobile », et que votre profil de sécurité vous donne accès au tag « Département : Nouveau client » pour les formulaires d'évaluation. Vous pourrez ensuite configurer une règle pour soumettre automatiquement les évaluations à l'aide du formulaire **Auto Insurance Sales Scorecard**.

## Contrôle d'accès basé sur des balises lors de la configuration des sessions d'étalonnage
<a name="tag-based-access-calibration-sessions"></a>

En tant qu'administrateur d'une session d'étalonnage, vous ne pouvez créer une session d'étalonnage qu'avec des formulaires d'évaluation auxquels vous avez accès.

# Affichage de la piste d’audit d’un formulaire d’évaluation dans Amazon Connect
<a name="evaluationform-audit-trail"></a>

1. Sélectionnez le formulaire d'évaluation que vous souhaitez rechercher.  
![\[La page des formulaires d'évaluation, une case à gauche d'un formulaire d'évaluation.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-select.png)

1. Au bas de la page, sous **Exemple d'évaluation**, utilisez le menu déroulant pour afficher les versions précédentes, qui y a accédé et quand. L'image suivante montre un exemple de piste d'audit :   
![\[Exemple de piste d'audit pour une évaluation.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-version.png)

1. Choisissez éventuellement l'un des formulaires pour l'ouvrir.

## Que signifient Actif, Brouillon et Verrouillé ?
<a name="evaluationform-active-draft-locked"></a>

Un formulaire est toujours dans l'un des états suivants :
+ **Actif**. Version publiée du formulaire mise à la disposition des évaluateurs.
+ **Brouillon**. Version inactive et verrouillée du formulaire. Un brouillon est déverrouillé uniquement lorsque vous l'utilisez.
+ **Verrouillé**. Un formulaire d'évaluation est verrouillé lorsque vous l'activez ou le publiez. Même après avoir désactivé le formulaire, il reste verrouillé et devient une version historique du formulaire. Cependant, vous pouvez activer la version historique pour l'enregistrer en tant que nouvelle version. 

# Évaluation des performances des agents dans Amazon Connect à l’aide de l’IA générative
<a name="generative-ai-performance-evaluations"></a>

**Note**  
**Propulsé par Amazon Bedrock** : AWS met en œuvre des détections d'abus automatisées. Comme les fonctionnalités d’IA générative dans Contact Lens reposent sur Amazon Bedrock, les utilisateurs peuvent pleinement tirer parti des commandes implémentées dans Amazon Bedrock pour renforcer la sûreté, la sécurité et l’utilisation responsable de l’intelligence artificielle (IA).

 Les responsables peuvent définir leurs critères d’évaluation en langage naturel et utiliser l’IA générative pour automatiser les évaluations portant sur jusqu’à 100 % des interactions avec les clients. L’IA générative vous permet d’automatiser l’évaluation d’autres comportements des agents (par exemple, l’agent a-t-il réussi à résoudre le problème du client ?). Les responsables peuvent ainsi surveiller et améliorer de manière exhaustive la conformité réglementaire, le respect des normes de qualité par les agents et la collecte des données sensibles, tout en réduisant le temps consacré à l’évaluation des performances des agents. Outre les réponses, vous recevez également des informations contextuelles et une justification, ainsi que des références à des points spécifiques de la transcription que vous pouvez utiliser pour former les agents.

Vous pouvez recourir à l’IA générative pour aider les responsables à remplir les évaluations ou pour remplir et envoyer automatiquement les évaluations. Pour plus d’informations sur la configuration des évaluations automatiques, consultez [Étape 6 : activer les évaluations automatiques](create-evaluation-forms.md#step-automate).

L’IA générative permet de répondre aux questions d’évaluation en interprétant le titre de la question et les critères d’évaluation spécifiés dans les instructions aux évaluateurs associées à chaque question, puis en les utilisant pour analyser la transcription de la conversation. Pour plus d’informations, consultez [Étape 2 : ajouter des sections et des questions](create-evaluation-forms.md#step-sections).

## Processus d’automatisation des évaluations à l’aide de l’IA générative
<a name="cl-genai-overall-process"></a>

Voici une vue d’ensemble du processus d’automatisation :

1. Pour vous faire une idée générale des questions d’évaluation auxquelles l’IA générative permet de répondre, lisez [Directives pour améliorer la précision de l’IA générative](#guidelines-to-improve-generative-ai-accuracy).

1. Attribuez des autorisations à certains utilisateurs de votre équipe de gestion de la qualité pour qu’ils puissent utiliser la fonctionnalité Demander à l’assistant IA. Ces utilisateurs commenceront à voir le bouton Demandez à l’IA à côté de chaque question lorsqu’ils effectueront des évaluations, et pourront l’utiliser pour obtenir des recommandations de réponses. Ces utilisateurs pourront aussi fournir leur avis sur les questions qui reçoivent des réponses précises à l’aide de l’IA générative. Pour de plus amples informations, veuillez consulter [Attribuez des autorisations de profil de sécurité pour les évaluations des performances et le coaching](evaluation-and-coaching-permissions.md).

1. Pour améliorer la précision, vous pouvez fournir des critères d’évaluation supplémentaires dans les [instructions pour les évaluateurs](create-evaluation-forms.md#step-sections). Pour plus d’informations, consultez [Directives pour améliorer la précision de l’IA générative](#guidelines-to-improve-generative-ai-accuracy).

1. Une fois que vous aurez bien compris les types de questions auxquelles l’IA générative permet de répondre avec précision, vous pourrez procéder à un déploiement plus large en préconfigurant le formulaire d’évaluation afin de définir si une question recevra une réponse automatique à l’aide de l’IA générative.

1. Une fois que vous aurez configuré l’automatisation, tout utilisateur effectuant des évaluations à l’aide du formulaire d’évaluation recevra des réponses automatisées aux questions préconfigurées à l’aide de l’IA générative (sans avoir besoin d’autorisations supplémentaires). Pour plus d’informations, consultez [Étape 6 : activer les évaluations automatiques](create-evaluation-forms.md#step-automate).

1. Vous pouvez configurer l’automatisation de telle sorte qu’un évaluateur passe d’abord en revue les réponses alimentées par l’IA générative avant de soumettre l’évaluation ou vous pouvez remplir et soumettre automatiquement les évaluations. 

## Utilisation du bouton Demandez à l’IA pour obtenir des recommandations de réponses basées sur l’IA générative
<a name="get-generative-ai-powered-recommendations"></a>

1.  Connectez-vous à Amazon Connect avec un compte utilisateur disposant des [autorisations requises pour effectuer des évaluations](evaluation-and-coaching-permissions.md) et de l’autorisation [Demander à l’assistant IA](evaluation-and-coaching-permissions.md). 

1.  Cliquez sur le bouton **Demandez à l’IA** situé sous une question pour recevoir une recommandation de réponse alimentée par l’IA générative, ainsi que des informations contextuelles et une justification (points de référence utilisés pour fournir des réponses à partir de la transcription). 

   1.  La réponse est automatiquement sélectionnée en fonction de la recommandation de l’IA générative, mais elle peut être modifiée par l’utilisateur.  

   1.  Pour obtenir des recommandations alimentées par l’IA générative, choisissez **Demandez à l’IA** pour un maximum de 10 questions par contact. Pour plus d’informations, consultez [Quotas de service Contact Lens](amazon-connect-service-limits.md#contactlens-quotas).

1.  Vous pouvez choisir l’heure associée à une référence de transcription afin d’être redirigé vers ce point de la conversation.   
![\[Recommandations alimentées par l’IA générative lors de l’évaluation des performances des agents.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/get-generative-ai-powered-recommendations-performance.png)

## Ajout de critères supplémentaires pour répondre aux questions du formulaire d’évaluation à l’aide de l’IA générative
<a name="provide-criteria-for-answering-evaluation-form-questions"></a>

 Lorsque vous configurez un formulaire d’évaluation, vous pouvez fournir des critères pour répondre aux questions dans les **instructions pour les évaluateurs**, qui sont associées à chaque question du formulaire. En plus de contribuer à la cohérence des évaluations effectuées par les évaluateurs, ces instructions servent également à fournir des évaluations alimentées par l’IA générative. 

![\[Fiche d’évaluation de l’ouverture d’un compte.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/provide-criteria-for-answering-evaluation-form-questions.png)


## Configuration des évaluations automatisées à l’aide de l’IA générative dans le formulaire d’évaluation
<a name="set-up-automated-evals-on-eval-form-with-generative-ai"></a>

Vous pouvez préconfigurer un formulaire d’évaluation afin de définir si une question recevra automatiquement une réponse à l’aide de l’IA générative. De la sorte, si vous lancez une évaluation à l’aide de ce formulaire d’évaluation dans l’interface utilisateur d’Amazon Connect, les réponses à ces questions seront automatiquement remplies à l’aide de l’IA générative (sans que vous ayez à cliquer sur Demandez à l’IA). Vous pouvez également utiliser l’IA générative pour remplir et soumettre automatiquement les évaluations. Pour les évaluations soumises automatiquement, vous pouvez utiliser l’IA générative afin qu’elle réponde à jusqu’à 10 questions par contact (voir [Quotas de service Contact Lens](amazon-connect-service-limits.md#contactlens-quotas)). Notez que cette limite ne s'applique pas à l'automatisation utilisant des catégories de contacts ou des métriques (par exemple, la durée de rétention la plus longue, etc.).

Pour en savoir plus sur la configuration d’évaluations automatisées à l’aide de l’IA générative, consultez [Directives pour améliorer la précision de l’IA générative](#guidelines-to-improve-generative-ai-accuracy).

## Configurez des évaluations génératives basées sur l'IA dans des langues autres que l'anglais
<a name="set-up-generative-ai-evals-in-non-english-language"></a>

Par défaut, si vous ne définissez pas la langue d'un formulaire d'évaluation, le modèle d'IA générative détecte automatiquement la langue des questions du formulaire d'évaluation et essaie de fournir des réponses dans la même langue, si le modèle d'IA comprend cette langue. Par défaut, les justifications des réponses basées sur l'IA générative sont généralement fournies en anglais.

**Pour recevoir régulièrement les réponses générées par l'IA et les justifications de réponses dans la langue de votre choix, vous pouvez définir la langue d'un formulaire d'évaluation, en choisissant l'**anglais**, l'**espagnol**, le **portugais**, le **français**, l'**allemand** et l'italien.** En définissant explicitement la langue d'une évaluation, vous pouvez également effectuer des évaluations multilingues, où l'IA générative remplit un formulaire d'évaluation en anglais, même lorsque la transcription de la conversation est dans une autre langue, par exemple l'espagnol. Cela permet aux centres de contact multilingues d'utiliser un cadre d'évaluation standardisé dans toutes les langues.

Pour définir la langue du formulaire d'évaluation :

1. Sélectionnez l'onglet **Paramètres supplémentaires** lors de la création ou de la mise à jour d'un formulaire d'évaluation.

1. Choisissez la **langue du formulaire** dans le menu déroulant.

1. Assurez-vous que les questions, les instructions et les choix de réponses de votre formulaire sont rédigés dans la même langue que la **langue du formulaire** sélectionnée, pour des performances d'IA optimales.

![\[La page du formulaire d'évaluation, l'onglet Paramètres supplémentaires.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-languageexample1.png)


## Directives pour améliorer la précision de l’IA générative
<a name="guidelines-to-improve-generative-ai-accuracy"></a>

**Sélection des questions permettant d’obtenir des recommandations de l’IA générative**

1. Utilisez l’IA générative pour traiter les questions auxquelles il est possible de répondre à l’aide des informations issues de la transcription de la conversation, sans avoir à valider les informations par le biais d’applications tierces telles que des systèmes CRM.

1. L’utilisation de l’IA générative pour traiter des questions nécessitant des réponses numériques, telles que « Combien de temps l’agent a-t-il interagi avec le client ? », est déconseillée. Envisagez plutôt de [configurer l’automatisation](create-evaluation-forms.md#step-automate) de ces questions du formulaire d’évaluation à l’aide des métriques Contact Lens ou des métriques de contact.

1. Évitez d’utiliser l’IA générative pour répondre à des questions très subjectives, par exemple : « L’agent était-il attentif pendant l’appel ? ». 

**Amélioration de la formulation des questions et des instructions associées**

1. L’utilisation de phrases complètes pour formuler les questions (par exemple, en remplaçant *Validation de l’identité* par « L’agent a-t-il essayé de valider l’identité du client ? ») permet à l’IA générative de mieux comprendre la question.

1.  Il est recommandé de fournir des critères détaillés pour répondre à la question dans les **instructions pour les évaluateurs**, en particulier s’il n’est pas possible de répondre à la question en se basant uniquement sur le texte de la question. Par exemple, pour la question « L’agent a-t-il essayé de valider l’identité du client ? », il est conseillé de fournir des instructions supplémentaires telles que : *L’agent doit toujours demander à un client son numéro de membre et son code postal avant de répondre aux questions*.

1.  Si la réponse à une question nécessite la connaissance de certains termes spécifiques à l’entreprise, spécifiez-les dans les instructions. Par exemple, si l’agent doit spécifier le nom du département dans le message d’accueil, indiquez le nom de département que l’agent doit indiquer dans les **instructions pour les évaluateurs**, qui sont associées à la question.

1.  Si possible, utilisez le terme « agent » au lieu de termes tels que « collègue », « employé », « représentant », « avocat » ou « associé ». De même, utilisez le terme « client » au lieu de termes tels que « membre », « appelant », « invité » ou « abonné ».

1. N’utilisez des guillemets dans les instructions que si vous souhaitez vérifier que l’agent ou le client a prononcé ces mots tels quels. Par exemple, si l’instruction est de vérifier si l’agent dit `"Have a nice day"`, l’IA générative ne détectera pas *Have a nice afternoon*. Au lieu de cela, l’instruction devrait dire : `The agent wished the customer a nice day`. 

# Évaluations des performances des interactions en libre-service dans Amazon Connect
<a name="performance-evaluations-automated-interactions"></a>

Amazon Connect vous permet d'évaluer automatiquement la qualité des interactions en libre-service et d'obtenir des informations agrégées pour améliorer l'expérience client. Les responsables peuvent définir des critères personnalisés pour évaluer la qualité des interactions en libre-service, qui peuvent être remplis manuellement ou automatiquement à l'aide des informations issues des analyses conversationnelles et d'autres données Amazon Connect. Par exemple, vous pouvez évaluer automatiquement si l'agent d'intelligence artificielle ne parvient pas à comprendre le client à plusieurs reprises, ce qui se traduit par une baisse du sentiment du client et le transfert vers un agent humain. Les responsables peuvent examiner ces informations sous forme agrégée et sur des contacts individuels, ainsi que des enregistrements et des transcriptions d'interactions en libre-service, afin d'identifier les opportunités d'amélioration des performances des robots ou des agents intelligents.

**Note**  
Les évaluations des performances des interactions en libre-service ne sont disponibles que dans le cadre d'Amazon Connect (avec IA illimitée). Pour plus d’informations, consultez [Tarification d’Amazon Connect](https://aws.amazon.com/connect/pricing/).

Pour évaluer automatiquement les interactions en libre-service, vous devez d'abord[Activation de l’analytique conversationnelle dans Amazon Connect Contact Lens](enable-analytics.md). Les évaluations des performances peuvent évaluer l'ensemble de l'interaction en libre-service, qu'elle soit gérée par Touch Tone, par des robots Lex, par des agents Amazon Connect AI ou par des robots personnalisés au sein d'Amazon Connect. Les étapes pour configurer des évaluations automatisées des interactions en libre-service sont les suivantes :
+ [Étape 1 : Création d'un projet de formulaire d'évaluation](#step-create-draft-form-self-service)
+ [Étape 2 : configurer l'automatisation](#step-setup-automation-self-service)
+ [Étape 3 : configurer une règle pour soumettre automatiquement des évaluations des interactions en libre-service](#step-setup-rule-self-service)

## Étape 1 : Création d'un projet de formulaire d'évaluation
<a name="step-create-draft-form-self-service"></a>

Vous pouvez définir des critères personnalisés pour évaluer les interactions en libre-service. Ces critères peuvent mesurer la résolution en libre-service, l'expérience client ou le comportement des bot/AI agents.

Voici un exemple de formulaire d'évaluation :

Section 1 : Succès du self-service  
+ **1.1** Le contact a-t-il été traité en libre-service, sans être transféré à un agent humain ? (Sélection unique)
+ **1.2** Le client a-t-il pu répondre en libre-service à au moins un de ses besoins ? (Sélection unique)

Section 2 : Expérience client  
+ **2.1** Quel a été le score global du sentiment des clients lors du self-service ? (Numéro)
+ **2.2** Le client a-t-il exprimé sa frustration lors du self-service ? (Sélection unique)

Section 3 : Comportements des agents IA  
+ **3.1** L'agent d'intelligence artificielle n'a-t-il pas compris le client et lui a-t-il demandé de répéter ? (Sélection unique)
+ **3.2** L'agent AI a-t-il été grossier ou agressif envers le client à un moment ou à un autre ? (Sélection unique)

Pour plus de détails, consultez [Création d’un formulaire d’évaluation dans Amazon Connect](create-evaluation-forms.md).

## Étape 2 : configurer l'automatisation
<a name="step-setup-automation-self-service"></a>

Vous pouvez automatiser les évaluations des interactions en libre-service à l'aide des règles Amazon Connect (y compris des règles de correspondance sémantiques génératives basées sur l'IA) et d'indicateurs intégrés tels que le sentiment des clients. Notez qu'à l'heure actuelle, vous ne pouvez pas utiliser l'IA générative intégrée dans le formulaire d'évaluation pour évaluer automatiquement les interactions en libre-service.

### Automatisation à l'aide de règles
<a name="automation-using-rules"></a>

Commencez par définir une règle :

1. Dans le menu de navigation, choisissez **Analytique et optimisation**, **Règles**.

1. Sélectionnez **Créer une règle**, **Analytique conversationnelle**.

1. Sous **Quand**, utilisez la liste déroulante pour choisir une analyse **post-appel ou une analyse** **post-chat**.

Exemples de règles que vous pouvez créer :

Confinement en libre-service  
+ Ajoutez une nouvelle condition pour vérifier que la file d'attente n'a pas été assignée et que le contact a été traité lors de l'interaction automatisée.
+ Vous pouvez également utiliser l'intention en langage naturel pour confirmer que le client n'a pas demandé l'intervention d'un agent humain lors de l'interaction automatisée avec le robot Lex ou l'agent d'intelligence artificielle.
Amazon Connect comprend les mots clés suivants dans le cadre des règles de correspondance sémantique :  
+ **Système :** indique un bot ou un agent d'intelligence artificielle
+ **Agent :** fait référence à l'agent humain
+ **Client :** la personne qui interagit avec le centre de contact
+ **Interaction automatisée :** partie de l'interaction avec le client où aucun agent humain n'était présent dans la conversation, y compris l'interaction en libre-service avec un bot ou un agent intelligent, et le temps d'attente dans la file d'attente
+ Interaction avec **l'agent humain :** interaction du client avec l'agent humain

![\[alt text not found\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/self-service-eval-containment-rule.png)

+ Si vous utilisez un agent Amazon Connect AI, vous pouvez également vérifier si l'agent AI pour le libre-service est devenu un humain ou non.

![\[alt text not found\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/self-service-eval-ai-agent-escalation-check.png)


Succès du self-service pour au moins une intention  
Créez une règle en **langage naturel - condition de correspondance sémantique** :  
« Au cours de l'interaction automatisée, le système a répondu avec succès à au moins une des demandes du client, telle que la fourniture d'informations ou le traitement d'une autre demande de service. »

L'agent bot/IA ne parvient pas à comprendre le client  
Créez une règle en **langage naturel - condition de correspondance sémantique** :  
« Le système n'a pas réussi à comprendre le client et lui a demandé de répéter. »

Le client a exprimé sa frustration  
Créez une règle en **langage naturel - condition de correspondance sémantique** :  
« Le client a exprimé sa frustration lors de l'interaction automatisée. »

Après avoir défini une règle, vous pouvez l'utiliser pour répondre à des questions à sélection unique ou à sélection multiple dans votre formulaire d'évaluation. Par exemple, si vous avez créé une règle pour vérifier le confinement en libre-service, vous pouvez l'utiliser pour répondre à la question de savoir si le contact a été traité en libre-service.

![\[alt text not found\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/self-service-eval-use-rules-in-form.png)


### Automatisation à l'aide de métriques
<a name="automation-using-metrics"></a>

Vous pouvez utiliser les statistiques de contact pour répondre automatiquement aux questions relatives à l'expérience en libre-service. Par exemple, vous pouvez vérifier le sentiment des clients lors de l'interaction automatisée. Pour utiliser les métriques, assurez-vous que le type de question est choisi comme numéro.

![\[alt text not found\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/self-service-eval-metrics-automation.png)


Après avoir configuré l'automatisation pour chaque question, vous pouvez **activer l'envoi automatique des évaluations** et activer le formulaire. Vous serez ensuite guidé pour créer une règle pour soumettre automatiquement le formulaire d'évaluation.

Pour plus de détails, consultez [Étape 6 : activer les évaluations automatiques](create-evaluation-forms.md#step-automate).

## Étape 3 : configurer une règle pour soumettre automatiquement des évaluations des interactions en libre-service
<a name="step-setup-rule-self-service"></a>

Vous pouvez utiliser les conditions suivantes pour identifier des interactions spécifiques en libre-service.

Agent d'IA  
Pour déclencher une évaluation des interactions en libre-service, vous pouvez déterminer si des agents IA spécifiques étaient actifs sur le contact. Vous pouvez également rechercher une version spécifique de l'agent d'intelligence artificielle.  

![\[alt text not found\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/self-service-eval-ai-agent-identification.png)


Attributs de contact personnalisés et attributs de segment de contact  
Vous pouvez également utiliser des attributs de **contact personnalisés et des attributs** de **segment de contact** définis dans les flux pour identifier des flux de travail, des robots, des intentions ou des résultats spécifiques des clients. Par exemple, vous pouvez définir un attribut de contact dans les flux, `pizzaOrderBot = true` si un bot Lex appelé « Pizza Order Bot » est invoqué pendant la conversation.  

![\[alt text not found\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/self-service-eval-custom-contact-attributes.png)


Après avoir défini les conditions :

1. Sur la page **Définir des actions**, indiquez un nom de catégorie pour identifier la règle.

1. Choisissez **Ajouter une action**, sélectionnez **Soumettre une évaluation automatique** et sélectionnez le formulaire que vous souhaitez utiliser pour soumettre automatiquement une évaluation. (Cette action est déjà sélectionnée sur la page si vous avez créé la règle lorsque vous activez le formulaire.)

Pour de plus amples informations, veuillez consulter [Création d’une règle dans Contact Lens qui soumet une évaluation automatique](contact-lens-rules-submit-automated-evaluation.md).

# Utilisation des notations et des poids sur les formulaires d’évaluation des agents dans Amazon Connect
<a name="about-scoring-and-weights"></a>

Les *poids* vous permettent d'augmenter ou de diminuer l'impact de l'impact d'une question ou d'une section sur le score global de l'évaluation. 

Lorsque la notation est activée pour le formulaire d'évaluation, vous pouvez attribuer des *poids* aux sections ou aux questions. Le poids augmente ou diminue l'impact d'une section ou d'une question sur le score final de l'évaluation.

## Exemple de score
<a name="example-score"></a>

Supposons que vous attribuez le score à une question d'une importance capitale pour votre entreprise. Si la réponse est oui, l'agent obtient 10 points. Pour Non, il obtient 0 point. Ce cas est illustré dans l'image suivante.

![\[La page du formulaire d'évaluation, l'onglet de notation.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-scoringexample1.png)


La réponse à la première question est plus importante pour votre entreprise que la réponse à la question *L'agent a-t-il terminé en disant « Y a-t-il autre chose que je puisse faire pour vous aider aujourd'hui ? »*, qui vaut également 0 à 10 points, comme illustré dans l'image suivante. 

![\[La page du formulaire d'évaluation, l'onglet de notation.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-scoringexample2.png)


Pour différencier les scores des questions, vous indiquez que le poids d'une question est supérieur à celui de l'autre. 

L'image suivante montre que la réponse à la question *L'agent a-t-il récité le script de conformité au médicament* correspond à 50 % du score de l'agent. Alors que la réponse à la question *L'agent a-t-il terminé en disant « Y a-t-il autre chose que je puisse faire pour vous aider aujourd'hui ? »* ne pèse que 5 % du score.

![\[La page du formulaire d'évaluation, l'onglet de notation, la section des poids des scores.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-scoringexample3.png)


Le poids total doit toujours être égal à 100 %.

## Mode de répartition du poids
<a name="weight-distribution-mode"></a>

Avec **Mode de répartition du poids**, vous pouvez choisir d'attribuer le poids par section ou par question : 
+ **Poids par section** : vous pouvez répartir uniformément le poids de chaque question dans la section.
+ **Poids par question** : vous pouvez réduire ou augmenter le poids de certaines questions.

Lorsque vous modifiez le poids d'une section ou d'une question, les autres poids sont automatiquement ajustés afin que le total soit toujours de 100 %.

Par exemple, dans l'image suivante, trois des questions ont été définies manuellement à 10 %. Les poids affichés en italique ont été ajustés automatiquement. 

![\[Poids des scores pour une question.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-weightdistribution3.png)


## Poids des questions facultatives
<a name="weight-optional-questions"></a>

Lorsqu’une question est facultative ou applicable uniquement dans certains scénarios, choisissez **Activer « Non applicable »** comme option de réponse à la question. L’image suivante montre ce paramètre dans l’onglet **Réponses**.

![\[Onglet Réponses, option Activer « Non applicable ».\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-weightsoptional.png)


Une fois l’évaluation terminée, Amazon Connect calcule le score d’évaluation :
+ Les questions pour lesquelles le réponse est **Non applicable** ne sont pas prises en compte dans le score final du formulaire. 
+ Leur poids est redistribué proportionnellement entre les questions restantes, de sorte que la somme totale des poids pour toutes les questions soit toujours de 100 %. 

Par exemple, prenons le tableau suivant. Il s’agit d’un formulaire comportant quatre questions (Q1, Q2, Q3 et Q4) avec les poids 40 %, 20 %, 20 % et 20 %, respectivement. Chaque question comporte trois options de réponse (R1, R2 et R3) avec les scores 10, 5 et 0. Une évaluation avec les réponses Q1:R1, Q2:R2, Q3:R2, Q4:R3 serait notée comme indiqué dans le tableau.


| Question | Poids de la question | Réponse | Score de la réponse | Score de réponse pondéré | 
| --- | --- | --- | --- | --- | 
|  Q1  |  40 %  | R1  | 10  | 40 %  | 
|  Q2  |  20 %  | A2  | 5  | 10 %  | 
|  Q3  |  20 %  | A2  | 5  | 10 %  | 
|  Q4  |  20 %  | R3  | 0  | 0 %  | 

Score d’évaluation du formulaire = 40 % \$1 10 % \$1 10 % \$1 0 % = 60 %.

Toutefois, si la réponse à la question Q4 est remplacée par **Non applicable**, l’évaluation est notée comme suit :


| Question | Poids de la question | Réponse | Poids supplémentaire de la question | Poids redistribué de la question | Score de la réponse | Score de réponse pondéré | 
| --- | --- | --- | --- | --- | --- | --- | 
|  Q1  |  40 %  | R1  | 10 % | 50% | 10  | 50%  | 
|  Q2  |  20 %  | A2  | 5 % | 25% | 5  | 12,5%  | 
|  Q3  |  20 %  | A2  | 5 % | 25% | 5  | 12,5%  | 
|  Q4  |  20 %  | Non applicable | - | - | -  | - | 

Voici ce qui se passe :
+ La question Q4 est effectivement supprimée du calcul. Son poids (20 %) est réparti entre les trois questions restantes proportionnellement à leur poids.
+ Le poids de la question Q1 est deux fois supérieur à celui des questions Q2 et Q3, de sorte qu’elle reçoit le double du poids ajouté. 
+ Score d’évaluation du formulaire = 50 % \$1 12,5 % \$1 12,5 % = 75 %.

# Informer les superviseurs et les agents des évaluations de performances
<a name="create-evaluation-rules"></a>

Vous pouvez créer des règles qui envoient automatiquement des e-mails ou des tâches aux superviseurs et aux agents en fonction des résultats de l’évaluation. 
+ Les notifications destinées aux superviseurs peuvent encourager un coaching en temps opportun sur la base des évaluations de performances. Par exemple, vous pouvez informer les superviseurs si un agent obtient un score d’évaluation inférieur à un certain seuil. 
+ Les notifications destinées aux agents peuvent être utilisées pour les inviter à vérifier leurs évaluations et à en accuser réception.

**Topics**
+ [Étape 1 : définir des conditions de règle pour les formulaires d’évaluation](#rule-conditions-eval)
+ [Étape 2 : définir des actions de règle](#rule-actions-eval)
+ [Exemple de règle comportant plusieurs conditions](#rule-example-eval)

## Étape 1 : définir des conditions de règle pour les formulaires d’évaluation
<a name="rule-conditions-eval"></a>

1. Dans le menu de navigation, choisissez **Analytique et optimisation**, **Règles**.

1. Sélectionnez **Créer une règle**, **Formulaires d'évaluation**.

1. Sous **Quand**, utilisez la liste déroulante pour choisir **Un résultat d’évaluation de Contact Lens est disponible**, comme illustré dans l’image suivante.  
![\[L'option Quand un résultat d'évaluation est disponible.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-rule-condition.png)

1. Choisissez **Ajouter une condition**.   
![\[Liste des conditions pour Quand un résultat d'évaluation est disponible.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-rule-condition-all.png)

   Vous pouvez combiner les critères d’un large éventail de conditions pour créer des règles Contact Lens très spécifiques. Voici certaines des conditions disponibles : 
   + **Évaluation - Formulaire de résultats** : créez des règles qui s'exécutent lorsque le score d'un formulaire d'évaluation spécifique est atteint. 
   + **Evaluation - Score de section** : créez des règles qui s'exécutent lorsque le score d'une section spécifique est atteint. 
   + **Evaluation - Réponse à la question** : créez des règles qui s'appliquent lorsque le score d'une question et d'une réponse spécifiques est atteint. 
   + **Évaluation - Résultats disponibles** : créez des règles qui s'appliquent à toutes les soumissions d'évaluation. 
   + **Hiérarchie des agents** : créez des règles qui s'exécutent sur une hiérarchie d'agents spécifique. Les hiérarchies d'agents peuvent représenter des emplacements géographiques, des départements, des produits ou des équipes.

     Pour voir la liste des hiérarchies d'agents afin de les ajouter aux règles, vous avez besoin de **Hiérarchie des agents - Afficher** les autorisations dans votre profil de sécurité.
   + **Agent** : créez des règles qui s’exécutent sur un sous-ensemble d’agents. Par exemple, recevez des notifications concernant les agents de votre équipe.

     Pour voir les noms des agents afin de les ajouter aux règles, vous avez besoin des autorisations **Utilisateurs - Afficher** dans le profil de sécurité. 
   + **Files d'attente** : créez des règles qui s'exécutent sur un sous-ensemble de files d'attente. Les organisations utilisent souvent des files d’attente pour indiquer un secteur d’activité, un sujet ou un domaine. Par exemple, vous pouvez créer des règles spécifiques pour les évaluations des agents affectés aux files d'attente des ventes.

     Pour voir les noms des agents afin de les ajouter aux règles, vous avez besoin des autorisations **Utilisateurs - Afficher** dans le profil de sécurité. 
   + **Attributs de contact** : créez des règles qui s'exécutent sur les valeurs des [attributs de contact](what-is-a-contact-attribute.md) personnalisés. Par exemple, vous pouvez créer des règles spécifiques pour les évaluations d'un agent pour un secteur d'activité en particulier ou pour des clients spécifiques, par exemple en fonction de leur niveau d'adhésion, de leur pays de résidence actuel ou s'ils ont une commande en cours. 
   + **Attributs du segment de contact** : vous pouvez identifier les contacts dans le cadre des règles en utilisant des attributs de segment de contact personnalisés avec des valeurs fournies par d'autres systèmes ou en utilisant une logique personnalisée. Vous pouvez [définir un attribut](predefined-attributes.md#predefined-attributes-create-web-admin) et définir sa valeur dans les flux. Les attributs de segment personnalisés ne sont présents que sur cet identifiant de contact spécifique, et non sur l'ensemble de la chaîne de contacts. Par exemple, vous pouvez créer une règle qui identifie le client qui a fermé son compte pendant la conversation.

     Pour voir la liste des attributs des segments de contact à ajouter à une règle, vous avez besoin de l'autorisation **Attributs prédéfinis - Afficher**.

1. Choisissez **Suivant**.

## Étape 2 : définir des actions de règle
<a name="rule-actions-eval"></a>

1. Choisissez **Add action**. Vous pouvez choisir les actions suivantes :
   + [Créer une tâche](contact-lens-rules-create-task.md)
   + [Envoyer une notification par e-mail](contact-lens-rules-email.md)
   + [Générer un EventBridge événement](contact-lens-rules-eventbridge-event.md)  
![\[Le menu déroulant Ajouter une action, une liste d’actions.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/contact-lens-add-action-no-wisdom.png)

1. Choisissez **Suivant**.

1. Passez en revue et apportez les modifications nécessaires, puis choisissez **Enregistrer**. 

1. Une fois que vous avez ajouté des règles, elles sont appliquées aux nouvelles soumissions d'évaluation effectuées après l'ajout de la règle. Vous ne pouvez pas appliquer de règles aux évaluations enregistrées dans le passé.

## Exemple de règle comportant plusieurs conditions
<a name="rule-example-eval"></a>

L'image suivante montre un règle comportant six conditions. Si l'une de ces conditions est remplie, l'action est déclenchée.

![\[Une règle comportant six conditions.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-multiple-conditions.png)


1. **Évaluation - Score de formulaire** : le formulaire de conformité a-t-il un score supérieur ou égal à 50 % ?

1. **Evaluation - Score de section** : dans un formulaire de conformité, la section Accueil a-t-elle un score supérieur ou égal à 70 % ?

1. **Évaluation - Score de la question** : la question du formulaire de conformité *L'agent a-t-il correctement accueilli le client* est-elle égale à **Oui** ?

1. **Évaluation - Résultats disponibles** : des résultats ont-ils été générés pour le formulaire de conformité ?

1. **Files d'attente** : est-ce pour le ? **BasicQueue**

1. **Attributs du contact** : est-ce que CustomerType c'est égal à VIP ?

# Offrez un coaching aux agents dans Amazon Connect
<a name="provide-coaching"></a>

Amazon Connect fournit des outils de coaching intégrés qui aident les superviseurs à fournir des commentaires structurés et basés sur des données aux agents sur la base d'évaluations de performance. Pour les prochaines one-on-one sessions avec des agents, les superviseurs peuvent partager des commentaires détaillés sur le coaching avec des exemples concrets, et définir des objectifs de performance directement dans Amazon Connect. Les équipes de gestion de la qualité peuvent également confier un coaching aux superviseurs avec des échéances lorsqu'ils identifient les opportunités d'amélioration, par exemple en faisant preuve d'une plus grande empathie à l'égard des problèmes des clients. Une fois le coaching terminé, les agents peuvent accuser réception des commentaires dans Amazon Connect, afin de s'assurer qu'ils comprennent les prochaines étapes d'amélioration. Les commentaires des anciens coachs sont accessibles de manière centralisée, ce qui permet aux agents, aux superviseurs et aux responsables qualité de suivre plus facilement les progrès des agents au fil du temps.

**Note**  
Cette fonctionnalité est disponible dans le cadre des évaluations des performances d'Amazon Connect.

## Attribuer des autorisations pour le coaching
<a name="coaching-permissions"></a>

Les autorisations peuvent être configurées comme suit :

1. **Administrateurs et responsables de la qualité** : offrez du **coaching : gérez les autorisations des sessions de coaching**. Ces autorisations leur donnent accès à toutes les sessions de coaching dans votre instance Amazon Connect. Avec cette autorisation, ils peuvent confier le coaching des agents aux superviseurs des agents.

1. **Superviseurs** : **accordez des autorisations de coaching — mes sessions** de coaching (Afficher, créer, supprimer, modifier). Ces autorisations leur permettent de créer et de gérer le coaching d'agents avec eux-mêmes en tant que coach.

1. **Agents** : Fournir un **coaching — mes sessions de coaching — Afficher** l'autorisation. Cette autorisation permet à l'agent de consulter et de confirmer le coaching auquel il participe.

Pour de plus amples informations, veuillez consulter [Attribuez des autorisations de profil de sécurité pour les évaluations des performances et le coaching](evaluation-and-coaching-permissions.md).

## Fournir du coaching aux agents
<a name="coaching-provide-to-agents"></a>

1. Connectez-vous à Amazon Connect avec un profil de sécurité qui permet de [rechercher des contacts](contact-search.md) et d'effectuer du coaching.

1. Sélectionnez **Analyse et optimisation** > **Recherche de contacts** dans la barre de navigation de gauche.

1. Dans **la recherche de contacts**, trouvez les contacts qui ont été évalués pour l'agent que vous souhaitez coacher. Par exemple, vous pouvez trouver des contacts dont le score d'évaluation est inférieur à 70 % :  
![\[La page de recherche de contacts avec un filtre de score d'évaluation appliqué.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/contact-search-evaluation-score-filter.png)

1. Ouvrez un contact qui a été évalué et consultez les évaluations dans le volet droit.

1. Ouvrez une évaluation et cliquez sur **Coach sur cette évaluation**.  
![\[Le coach sur ce bouton d'évaluation lors d'une évaluation.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/coaching-coach-on-this-evaluation-button.png)

1. Vous pouvez ajouter l'évaluation complète, une and/or question de section spécifique à une session de coaching :  
![\[Ajouter des éléments d'évaluation à une séance de coaching.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/coaching-add-evaluation-items.png)

1. Vous pouvez lier l'évaluation et ses sections and/or questions à une session de coaching existante ou créer une nouvelle session. Les objets peuvent être associés à des points forts ou à des opportunités de croissance.  
![\[La boîte de dialogue permettant d'ajouter une question à une session de coaching.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/coaching-add-question-to-coaching-dialog.png)

1. Une fois que vous avez ajouté une évaluation ou ses éléments pour le coaching, un lien sera fourni pour consulter la session de coaching.

1. Vous pouvez associer jusqu'à 10 évaluations ou éléments d'évaluation à une seule séance de coaching pour illustrer la force d'un agent ou les opportunités de croissance. Pour lier des évaluations supplémentaires, répétez les étapes 2 à 7

1. Vous pouvez modifier la session de coaching en spécifiant les dates, les heures et le lieu, en fournissant des commentaires détaillés et en définissant des objectifs d'amélioration sur les sujets de coaching.  
![\[La page de modification de la session de coaching avec des champs pour les dates, les heures, le lieu, les commentaires et les objectifs.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/coaching-edit-coaching-session.png)
**Note**  
La **date d'échéance de la session** est obligatoire.

1. Cliquez sur **Soumettre** pour enregistrer la session de coaching en tant que brouillon.

1. Lorsque la séance de coaching est prête, cliquez sur **Partager** pour que l'agent puisse la voir. Si l'agent dispose d'une adresse e-mail configurée dans Amazon Connect (ou d'une adresse e-mail secondaire pour une instance SAML), il recevra une notification par e-mail contenant un lien permettant d'accéder à la session de coaching.

1. Au moment du coaching, vous pouvez accéder à la session de coaching sur **Analytics et optimisation** > **Sessions de coaching**. Cette page affiche toutes les sessions de coaching passées et à venir.

1. Une fois la session de coaching terminée, cliquez sur **Marquer comme terminé** et ajoutez éventuellement une note.

1. Les agents peuvent accuser réception du coaching ainsi que leurs propres notes de coaching.

## Rechercher des sessions de coaching
<a name="coaching-search-sessions"></a>

Vous pouvez consulter toutes les sessions de coaching passées et à venir sur la page **Analyses et optimisation** > **Sessions de coaching**.

Cette page fournit des fonctionnalités de recherche avancées. Vous pouvez rechercher des sessions de coaching :
+ Interprété par un entraîneur en particulier
+ Lorsqu'un agent spécifique était le participant
+ Créé par un responsable qualité spécifique
+ Sur un sujet précis
+ dont la date d'échéance est dépassée mais qui ne sont pas achevées
+ En attente d'achèvement (statut partagé ou brouillon)
+ Ils sont terminés, mais n'ont pas encore été reconnus par le participant
+ Etc.

![\[La page de recherche des sessions de coaching avec des options de filtrage.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/coaching-search-filters.png)


# Accuser réception des évaluations des performances dans Amazon Connect
<a name="acknowledge-evaluations"></a>

Lorsqu’une évaluation des performances d’un agent est soumise, vous pouvez automatiquement demander à l’agent de vérifier son évaluation. Par exemple, vous pouvez configurer une [règle pour envoyer un e-mail](contact-lens-rules-email.md) à l’agent lorsqu’une évaluation est disponible. Vous pouvez également expliquer à un agent son évaluation pendant une session de coaching.

Une fois que l'agent a examiné l'évaluation des performances, il peut accuser réception de l'évaluation et rédiger une note facultative sur le site Web de l' Amazon Connect administrateur. Cet accusé de réception permet aux responsables de vérifier si les agents examinent les commentaires fournis sur l’évaluation de leurs performances.

Cette rubrique explique les étapes que les agents doivent suivre pour accuser réception d’une évaluation et la consulter.

**Pour accuser réception d’une évaluation**

1. Après avoir reçu une évaluation des performances d'un contact, utilisez votre compte d'agent pour vous connecter au site Web de l' Amazon Connect administrateur à l'adresse https ://*instance name*.my.connect.aws/.

1. Accédez à l’évaluation de contact dont vous souhaitez accuser réception. Plusieurs options s’offrent à vous :
   + Quelqu’un a peut-être partagé l’URL du contact avec vous.

   - OU - 
   + Une tâche vous a peut-être été affectée ou vous avez peut-être reçu une notification par e-mail contenant l’URL du contact ayant fait l’objet d’une évaluation.

   - OU - 
   + Vous avez peut-être l’ID de contact et le nom du formulaire d’évaluation. Vous pouvez utiliser ces informations pour rechercher le contact ayant fait l’objet d’évaluations en procédant comme suit.

     1. Dans le volet de navigation, choisissez **Analytique et optimisation**, puis **Recherche de contacts**.

     1. Recherchez le contact qui a été évalué, mais dont vous n’avez pas encore accusé réception. L’image suivante montre les filtres permettant de rechercher « **Confirmée** = **Non** ».  
![\[Section Filtres de la page Recherche de contacts, définie sur Confirmée = Non.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-ack1.png)

1. Sur la page **Détails de contact**, choisissez **Évaluations** ou développez le panneau d’évaluation en sélectionnant l’icône **<**, comme illustré dans l’image suivante.  
![\[Bouton Évaluations et icône permettant de développer le panneau d’évaluation.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-ack2.png)

1. Le panneau **Évaluations** répertorie toutes les évaluations en cours ou terminées pour le contact. Pour accuser réception d’une évaluation, choisissez-en une dans la liste **Évaluations terminées**. L’image suivante montre une évaluation terminée : **Fiche d’évaluation du service client**.  
![\[Panneau Évaluations, évaluations terminées.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-ack3.png)

1. Choisissez l’évaluation que vous souhaitez vérifier. En bas de l’évaluation, choisissez **Confirmer**, comme illustré dans l’image suivante. 
**Note**  
Seul l’agent évalué peut accuser réception de l’évaluation.  
![\[Panneau Évaluations, évaluations terminées.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-ack4.png)

1. Dans la boîte de dialogue **Confirmer le résultat de l’évaluation**, fournissez un commentaire facultatif (par exemple, *Le responsable a expliqué l’évaluation lors du coaching du 5 mars 2025*). 

   Lorsque vous avez terminé, choisissez **Confirmer**.   
![\[Section Confirmer le résultat de l’évaluation, bouton Confirmer.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-ack5.png)

1. Un message s’affiche pour vous informer que l’accusé de réception de l’évaluation est **terminé**, comme illustré dans l’image suivante.   
![\[Message indiquant que l’évaluation a bien été confirmée.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-ack6.png)

1. Vous ne pouvez accuser réception d’une évaluation qu’une fois qu’elle a été soumise. Si une évaluation est soumise à nouveau, vous pouvez de nouveau en accusé de réception.

1. Pour consulter la note d’accusé de réception, sélectionnez l’évaluation confirmée, puis cliquez sur le lien **Afficher la note**.  
![\[Note de l’accusé de réception.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-ack7.png)

# Échantillonnage aléatoire de contacts à des fins d'évaluation dans Amazon Connect
<a name="random-sampling-of-contacts-for-evaluation"></a>

 Amazon Connect fournit aux responsables un échantillon aléatoire des contacts de leurs agents à des fins d'évaluation, éliminant ainsi les préjugés des responsables et rationalisant le processus d'évaluation. Sur Contact Search, les responsables peuvent spécifier le nombre de contacts qu'ils doivent évaluer pour chaque agent, conformément aux accords syndicaux, à la réglementation ou aux directives internes. Ils reçoivent ensuite le nombre de contacts requis, sélectionnés au hasard dans la période spécifiée, par exemple 3 contacts par agent la semaine dernière. En outre, les responsables peuvent appliquer des filtres supplémentaires dans la recherche de contacts pour s'assurer que les contacts fournis sont adaptés à l'évaluation. Par exemple, les contacts doivent durer plus de 180 secondes, être associés à des enregistrements audio ou d'écran, à des transcriptions et n'avoir pas encore été évalués. Une fois l'échantillon généré, vous pouvez sélectionner un formulaire d'évaluation et créer des ébauches d'évaluations en bloc pour chacun des contacts de l'échantillon. Les évaluations créées de cette manière indiqueront que le contact a été sélectionné par échantillonnage aléatoire et fourniront une vérifiabilité garantissant que les critères de filtrage n'introduisent aucun biais dans la sélection. 

**Échantillonnage aléatoire de contacts à des fins d'évaluation**

1.  Connectez-vous à Amazon Connect avec un utilisateur qui dispose des autorisations suivantes sur son profil de sécurité : 

   1.  Recherche de contacts - Afficher 

   1.  Exemples de contacts 

   1.  Formulaires d'évaluation — effectuer des évaluations 

1. Sélectionnez la période des contacts à évaluer, par exemple la semaine de clôture. Notez que vous pouvez échantillonner des contacts pour une période maximale de 5 semaines.  
![\[Sélectionnez une période\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-randomsampling-time-range.png)

1. Sélectionnez l'agent ou la hiérarchie d'agents que vous devez évaluer.  
![\[Filtrer la recherche - Agent\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-randomsampling-agent-filter.png)  
![\[Ajouter un filtre - Agent\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-randomsampling-agent-filter-select.png)

1. Appliquez des filtres supplémentaires pour sélectionner uniquement les contacts susceptibles d'être évalués.
   + **Analyse conversationnelle** : garantit que le contact est analysé par l'analyse conversationnelle et dispose d'une transcription
   + **Enregistrement** : filtrez les contacts avec un enregistrement audio (voix) ou un enregistrement d'écran (vidéo)
   + **Durée de l'interaction** : vous pouvez choisir les contacts avec une interaction agent-client minimale et maximale
   + **État de l'évaluation** : sélectionnez uniquement les contacts qui n'ont pas encore été évalués  
![\[Ajouter des filtres supplémentaires\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-randomsampling-search-filters.png)

1. Spécifiez les critères d'échantillonnage, tels que 5 contacts par agent, puis cliquez sur **Appliquer** pour générer un échantillon.  
![\[Critères d'échantillonnage\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-randomsampling-criteria.png)

1. Vous pouvez enregistrer l'ensemble de filtres et de critères d'échantillonnage dans la recherche enregistrée.  
![\[Enregistrer les filtres et les critères d'échantillonnage\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-randomsampling-save-search.png)![\[Enregistrer les filtres et les critères d'échantillonnage\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-randomsampling-save-search-name.png)![\[Enregistrer les filtres et les critères d'échantillonnage\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-randomsampling-save-search-banner.png)

1. Une fois l'échantillon généré, vous pouvez créer des ébauches d'évaluations groupées pour tous les contacts.
   + Sélectionnez **Créer des ébauches d'évaluations**
   + Sélectionnez le **formulaire d'évaluation**  
![\[Création de brouillons d'évaluations\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-randomsampling-create-draft-eval-empty.png)  
![\[Sélectionnez le formulaire d'évaluation\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-randomsampling-create-draft-eval-form-select.png)

   Cela associe les ébauches d'évaluations au nom de l'échantillon.
**Note**  
Cette étape est obligatoire si vous devez récupérer l'échantillon de contact à l'avenir.  

![\[Création de brouillons d'évaluations\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-randomsampling-in-progress-banner.png)


![\[Ébauches d'évaluations créées avec succès\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-randomsampling-success-banner.png)


## Récupération et visualisation d'échantillons de contacts à des fins d'évaluation
<a name="retrieve-and-view-sampled-contacts-for-evaluation"></a>

 Pour récupérer l'échantillon de contacts à l'avenir, accédez à la recherche de contacts et appliquez le filtre Évaluation — échantillons de contacts. Notez que les échantillons de contacts sont spécifiques à l'utilisateur qui les a générés. 

![\[Création de brouillons d'évaluations\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-randomsampling-contact-samples-filter.png)


## Audit des critères d'échantillonnage
<a name="auditing-sampling-criteria"></a>

 Si vous ouvrez une évaluation, cela indiquera si un échantillonnage de contacts a été utilisé pour créer l'évaluation. Vous pouvez cliquer sur **Oui** pour vérifier les critères de filtrage utilisés pour générer l'échantillon de contacts, afin de vous assurer que les filtres n'ont introduit aucun biais (par exemple, un sentiment négatif du client) lors du processus de sélection des contacts. 

![\[Création de projets d'évaluation - coordonnées\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-randomsampling-evals-list.png)


![\[Création de projets d'évaluation - aperçu des évaluations\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-randomsampling-sampled-eval.png)


![\[Créer des ébauches d'évaluations - exemples de coordonnées\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-randomsampling-sampled-eval-details.png)


# Demandez des révisions des évaluations de performance (faites appel) dans Amazon Connect
<a name="evaluation-review-requests"></a>

Lorsqu’une évaluation des performances d’un agent est soumise, vous pouvez automatiquement demander à l’agent de vérifier son évaluation. Par exemple, vous pouvez configurer une [règle pour envoyer un e-mail](contact-lens-rules-email.md) à l’agent lorsqu’une évaluation est disponible. Une fois qu'ils ont examiné une évaluation, ils peuvent [accuser réception](acknowledge-evaluations.md) de celle-ci. S'ils ne sont pas d'accord avec les commentaires fournis dans le cadre d'une évaluation, ils peuvent demander une révision des évaluations de performance (faire appel). Lorsqu'une révision est demandée, les responsables désignés sont automatiquement avertis par e-mail. Ils peuvent ensuite réviser l'évaluation ou ajouter des notes supplémentaires qui justifient l'évaluation initiale, avant de terminer la révision. À la fin, l'utilisateur qui a demandé la révision et l'agent évalué sont informés par e-mail.

## Comment activer les demandes de révision (appels) ?
<a name="enable-review-requests"></a>

Amazon Connect vous permet de spécifier quels formulaires d'évaluation prennent en charge les demandes de révision. Pour activer les demandes de révision sur un formulaire d'évaluation :

1. Connectez-vous à Amazon Connect avec un compte utilisateur doté de l'autorisation de profil de sécurité suivante : **Analyse et optimisation** - **Formulaires d'évaluation - gestion des définitions de formulaires** - **Création**

1. Choisissez **Analytique et optimisation**, puis sélectionnez **Formulaires d’évaluation**.

1. Ouvrez un formulaire existant en cliquant sur le lien hypertexte de la dernière version ou créez un nouveau formulaire d'évaluation.

1. Cliquez sur l'onglet **Paramètres supplémentaires**

1. Cliquez sur **Autoriser les demandes de révision**

1. Vous pouvez spécifier la période jusqu'à laquelle une révision peut être demandée dans le cadre d'une évaluation. La fenêtre temporelle est mesurée à partir de la date de soumission initiale d'une évaluation.

1. Vous pouvez également choisir un ou plusieurs destinataires qui seront avertis par e-mail lorsqu'un avis est demandé. L'e-mail contient un lien vers le contact avec l'évaluation pour laquelle une révision est demandée. Notez que pour que les utilisateurs puissent recevoir des e-mails sur une instance authentifiée SAML, l'e-mail secondaire doit être fourni dans le profil de l'utilisateur dans Connect.

1. Une fois le formulaire **activé**, les évaluations ultérieures effectuées à l'aide du formulaire prendront en charge les demandes de révision.

![\[Onglet de paramètres supplémentaires indiquant l'option Autoriser les demandes de révision\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-review-enable.png)


## Qui peut demander la révision d'une évaluation ?
<a name="who-can-request-reviews"></a>

Pour que les utilisateurs puissent demander des révisions d'évaluations, ils doivent disposer des autorisations suivantes : **formulaires d'évaluation - demander des révisions d'évaluation - Créer et consulter**, en plus de l'accès aux contacts et évaluations sous-jacents. Les autorisations de demander des révisions peuvent être accordées aux agents, ou à leurs superviseurs, qui peuvent demander des révisions d'évaluation à l'équipe de gestion de la qualité au nom de leurs agents. Les superviseurs autorisés à **demander des révisions d'évaluation** peuvent demander une révision de toute évaluation à laquelle ils ont accès.

Les utilisateurs ayant obtenu l'autorisation **Formulaires d'évaluation - demander des révisions d'évaluation - Supprimer** l'autorisation peuvent supprimer une demande avant le début de la révision.

## Qui peut examiner une évaluation ?
<a name="who-can-review-evaluations"></a>

Les utilisateurs disposant des autorisations **Formulaires d'évaluation - évaluations de révision - Création et affichage** peuvent effectuer des révisions. Si certaines personnes doivent être consultées sur les évaluations, mais ne doivent pas être autorisées à effectuer elles-mêmes des évaluations, vous pouvez leur accorder des **formulaires d'évaluation, des évaluations de révision**, des autorisations de consultation.

## Demande de révision
<a name="requesting-review"></a>

1. Sur la page **Informations de contact**, ouvrez une évaluation terminée pour laquelle vous souhaitez demander une révision

1. Sélectionnez « **demander une révision** » au bas de l'évaluation.

1. Expliquez pourquoi vous demandez un avis (vous ne pouvez pas laisser ce champ vide). Cliquez sur **Confirmer**

1. L'évaluation s'affichera dans la section **Révision demandée** dans le volet des évaluations.

1. Vous pouvez annuler une demande si l'évaluation n'a pas encore commencé

![\[Bouton de demande de révision lors de l'évaluation\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-review-request.png)


![\[Boîte de dialogue de demande de révision avec champ d'explication\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-review-requestcomment.png)


![\[Évaluation indiquant le statut de la demande de révision\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-review-requested.png)


## Recherche de révisions en attente
<a name="searching-pending-reviews"></a>

Comme mentionné ci-dessus, vous pouvez configurer dans le formulaire d'évaluation, qui sera automatiquement averti par e-mail si un avis est demandé. Ces e-mails de notification contiennent des liens vers des contacts avec des évaluations pour lesquelles une révision est demandée. En outre, les utilisateurs disposant des autorisations appropriées peuvent rechercher des contacts dont les évaluations ont fait l'objet d'une demande de révision ou qui sont déjà en cours de révision :

1. Connectez-vous à Amazon Connect avec un compte d'utilisateur disposant des [autorisations d'accéder aux enregistrements de contacts](contact-search.md#required-permissions-search-contacts) et de l'autorisation **Formulaires d'évaluation – effectuer des évaluations**.

1. Dans la barre de navigation, choisissez **Analyses et optimisation**, puis **Recherche de contacts**.

1. Utilisez le filtre de plage horaire pour rechercher des contacts à partir de la fenêtre horaire appropriée, par exemple le mois dernier.

1. Utilisez le filtre de statut de l'évaluation avec la valeur Évaluation **demandée** pour rechercher des contacts avec des évaluations pour lesquelles une évaluation a été demandée et n'a pas encore été récupérée pour révision

1. Utilisez le filtre de statut de l'évaluation avec la valeur **En cours de révision** pour rechercher des contacts dont les évaluations sont sélectionnées pour révision.

![\[Recherche de contacts avec filtre de statut d'évaluation\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-review-searchrequested.png)


## Commencer et terminer les révisions
<a name="starting-completing-reviews"></a>

1. Ouvrez le volet des évaluations sur la page **Informations de contact**.

1. Cliquez sur une évaluation répertoriée sous **Révision demandée**.

1. Cliquez sur **Commencer la révision**.

1. L'évaluation initiale est répertoriée ci-dessous **En cours de révision** et peut être consultée en cliquant dessus.

1. L'examen en cours est répertorié sous Examens **d'évaluation**. Les utilisateurs disposant des autorisations **d'évaluation - de révision des évaluations - de création** peuvent apporter des modifications à l'évaluation, par exemple en modifiant les réponses ou les notes. Vous pouvez **enregistrer** votre évaluation à tout moment et cliquer sur **Résoudre la révision** pour finaliser la révision.

1. Cela enverra une notification automatique par e-mail à l'utilisateur qui a demandé la révision.

![\[Examen de l'évaluation en cours\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-review-view.png)


# Recherche de contacts à l’aide des formulaires d’évaluation dans Amazon Connect
<a name="search-evaluations"></a>

1. Connectez-vous à Amazon Connect avec un compte d'utilisateur disposant des [autorisations d'accéder aux enregistrements de contacts](contact-search.md#required-permissions-search-contacts) et de l'autorisation **Formulaires d'évaluation – effectuer des évaluations**. 

1. Dans Amazon Connect, choisissez **Analytique et optimisation**, puis **Recherche de contacts**. 

1. Utilisez les filtres de la page pour affiner votre recherche. Pour la date, vous pouvez rechercher jusqu'à 8 semaines à la fois.  
![\[Les filtres de recherche pour les évaluations.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluationforms-searchfilters1.png)

# Utilisation d’un ID de référence pour représenter les questions sur les performances des agents de centre de contact dans un rapport
<a name="evaluationforms-referenceid"></a>

Un *ID de référence* est un jeton qui apparaît dans le fichier de sortie JSON. Il s'agit d'une question précise. Lorsque vous créez des rapports, vous pouvez l'utiliser à la place du libellé exact d'une question. 

Par exemple, une question pourrait être « Les agents ont-ils respecté le script ? », mais le lendemain, la question pourrait être remplacée par « Le script a-t-il été bien respecté ? » Quelle que soit la formulation de la question, l'ID de référence reste toujours le même.

# Métriques d’évaluation dans Amazon Connect
<a name="evaluation-metrics"></a>

Vous pouvez afficher les métriques suivantes dans le [Tableau de bord des évaluations des performances des agents](agent-performance-evaluation-dashboard.md). Ces métriques vous permettent de visualiser les performances agrégées des agents et d’obtenir des informations sur des cohortes d’agents et au fil du temps. 

## Score d’évaluation moyen
<a name="average-evaluation-score-hmetric"></a>

Cette métrique fournit le score d’évaluation moyen pour toutes les évaluations soumises. Les évaluations soumises à l’étalonnage sont exclues de cette métrique.

Le score d’évaluation moyen correspond au regroupement. Par exemple, si le regroupement contient des questions d’évaluation, le score d’évaluation moyen est fourni pour les questions. Si le regroupement ne contient pas de formulaire, de section ni de question d’évaluation, le score d’évaluation moyen s’applique au niveau du formulaire d’évaluation.

**Type de métrique** : pourcentage

**Catégorie de métrique** : métrique basée sur l’évaluation des contacts

**Accès à l’aide de l’API Amazon Connect** : 
+ GetMetricDataIdentifiant métrique de l'API [V2](https://docs.aws.amazon.com/connect/latest/APIReference/API_GetMetricDataV2.html) : `AVG_EVALUATION_SCORE`

**Comment y accéder via le site Web de l' Amazon Connect administrateur** : 
+ Tableau de bord : [Tableau de bord des évaluations des performances des agents](agent-performance-evaluation-dashboard.md)

**Logique de calcul** :
+ Obtenir la somme des scores d’évaluation : formulaires \$1 sections \$1 questions.
+ Obtenir le nombre total d’évaluations pour lesquelles le score a été finalisé et enregistré.
+ Calculer le score moyen : (somme des scores) / (total des évaluations).

**Remarques** :
+ Exclut les évaluations d’étalonnage. 
+ La granularité du score dépend du niveau de regroupement. 
+ Renvoie une valeur en pourcentage. 
+ Nécessite au moins un filtre parmi les files d’attente, les profils de routage, les agents ou les groupes hiérarchiques d’utilisateurs. 
+ Repose sur la date et l’heure d’envoi des évaluations. 
+ Les données de cette métrique sont disponibles depuis le 10 janvier 2025 à 00 h 00 GMT.

## Score d’évaluation pondéré moyen
<a name="average-weighted-evaluation-score-hmetric"></a>

Cette métrique fournit le score pondéré moyen de toutes les évaluations soumises. Les évaluations soumises à l’étalonnage sont exclues de cette métrique.

Les poids sont conformes à la version du formulaire d’évaluation qui a été utilisée pour effectuer l’évaluation. 

 Le score d’évaluation moyen correspond au regroupement. Par exemple, si le regroupement contient des questions d’évaluation, le score d’évaluation moyen est fourni pour les questions. Si le regroupement ne contient pas de formulaire, de section ni de question d’évaluation, le score d’évaluation moyen s’applique au niveau du formulaire d’évaluation. 

**Type de métrique** : pourcentage

**Catégorie de métrique** : métrique basée sur l’évaluation des contacts

**Accès à l’aide de l’API Amazon Connect** : 
+ GetMetricDataIdentifiant métrique de l'API [V2](https://docs.aws.amazon.com/connect/latest/APIReference/API_GetMetricDataV2.html) : `AVG_WEIGHTED_EVALUATION_SCORE`

**Comment y accéder via le site Web de l' Amazon Connect administrateur** : 
+ Tableau de bord : [Tableau de bord des évaluations des performances des agents](agent-performance-evaluation-dashboard.md)

**Logique de calcul** :
+ Obtenir la somme des scores pondérés en utilisant les pondérations des versions du formulaire.
+ Obtenir le nombre total d’évaluations pour lesquelles le score a été finalisé et enregistré.
+ Calculer la moyenne pondérée : (somme des scores pondérés) / (total des évaluations).

**Remarques** :
+ Utilise des poids spécifiques à la version du formulaire d’évaluation. 
+ Exclut les évaluations d’étalonnage. 
+ La granularité du score dépend du niveau de regroupement. 
+ Renvoie une valeur en pourcentage. 
+ Nécessite au moins un filtre parmi les files d’attente, les profils de routage, les agents ou les groupes hiérarchiques d’utilisateurs. 
+ Repose sur la date et l’heure d’envoi des évaluations. 
+ Les données de cette métrique sont disponibles depuis le 10 janvier 2025 à 00 h 00 GMT.

## Pourcentage d’échecs automatiques
<a name="percent-evaluation-automatic-failures-hmetric"></a>

Cette métrique fournit le pourcentage d’évaluations de performances ayant subi des échecs automatiques. Les évaluations soumises à l’étalonnage sont exclues de cette métrique. 

Si une question est marquée comme échec automatique, la section parent et le formulaire sont également marqués comme échecs automatiques. 

**Type de métrique** : pourcentage

**Catégorie de métrique** : métrique basée sur l’évaluation des contacts

**Comment y accéder via le site Web de l' Amazon Connect administrateur** : 
+ Tableau de bord : [Tableau de bord des évaluations des performances des agents](agent-performance-evaluation-dashboard.md)

**Logique de calcul** :
+ Obtenir le nombre total d’échecs automatiques.
+ Obtenir le nombre total d’évaluations effectuées.
+ Calculer le pourcentage : (échecs automatiques/nombre total d’évaluations) \$1 100.

**Remarques** :
+ L’échec automatique se propage (question → section → formulaire).
+ Exclut les évaluations d’étalonnage.
+ Renvoie une valeur en pourcentage.
+ Nécessite au moins un filtre parmi les files d’attente, les profils de routage, les agents ou les groupes hiérarchiques d’utilisateurs.
+ Repose sur la date et l’heure d’envoi des évaluations.
+ Les données de cette métrique sont disponibles depuis le 10 janvier 2025 à 00 h 00 GMT.

## Évaluations effectuées
<a name="evaluations-performed-hmetric"></a>

Cette métrique indique le nombre d’évaluations effectuées dont le statut d’évaluation est « Envoyé ». Les évaluations soumises à l’étalonnage sont exclues de cette métrique.

**Type de métrique** : entier

**Catégorie de métrique** : métrique basée sur l’évaluation des contacts

**Accès à l’aide de l’API Amazon Connect** : 
+ GetMetricDataIdentifiant métrique de l'API [V2](https://docs.aws.amazon.com/connect/latest/APIReference/API_GetMetricDataV2.html) : `EVALUATIONS_PERFORMED`

**Comment y accéder via le site Web de l' Amazon Connect administrateur** : 
+ Tableau de bord : [Tableau de bord des évaluations des performances des agents](agent-performance-evaluation-dashboard.md)

**Logique de calcul** :
+ Vérifier que l’identifiant d’évaluation est présent.
+ Vérifier que le type d’élément est un formulaire.
+ Comptabiliser les évaluations soumises (à l’exception des étalonnages).

**Remarques** :
+ Ne compte que les évaluations soumises.
+ Exclut les évaluations d’étalonnage.
+ Renvoie le nombre de nombres entiers.
+ Nécessite au moins un filtre parmi les files d’attente, les profils de routage, les agents ou les groupes hiérarchiques d’utilisateurs.
+ Repose sur la date et l’heure d’envoi des évaluations.
+ Les données de cette métrique sont disponibles depuis le 10 janvier 2025 à 00 h 00 GMT.

# Sortie du formulaire d’évaluation des agents dans Amazon Connect
<a name="evaluationforms-example-output-file"></a>

Cette section indique le chemin de sortie d’exportation des évaluations et fournit un exemple de scores et de métadonnées pour les formulaires d’évaluation.

**Topics**
+ [Vérification du compartiment S3](#verify-evaluation-s3bucket)
+ [Exemples d'emplacements de sortie](#example-evaluationform-output-locations)
+ [Problème connu](#release-note-evaluation-output)
+ [Exemples de scores](#example-evaluation-output-file)
+ [Définitions des métadonnées du formulaire d’évaluation](#evaluation-form-metadata)
+ [

## Exemple d’évaluation exportée
](#exported-evaluation)

## Vérification du compartiment S3
<a name="verify-evaluation-s3bucket"></a>

Lorsque vous activez **Évaluations des contacts** dans la console Amazon Connect , il vous est demandé de créer ou de choisir un compartiment S3 pour stocker les évaluations. Pour vérifier le nom du compartiment, accédez à l’alias de l’instance, choisissez **Stockage de données**, **Évaluations des contacts**, puis **Modifier**.

## Exemples d'emplacements de sortie
<a name="example-evaluationform-output-locations"></a>

Le chemin du fichier de sortie pour les formulaires d'évaluation est le suivant :
+ *contact\$1evaluations\$1S3\$1bucket**YYYY/MM/DD/hh:mm:ss.sTZD*/Évaluations/ - .json *evaluation\$1id*

Par exemple :

`amazon-connect-s3/Evaluations/2022/04/14/05:04:20.869Z-11111111-2222-3333-4444-555555555555.json`

## Problème connu : deux fichiers de sortie pour la même évaluation
<a name="release-note-evaluation-output"></a>

Contact Lens génère deux fichiers de sortie pour le même formulaire d’évaluation.
+ Un fichier est écrit dans le nouveau chemin S3 par défaut. Vous pouvez configurer le chemin dans la AWS console.
+ Un autre fichier, qui sera obsolète, est écrit sur un ancien chemin S3 différent. Vous pouvez ignorer ce fichier.

  Le chemin S3 précédent ressemble à ce qui suit :
  + *s3\$1bucket*/Evaluations/contact\$1 /évaluation\$1 /yyyy-mm-:mm:ss.stzd.json *contactId* *evaluationId* DDThh

## Exemples de scores
<a name="example-evaluation-output-file"></a>

L’exemple suivant montre un score typique.

```
{
  "schemaVersion": "3.5",
  "evaluationId": "fb90de35-4507-479a-8b57-970290fd5c2c",
  "metadata": {
    "contactId": "badd4896-75f7-43b3-bee6-c617ed3d04cb",
    "accountId": "874551140838",
    "instanceId": "8f753c94-9cd2-4f16-85eb-945f7f0d559a",
    "agentId": "286bcec0-e722-4166-865f-84db80252218",
    "evaluationDefinitionTitle": "Compliance Evaluation Form",
    "evaluator": "jane",
    "evaluationDefinitionId": "15d8fbf1-b4b2-4ace-869b-82714e2f6e3e",
    "evaluationDefinitionVersion": 2,
    "evaluationStartTimestamp": "2025-11-14T17:57:08.649Z",
    "evaluationSubmitTimestamp": "2025-11-14T17:59:29.052Z",
    "score": {
      "percentage": 100
    },
    "creator": "jane.doe@acme.com",
    "autoEvaluated": false,
    "resubmitted": false,
    "evaluationSource": "ASSISTED_BY_AUTOMATION",
    "evaluationType": "CONTACT_EVALUATION",
    "evaluationAcknowledgerComment": "The Acknowledgment comment",
    "evaluationAcknowledgedTimestamp": "2025-12-22T05:20:39.297Z",
    "evaluationAcknowledgedByUserName": "john",
    "evaluationAcknowledgedByUserId": "286bcec0-e722-4166-865f-84db80252218"
  },
  "sections": [
    {
      "sectionRefId": "s1a1b58d6",
      "sectionTitle": "The title of the section",
      "notes": "Section note",
      "score": {
        "percentage": 100
      }
    },
    {
      "sectionRefId": "s46661c49",
      "sectionTitle": "The title of the subsection",
      "parentSectionRefId": "s1a1b58d6",
      "score": {
        "percentage": 100
      }
    }
  ],
  "questions": [
    {
      "questionRefId": "q570b206a",
      "sectionRefId": "s46661c49",
      "questionType": "NUMERIC",
      "questionText": "How do you rate the contact between 1 and 10?",
      "answer": {
        "value": "",
        "notes": "Add more information here",
        "metadata": {
          "notApplicable": true
        }
      },
      "score": {
        "notApplicable": true
      }
    },
    {
      "questionRefId": "q73bc5b9d",
      "sectionRefId": "s46661c49",
      "questionType": "SINGLESELECT",
      "questionText": "Did the agent introduce themselves?",
      "answer": {
        "values": [
          {
            "valueText": "Yes",
            "valueRefId": "o6999aa94",
            "selected": true
          },
          {
            "valueText": "No",
            "valueRefId": "o284e4d9e",
            "selected": false
          },
          {
            "valueText": "Maybe",
            "valueRefId": "o1b2f0a14",
            "selected": false
          }
        ],
        "notes": "Add more information here",
        "automation": {
          "status": "SYSTEM_ANSWER",
          "systemSuggestedValue": "Yes"
        },
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "percentage": 100
      }
    },
    {
      "questionRefId": "h89bc7a9t",
      "sectionRefId": "s46661c49",
      "questionType": "SINGLESELECT",
      "questionText": "Did the agent offer a promotion?",
      "answer": {
        "values": [
          {
            "valueText": "Yes",
            "valueRefId": "p7888bb85",
            "selected": false
          },
          {
            "valueText": "No",
            "valueRefId": "p395f5e8f",
            "selected": true
          },
          {
            "valueText": "Maybe",
            "valueRefId": "p2c3g1b25",
            "selected": false
          }
        ],
        "notes": "Add more information here",
        "assistedSuggestion": {
          "value": "No. A promotion was not offered by the agent."
        },
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "percentage": 100
      }
    },
    {
      "questionRefId": "qc2effc9d",
      "sectionRefId": "s46661c49",
      "questionType": "TEXT",
      "questionText": "Describe the outcome.",
      "answer": {
        "value": "Example answer text",
        "notes": "Add more information here",
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "percentage": 50
      }
    }
  ]
}
```

## Définitions des métadonnées du formulaire d’évaluation
<a name="evaluation-form-metadata"></a>

La liste suivante décrit les champs du formulaire d’évaluation.

**evaluationId**  
Identifiant unique pour l’évaluation du contact  
*Type* : String  
*Contraintes de longueur* : longueur minimale de 1 caractère. Longueur maximale de 500 caractères

**metadata**    
**contactId**  
Identifiant du contact dans cette instance d’Amazon Connect.  
*Type* : String  
*Contraintes de longueur* : longueur minimale de 1 caractère, longueur maximale de 256 caractères  
**accountId**  
Identifiant du AWS compte exécutant l'instance d'Amazon Connect.  
*Type* : String  
*Contraintes de longueur* — Contraintes : 12 chiffres  
*Motif* — `^\d{12}$`  
**instanceId**  
L'identifiant de l'instance Amazon Connect. Vous pouvez [trouver l’ID d’instance](find-instance-arn.md) dans l’Amazon Resource Name (ARN) de l’instance.  
*Contraintes de longueur* : longueur minimale de 1 caractère, longueur maximale de 100 caractères  
**agentId**  
Identifiant de l’agent qui a effectué le contact.  
*Type* : String  
*Contraintes de longueur* : longueur minimale de 1 caractère, longueur maximale de 500 caractères  
**evaluationDefinitionTitle**  
Titre du formulaire d’évaluation.  
*Type* : String  
*Contraintes de longueur* : longueur minimale de 1 caractère, longueur maximale de 128 caractères  
**evaluator**  
Nom de l’utilisateur qui a mis à jour l’évaluation pour la dernière fois.  
*Type* : String  
**evaluationDefinitionId**  
Identifiant unique du formulaire d’évaluation.  
*Type* : String  
*Contraintes de longueur* : longueur minimale de 1 caractère, longueur maximale de 500 caractères  
**evaluationDefinitionVersion**  
Version du formulaire d’évaluation.  
*Type* : Integer  
*Plage valide* : valeur minimum de 1.  
**evaluationStartTimestamp**  
Date et heure de création de l’évaluation.  
*Type* : Timestamp  
*Exemple* — 2025-11-14T 17:57:08.649 Z  
**evaluationSubmitTimestamp**  
Horodatage de soumission de l'évaluation.  
*Type* : Timestamp  
*Exemple* — 2025-11-14T 17:59:29.052 Z  
**score**  
Score de l’évaluation.  
**creator**  
 Entité qui a créé l’évaluation la toute première fois (par opposition à « evaluator » qui représente l’entité qui a soumis l’évaluation pour la dernière fois). Lorsque l'appel est effectué depuis le site Web Amazon Connect d'administration, il contient le nom d'utilisateur. Lorsque l’appel provient de l’API, il contient l’ARN de l’appelant.   
*Type* : String  
**autoEvaluated **  
 Indique si l’évaluation a été soumise à l’aide d’évaluations entièrement automatisées.  
*Type* : Boolean  
**renvoyé **  
 Indique si l’évaluation a été soumise à nouveau (modifiée avant d’être soumise à nouveau).  
*Type* : Boolean  
**evaluationSource **  
Type de source de réponse à l’évaluation.  
*Type* : String  
Valeurs valides :  
+ `ASSISTED_BY_AUTOMATION` : indique que l’[automatisation des questions](create-evaluation-forms.md#step-automate) a été utilisée pour répondre à certaines questions.
+ `MANUAL` : indique que l’évaluation a été réalisée manuellement.
+ `AUTOMATED` : indique que l’évaluation a été soumise à l’aide d’évaluations entièrement automatisées (voir le champ « autoEvaluated »).  
**Type d'évaluation**  
Type d'évaluation.  
*Type* : String  
Valeurs valides :  
+ `CONTACT_EVALUATION`- évaluation d'un contact.  
**calibrationSessionId**  
Identifiant de la session d'étalonnage associée à cette évaluation.  
*Type* : String  
*Contraintes de longueur* : longueur minimale de 1 caractère, longueur maximale de 500 caractères  
**evaluatedParticipantId**  
Identifiant du participant évalué.  
*Type* : String  
*Contraintes de longueur* : longueur minimale de 1 caractère, longueur maximale de 256 caractères  
**evaluatedParticipantRole**  
Le rôle du participant évalué.  
*Type* : String  
Valeurs valides :  
+ `AGENT`- l'agent participant.
+ `CUSTOMER`- le client participant.
+ `SYSTEM`- le participant au système.  
**acknowledgerComment**  
Commentaire laissé par l’utilisateur qui a accusé réception de l’évaluation.  
*Type* : String  
*Contraintes de longueur* : longueur minimale de 0 caractère, longueur maximale de 3 072 caractères  
**evaluationAcknowledgedByUserId**  
Identifiant de la personne qui a accusé réception de l’évaluation.  
*Type* : String  
*Contraintes de longueur* : longueur minimale de 1 caractère, longueur maximale de 500 caractères  
**evaluationAcknowledgedByUserName**  
Nom de la personne qui a accusé réception de l’évaluation.  
*Type* : String  
**evaluationAcknowledgedTimestamp**  
Date et heure de l’accusé de réception de l’évaluation.   
*Type* : Timestamp  
*Exemple* — 2025-12-24T 15:45:56.662 Z

**sections**  
Tableau des sections de l’évaluation.    
**sectionRefId**  
Identifiant de la section. Un identifiant doit être unique dans le formulaire d’évaluation.   
*Type* : String  
*Contraintes de longueur* : longueur minimale de 1 caractère, longueur maximale de 40 caractères  
**parentSectionRefId**  
Identifiant de la section parent.  
*Type* : String  
*Contraintes de longueur* : longueur minimale de 1 caractère, longueur maximale de 40 caractères  
**sectionTitle**  
Titre de la section.  
*Type* : String  
*Contraintes de longueur* — Contraintes : longueur minimale de 0 caractère, longueur maximale de 128 caractères.  
**notes**  
Notes laissées pour cette section.  
*Type* : String  
*Contraintes de longueur* : longueur minimale de 0 caractère, longueur maximale de 3 072 caractères  
Les notes ont les limites suivantes :  
+ Les notes individuelles sont limitées à 3 072 caractères. 
+ Les notes combinées d’une évaluation sont limitées à *N* x 1 024 caractères, où *N* correspond au nombre de questions de l’évaluation.  
**score**  
Score de la section.    
**percentage**  
Pourcentage de score attribué à un élément lors de l’évaluation d’un contact.  
*Type* : Double  
*Plage valide* : valeur minimum de 0, valeur maximum de 100.  
**automaticFail**  
Indicateur qui marque l’élément comme échec automatique. Si l’élément ou un élément enfant reçoit une réponse d’échec automatique, cet indicateur est défini sur « true ».  
*Type* : Boolean  
**notApplicable**  
Indicateur qui marque l’élément comme échec automatique. Si l’élément ou un élément enfant reçoit une réponse d’échec automatique, cet indicateur est défini sur « true ».  
*Type* : Boolean

**questions**  
Tableau des questions de l’évaluation.    
**questionRefId**  
Identifiant de la question. Un identifiant doit être unique dans le formulaire d’évaluation.  
*Type* : String  
*Contraintes de longueur* : longueur minimale de 1 caractère, longueur maximale de 40 caractères.  
**sectionRefId**  
Identifiant de la section parent.   
*Type* : String  
*Contraintes de longueur* : longueur minimale de 1 caractère, longueur maximale de 40 caractères  
**questionType**  
Type de question.  
*Type* : les notes StrThe combinées dans une évaluation ont une limite de *N* x 1024 caractères, où *N* est le nombre de questions de l'évaluation.ing  
*Valeurs valides* – `TEXT | SINGLESELECT | NUMERIC`  
**questionText**  
Titre de la question.  
*Type* : String  
*Contraintes de longueur* : longueur minimale de 0 caractère, longueur maximale de 350 caractères  
**answer**  
Réponse à la question.    
**value**  
 string/numeric Valeur d'une réponse lors de l'évaluation d'un contact.  
*Type* : String/Double  
*Contraintes de longueur* (chaîne) : longueur minimale de 0 caractère, longueur maximale de 128 caractères.  
**notes**  
Notes laissées pour cette section.  
*Type* : String  
*Contraintes de longueur* : longueur minimale de 0 caractère. Longueur maximale de 3 072 caractères  
Les notes sont limitées à deux caractères. Les notes individuelles sont limitées à 3 072 caractères. Les notes combinées d’une évaluation sont limitées à N x 1 024 caractères, où N correspond au nombre de questions de l’évaluation.  
**metadata**  
**notApplicable **  
Indicateur signalant que la question n’est pas applicable.  
*Type* : Boolean  
**assistedSuggestion**  
Réponse suggérée par l’[IA générative](generative-ai-performance-evaluations.md).  
*Type* : String  
** Automatisation**    
**status**  
Statut de la réponse d’automatisation.  
*Type* : String  
*Valeurs valides* – `UNAVAILABLE | SYSTEM_ANSWER | OVERRIDDEN_ANSWER`  
**systemSuggestedValue**  
Chaîne ou valeur numérique d’une réponse d’automatisation lors de l’évaluation d’un contact.  
*Type* : String ou Double  
*Contraintes de longueur* (chaîne) : longueur minimale de 0 caractère, longueur maximale de 128 caractères  
**score**  
[score](#score) de la question.  
+ automaticFail : indicateur qui signale que l’élément en question est essentiel pour le formulaire et que le formulaire complet échouera (et sera marqué d’un score nul) en cas d’échec de cet élément. Si cet élément ou un élément enfant reçoit une réponse d’échec automatique, cet indicateur sera défini sur « true » et le formulaire complet échouera également.

  *Type* : Boolean
+ notApplicable : indicateur signalant que l’élément en question n’est pas applicable pour la notation et qu’il sera exclu du calcul du score.

  *Type* : Boolean

## Exemple d’évaluation exportée
<a name="exported-evaluation"></a>

L’exemple suivant montre une évaluation exportée type.

```
{
  "schemaVersion": "3.5",
  "evaluationId": "fb90de35-4507-479a-8b57-970290fd5c2c",
  "metadata": {
    "accountId": "874551140838",
    "instanceId": "8f753c94-9cd2-4f16-85eb-945f7f0d559a",
    "contactId": "badd4896-75f7-43b3-bee6-c617ed3d04cb",
    "agentId": "286bcec0-e722-4166-865f-84db80252218",
    "evaluationDefinitionTitle": "Legal Compliance Evaluation Form",
    "evaluator": "jane",
    "evaluationDefinitionId": "15d8fbf1-b4b2-4ace-869b-82714e2f6e3e",
    "evaluationDefinitionVersion": 2,
    "evaluationStartTimestamp": "2022-11-14T17:57:08.649Z",
    "evaluationSubmitTimestamp": "2022-11-14T17:59:29.052Z",
    "score": {
      "percentage": 85
    },
    "autoEvaluated": false,
    "creator": "john",
    "resubmitted": false,
    "evaluationSource": "ASSISTED_BY_AUTOMATION",
    "evaluationType": "CONTACT_EVALUATION",
    "calibrationSessionId": "a1b2c3d4-e5f6-7890-abcd-ef1234567890",
    "evaluationAcknowledgedByUserId": "286bcec0-e722-4166-865f-84db80252218",
    "evaluationAcknowledgedByUserName": "mike",
    "evaluationAcknowledgedTimestamp": "2022-12-24T15:45:56.662Z",
    "evaluationAcknowledgerComment": "Manager walked through the evaluation during coaching",
    "evaluatedParticipantId": "participant-123",
    "evaluatedParticipantRole": "AGENT"
  },
  "sections": [
    {
      "sectionRefId": "s1a1b58d6",
      "sectionTitle": "Communication Skills",
      "notes": "Overall communication was professional",
      "score": {
        "percentage": 90
      }
    },
    {
      "sectionRefId": "s46661c49",
      "sectionTitle": "Greeting and Introduction",
      "parentSectionRefId": "s1a1b58d6",
      "notes": "Agent followed proper greeting protocol",
      "score": {
        "percentage": 100
      }
    }
  ],
  "questions": [
    {
      "questionRefId": "q570b206a",
      "sectionRefId": "s46661c49",
      "questionType": "NUMERIC",
      "questionText": "How many times did agent interrupt the customer",
      "answer": {
        "value": "2",
        "notes": "Interruptions were minimal and appropriate",
        "metadata": {
          "notApplicable": false,
          "automation": {
            "status": "OVERRIDDEN_ANSWER",
            "systemSuggestedValue": "3"
          }
        }
      },
      "score": {
        "percentage": 80
      }
    },
    {
      "questionRefId": "q73bc5b9d",
      "sectionRefId": "s46661c49",
      "questionType": "SINGLESELECT",
      "questionText": "Did the agent introduce themselves?",
      "answer": {
        "values": [
          {
            "valueText": "Yes",
            "valueRefId": "o6999aa94",
            "selected": true
          },
          {
            "valueText": "No",
            "valueRefId": "o284e4d9e",
            "selected": false
          },
          {
            "valueText": "N/A",
            "valueRefId": "system_default_null_value",
            "selected": false
          }
        ],
        "notes": "Agent provided clear introduction with name and department",
        "metadata": {
          "notApplicable": false,
          "assistedSuggestion": {
            "value": "The agent introduced themselves at the beginning of the call."
          }
        }
      },
      "score": {
        "percentage": 100
      }
    },
    {
      "questionRefId": "h89bc7a9t",
      "sectionRefId": "s46661c49",
      "questionType": "SINGLESELECT",
      "questionText": "Did the agent ask for consent to perform a credit check",
      "answer": {
        "values": [
          {
            "valueText": "Yes",
            "valueRefId": "o6999aa94",
            "selected": false
          },
          {
            "valueText": "No",
            "valueRefId": "o284e4d9e",
            "selected": true
          },
          {
            "valueText": "N/A",
            "valueRefId": "system_default_null_value",
            "selected": false
          }
        ],
        "notes": "Agent failed to obtain consent before credit check",
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "percentage": 0,
        "automaticFail": true
      }
    },
    {
      "questionRefId": "qc2effc9d",
      "sectionRefId": "s46661c49",
      "questionType": "MULTISELECT",
      "questionText": "What topics were discussed during the call",
      "answer": {
        "values": [
          {
            "valueText": "Account balance",
            "valueRefId": "topic_balance",
            "selected": true
          },
          {
            "valueText": "Payment options",
            "valueRefId": "topic_payment",
            "selected": true
          },
          {
            "valueText": "Account closure",
            "valueRefId": "topic_closure",
            "selected": false
          }
        ],
        "notes": "Customer inquired about balance and payment plans",
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "notApplicable": true
      }
    },
    {
      "questionRefId": "q8a9b0c1d",
      "sectionRefId": "s46661c49",
      "questionType": "TEXT",
      "questionText": "What was your general impression about the customer's satisfaction",
      "answer": {
        "value": "The customer seemed satisfied with the resolution and thanked the agent",
        "notes": "Positive customer sentiment throughout the call",
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "notApplicable": true
      }
    },
    {
      "questionRefId": "q2b3c4d5e",
      "sectionRefId": "s46661c49",
      "questionType": "DATETIME",
      "questionText": "What time was the follow-up scheduled",
      "answer": {
        "value": "2024-04-16T14:30:00+01:00",
        "notes": "Follow-up appointment confirmed with customer",
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "notApplicable": true
      }
    }
  ]
}
```

# Surveillez les défaillances liées à l'évaluation des performances
<a name="performance-evaluation-events"></a>

Vous pouvez surveiller les échecs des évaluations automatisées ainsi que les exportations S3 des évaluations de contacts à l'aide de EventBridge et CloudWatch. Vous pouvez utiliser ces événements pour étudier et corriger les défaillances. Le guide suivant décrit le processus de création de EventBridge règles personnalisées pour surveiller les défaillances liées à l'évaluation des performances.

## Step-by-step guide
<a name="performance-evaluation-events-guide"></a>

Ce guide explique comment créer une EventBridge règle pour enregistrer les échecs de soumission d'évaluations automatiques à Amazon Connect et les échecs d'exportation S3 des évaluations de contacts dans votre AWS console.

1. Connectez-vous à votre AWS compte et accédez à la EventBridge console. Choisissez **Règles** dans la section **Bus**.  
![\[L'onglet Règles sous la section Bus de la EventBridge console.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/perf-eval-eventbridge-rules-tab.png)

1. Choisissez **Créer une règle** avec le bus d'événements sélectionné par défaut.  
![\[Le bouton Créer une règle avec le bus d'événements sélectionné par défaut.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/perf-eval-eventbridge-create-rule.png)

1. Donnez un nom à la règle et sélectionnez **Règle avec un modèle d'événement** pour le type de règle. Choisissez **Suivant**.  
![\[Nom de la règle et option Règle avec modèle d'événement sélectionnée.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/perf-eval-eventbridge-rule-name.png)

1. Lorsque les **événements AWS ou les événements EventBridge partenaires** sont sélectionnés sous **Événements**, sélectionnez l'option **Utiliser le formulaire de modèle** sous **Modèle d'événement**. C'est ici que vous allez définir le modèle à utiliser pour déclencher la règle.

1. Tapez et sélectionnez **Amazon Connect** dans la liste déroulante des **services AWS** pour affiner les types d'événements. Sélectionnez le type d'événement souhaité dans le menu déroulant ci-dessous. Choisissez **Next** une fois le schéma configuré.

   Pour vous abonner à des types d' EventBridge événements, créez une EventBridge règle personnalisée correspondant aux critères suivants :
   + `"source"` = `"aws.connect"`
   + `"detail-type"`, les valeurs suivantes sont possibles :
     + `"Contact Lens Automated Evaluation Submission Failed"`
     + `"Contact Lens Evaluation Export Failed"`  
![\[Le modèle d'événement avec Amazon Connect sélectionné comme service AWS.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/perf-eval-eventbridge-event-pattern.png)

1. L'étape suivante vous permet de configurer la ou les cibles pour process/receive les événements correspondants. Pour plus de simplicité, sélectionnez l'option de **groupe de CloudWatch journaux** sous **Sélectionnez une cible** et choisissez un groupe de journaux.

1. Choisissez **Suivant** et passez à l'étape finale de **révision et de création**. Choisissez **Créer une règle** une fois de plus pour terminer le processus de création de règles.

1. Désormais, si la règle est à l'état **Activé** et qu'un événement correspondant se produit, les journaux correspondants doivent apparaître dans le groupe de CloudWatch journaux configuré avec le nom correspondant dans la IDs section des métadonnées et le motif de l'échec dans la section des données.  
![\[CloudWatch groupe de journaux affichant les EventBridge événements correspondants.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/perf-eval-cloudwatch-log-group.png)  
![\[CloudWatch détail du journal indiquant les métadonnées et la raison de l'échec.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/perf-eval-cloudwatch-log-detail.png)

## Exemple de EventBridge charge utile
<a name="performance-evaluation-events-payload"></a>

Voici un exemple de EventBridge charge utile lorsque la règle correspond :

```
{  
  "version": "0",  
  "id": "00005435-d12d-c93b-d9d2-b64cba85fbb6",
  "detail-type": "Contact Lens Automated Evaluation Submission Failed",  
  "source": "aws.connect",  
  "account": "Your AWS account ID",  
  "time": "2025-10-02T10:34:56Z",  
  "region": "us-west-2",
  "resources": [],  
  "detail": {  
    "version": "1.0.0",  
    "metadata": {  
      "contactId": "4266f8e9-8420-4ee7-96cd-515d2edae1f2",
      "instanceId": "d9b0b09d-7dab-47e5-9f82-d6787fbc068c",
      "formId": "8b1365bd-1415-41a9-a491-af226e1bda4e"
    },  
    "data": {  
      "reasonCode": "ANALYSIS_FILE_ERROR",
      "message": "Automated contact evaluation submission failed due to an error when searching/retrieving/parsing the analysis file."
    }  
  }  
}
```

## Erreurs courantes
<a name="performance-evaluation-events-errors"></a>

Les erreurs suivantes peuvent se produire lorsque le système ne parvient finalement pas à traiter les évaluations après plusieurs tentatives.

### Erreurs de soumission automatique des évaluations
<a name="automated-evaluation-submission-errors"></a>


| Erreur | Message d’erreur | 
| --- | --- | 
| AUTOMATED\$1SUBMISSION\$1FAILED | La soumission automatique de l'évaluation des contacts a échoué car certaines questions n'ont pas pu être répondues. Vérifiez l'évaluation à partir and/or des configurations de règles Amazon Connect. | 
| ANALYSIS\$1FILE\$1ERROR | La soumission automatique de l'évaluation des contacts a échoué en raison d'une erreur searching/retrieving/parsing dans le fichier d'analyse. | 
| INTERNAL\$1SERVER\$1ERROR | La soumission automatique de l'évaluation des contacts a échoué en raison d'une erreur interne du serveur. Veuillez vous attendre à un délai de traitement. | 
| QUOTA\$1EXCEEDED\$1ERROR | La soumission automatique de l'évaluation des contacts a échoué car le quota restant pour utiliser Gen AI pour répondre automatiquement aux questions d'évaluation du contact est insuffisant. | 

### Evaluation : erreurs d'exportation S3
<a name="evaluation-s3-export-errors"></a>


| Erreur | Message d’erreur | 
| --- | --- | 
| S3\$1BUCKET\$1ACCESS\$1DENIED | L'exportation JSON d'évaluation des contacts a échoué en raison d'autorisations insuffisantes. | 
| S3\$1STORAGE\$1NOT\$1CONFIGURED | Le compartiment S3 d'exportation n'est pas configuré pour votre instance. | 
| INTERNAL\$1SERVER\$1ERROR | L'exportation JSON d'évaluation des contacts a échoué en raison d'une erreur interne du serveur. Veuillez vous attendre à un retard de livraison du fichier d'exportation. | 

# Sessions d’étalonnage pour les évaluations des performances
<a name="calibrations-performance-evaluations"></a>

Amazon Connect Contact Lens vous permet de mener des sessions d’étalonnage pour garantir la cohérence et la précision du mode d’évaluation des performances des agents par les responsables, afin que les agents reçoivent des commentaires cohérents. Lors d’un étalonnage, plusieurs responsables peuvent évaluer le même contact à l’aide du même formulaire d’évaluation. Vous pouvez ensuite examiner les différences entre les évaluations effectuées par les différents responsables afin de les aligner sur les bonnes pratiques d’évaluation et d’identifier les améliorations possibles du formulaire, par exemple en reformulant une question pour qu’elle soit plus précise, afin que les responsables y répondent de manière cohérente. Vous pouvez également comparer les réponses du responsable à celles d’un expert désigné, afin de mesurer et d’améliorer la précision de l’évaluation des performances des agents par ce responsable. L’expert est généralement le responsable qualité qui dirige la session d’étalonnage.

## Autorisations nécessaires aux étalonnages
<a name="calibrations-performance-evaluations-permissions"></a>

Vous avez besoin des autorisations suivantes pour les étalonnages :
+ **Création de sessions d’étalonnage :** ajoutez l’autorisation **Formulaires d’évaluation - gérer les sessions d’étalonnage** aux profils de sécurité de l’ensemble d’utilisateurs autorisés à effectuer des sessions d’étalonnage pour les évaluations de performances.
+ **Participation à une session d’étalonnage :** tout utilisateur autorisé à effectuer des évaluations, notamment avec l’autorisation **Formulaires d’évaluation - effectuer des évaluations**, peut participer à une session d’étalonnage s’il est ajouté en tant que participant.

En outre, pour ces deux ensembles d’utilisateurs, vous avez également besoin d’autorisations pour rechercher et consulter des contacts. Pour plus d’informations, consultez [Gérez les personnes autorisées à rechercher des contacts et à accéder à des informations détaillées](contact-search.md#required-permissions-search-contacts).

## Création d’une session d’étalonnage
<a name="calibrations-performance-evaluations-create"></a>

**Pour créer une session d’étalonnage**

1. Connectez-vous à Amazon Connect avec un compte utilisateur disposant des autorisations requises dans son profil de sécurité.

1. Dans le volet de navigation de gauche, accédez à **Analytique et optimisation, Recherche de contacts**.

1. Recherchez un contact au niveau duquel vous souhaitez effectuer des étalonnages (durée minimale d’interaction, file d’attente spécifique ou autre, par exemple).

1. Sur la page **Détails de contact**, choisissez **Évaluations** en haut à droite pour ouvrir le panneau latéral intitulé **Évaluations**.

1. Dans ce panneau latéral, sélectionnez le bouton radio **Session d’étalonnage**, choisissez le formulaire souhaité pour l’étalonnage à l’aide du menu déroulant, puis cliquez sur le bouton **Configurer la session d’étalonnage**.  
![\[Schéma de la configuration de la session d’étalonnage.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/calibrations-setup1.png)

1. Entrez le titre de la session d’étalonnage, sélectionnez les participants et, si vous le souhaitez, désignez un participant expert et définissez une date d’échéance.  
![\[Schéma de la configuration de la session d’étalonnage avec les participants et la date d’échéance.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/calibration-setup2.png)

1. Après sa création, la session d’étalonnage apparaîtra dans le panneau latéral. Une évaluation sera automatiquement générée pour chaque participant.  
![\[Schéma de la session d’étalonnage créée pour chaque participant.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/calibration-setup3.png)

## Modification d’une session d’étalonnage
<a name="calibrations-performance-evaluations-edit"></a>

**Pour modifier une session d’étalonnage**

1. Dans le panneau latéral, localisez les sessions d’étalonnage et choisissez **Modifier**.  
![\[Schéma illustrant l’option permettant de modifier une session d’étalonnage.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/calibrations-edit1.png)

1. Dans le formulaire qui s’ouvre dans le panneau latéral, vous pouvez modifier le titre de la session d’étalonnage, ajouter ou supprimer des participants, désigner éventuellement un participant expert et définir ou ajuster la date d’échéance.

1. Choisissez **Enregistrer** pour mettre à jour la session d’étalonnage. Les modifications sont répercutées dans le panneau latéral. Les nouveaux participants recevront automatiquement une évaluation, tandis que l’évaluation des participants qui ont été enlevés sera supprimée. 

## Réalisation d’évaluations dans le cadre d’une session d’étalonnage
<a name="calibrations-perform-evaluations"></a>

Utilisez la procédure suivante pour effectuer des évaluations dans le cadre d’une session d’étalonnage :

**Pour effectuer des évaluations**

1. Dans le panneau latéral, localisez la section **Évaluations d’étalonnage qui vous sont attribuées** pour afficher vos évaluations d’étalonnage.  
![\[Schéma des évaluations d’étalonnage qui vous sont attribuées.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/calibration-evaluations1.png)

1. Choisissez une évaluation pour l’ouvrir. Vous pouvez répondre à ces évaluations de la même manière que les évaluations standard, avec des options permettant d’enregistrer votre progression ou de soumettre l’évaluation terminée. Notez que l’automatisation est désactivée lors des sessions d’étalonnage.  
![\[Schéma d’une réponse aux évaluations d’étalonnage.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/calibration-evaluations2.png)

1. Les responsables de l’étalonnage peuvent accéder à la liste de toutes les évaluations associées à une session d’étalonnage spécifique en consultant les détails de cette session dans le panneau latéral. Ils sont également en mesure de voir les évaluations soumises par les participants.

## Finalisation d’un étalonnage
<a name="calibrations-finalize"></a>

**Pour finaliser un étalonnage**

1. Accédez à la vue détaillée de la session d’étalonnage et choisissez **Finaliser**.  
![\[Schéma illustrant le bouton de finalisation pour les étalonnages.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/calibrations-finalize.png)

1. Lorsque vous y êtes invité, confirmez la finalisation. Notez qu’une fois finalisées, ni la session ni ses évaluations ne peuvent être modifiées.

1. En quelques secondes, un rapport d’étalonnage pourra être téléchargé au format .csv. Ce rapport contient les réponses des participants qui ont soumis des évaluations, ainsi que les scores pondérés pour chaque question, chaque section et le formulaire global, les notes de l’évaluateur et la comparaison des scores de l’évaluateur avec ceux de l’évaluateur expert.

   Utilisez le champ **Écart absolu par rapport à l’expert** (une valeur faible est préférable) pour chaque participant afin de déterminer si un évaluateur s’écarte significativement de l’expert lorsqu’il répond aux questions d’évaluation. Vous pouvez également consulter le champ **Écart absolu moyen par rapport à l’expert** (une valeur faible est préférable) pour voir si certaines questions obtiennent des réponses contradictoires de la part des participants et doivent être améliorées (par exemple, en utilisant des formulations plus adaptées, en posant des questions plus spécifiques, etc.) 

## Recherche de sessions d’étalonnage
<a name="calibrations-find"></a>

Amazon Connect informe les utilisateurs participant aux sessions d’étalonnage par e-mail (par exemple, si un utilisateur est ajouté en tant que participant, si la date d’échéance est modifiée, etc.). Si un utilisateur gérant une session d’étalonnage s’est ajouté en tant que participant **expert**, il recevra également ce type d’e-mail. L’e-mail contient un lien vers le contact utilisé pour l’étalonnage. Notez que pour que les utilisateurs puissent recevoir des notifications par e-mail, vous devez attribuer des e-mails aux utilisateurs sur Amazon Connect. Pour plus d’informations, consultez [Ajouter des utilisateurs à Amazon Connect](user-management.md).

En tant que responsable de la configuration d’un étalonnage, vous pouvez copier l’ID du contact pour rechercher le contact pour lequel la session d’étalonnage a été configurée. Notez que si vous ne vous êtes pas ajouté en tant qu’expert ou si les e-mails des utilisateurs ne sont pas configurés dans Amazon Connect, vous ne recevrez pas d’e-mail contenant un lien vers le contact au niveau duquel la session d’étalonnage a été configurée.

# Ingestion des activités des agents à partir d’applications tierces pour évaluer les performances de ces agents
<a name="evaluations-external-activities"></a>

Vous pouvez importer dans Amazon Connect les activités que les agents effectuent dans des applications tierces. Ces activités sont importées sous forme de tâches Amazon Connect, que vous pouvez évaluer parallèlement au travail effectué dans Amazon Connect. Cela fournit aux responsables une application unifiée pour la gestion de la qualité.

Pour importer les activités effectuées dans des applications tierces (telles que le traitement des demandes ou les interactions sur les réseaux sociaux) en tant que tâches terminées, utilisez l'[CreateContact](https://docs.aws.amazon.com/connect/latest/APIReference/API_CreateContact.html)API. L’importation de ces activités vous permet de capturer des détails pertinents pour l’évaluation des performances sous forme d’attributs de tâche. Contrairement aux tâches créées sur le site Web de l' Amazon Connect administrateur, ces tâches importées sont déjà marquées comme terminées et n'ont pas besoin d'être acceptées par l'agent qui a effectué l'activité dans l'application externe.

Les responsables peuvent ensuite évaluer ces activités externes ainsi que les interactions natives et les tâches de back-office Amazon Connect. Ils disposent ainsi d’une vision unifiée des performances des agents dans le [Tableau de bord des évaluations des performances des agents](agent-performance-evaluation-dashboard.md). 

## Comment ingérer les activités provenant d’applications tierces
<a name="steps-for-it-admins"></a>

Les étapes suivantes sont généralement effectuées par un administrateur informatique.
+  Assurez-vous que les agents ou les employés du back-office que vous souhaitez évaluer sont des utilisateurs dans Amazon Connect. Pour ajouter de nouveaux utilisateurs, consultez [Ajouter des utilisateurs à Amazon Connect](user-management.md). 
+ Utilisez l'[CreateContact](https://docs.aws.amazon.com/connect/latest/APIReference/API_CreateContact.html)API pour intégrer toutes les activités externes effectuées par ces agents dans Amazon Connect sous forme de tâches Amazon Connect terminées. 

   Vous pouvez ingérer les éléments suivants :
  + Toutes les activités effectuées dans des applications tierces (déclenchées par la finalisation de ces activités, par exemple). Vous avez ainsi une vue complète des activités des agents dans une seule application. 
  + Un pourcentage des activités externes des agents sous forme d’échantillon que vous utiliserez pour l’évaluation des performances.

  Vous trouverez ci-dessous un exemple de demande d’API pour l’ingestion d’une activité d’autorisation de demandes effectuée dans un autre système.

  ```
  awscurl \
  --service connect \
  -X PUT \
  'https://connect.us-east-1.amazonaws.com/Prod/contact/create-contact' \
  --region us-east-1 \
  -d \
  '{
    "Channel":"TASK",
    "InstanceId":"8f3b9ab3-df68-4124-8573-2626b5c939ac", 
    "InitiationMethod":"API",
    "InitiateAs":"COMPLETED",
    "UserInfo": {"UserId": "arn:aws:connect:us-west-2:295154396770:instance/8f3b9ab3-df68-4124-8573-2626b5c939ac/agent/1c99b776-8e56-4aaa-a1bf-b950ffbe61e4"},
    "Name": "Processing Authorization #12345",
    "Description": "Customer Name: John Doe; Customer Condition: Asthma; Medication: Levocetrizin",
    "Attributes": {
      "Authorization": "12345",
      "ExternalContactType": "Authorization" 
    },
    "References": {
      "ThirdPartySystemURL": {
        "Type": "URL",
        "Value": "https://example.com/customer/12345"
      }
    }
  }'
  ```
+  Vous pouvez ajouter des informations d’activité supplémentaires dans les attributs. Ces informations peuvent être utiles aux responsables qualité qui recherchent et évaluent des contacts. Par exemple, l’appel d’API précédent inclut l’attribut personnalisé `ExternalContactType`. Il permet aux responsables de faire la distinction entre les différents types d’activités externes dans la recherche de contacts. 

   Vous pouvez également ajouter des liens vers le système tiers dans les références de contact. Ces liens permettent aux responsables de référencer des informations supplémentaires qui ne sont pas incluses dans la tâche. 
+  Pour permettre aux responsables de rechercher des activités à l’aide de ces attributs, vous devez activer la recherche qu niveau de ces attributs. Pour plus d’informations, consultez [Recherche de contacts dans Amazon Connect à l’aide d’attributs de contact personnalisés ou d’attributs de segments de contact](search-custom-attributes.md). 
**Note**  
Seules les tâches créées après la configuration de ce paramètre sont consultables à l’aide de ces attributs.

## Comment évaluer les activités externes
<a name="steps-for-managers"></a>

Les étapes suivantes sont généralement effectuées par les responsables.

 Les responsables peuvent évaluer les activités ingérées dans Amazon Connect de la même manière qu’ils évaluent les contacts Amazon Connect natifs. Pour plus d’informations, consultez [Évaluation des performances](evaluations.md).

 Si votre administrateur a configuré la recherche au niveau des attributs de contact personnalisés, vous pouvez rechercher des activités externes à l’aide d’identifiants, tels que le type et l’ID d’activité. 

L’image suivante montre une recherche de contacts `Completed`, où `Attribute` = `ExternalContactType`.

![\[Une recherche de contacts pour les contacts complets avec Attribute = ExternalContactType.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluate-external-activities1.png)


L’image suivante montre un exemple de ce à quoi ressemblent les détails d’un contact externe terminé. Dans cette image : 
+ Sous-type de canal = connexion : ExternalTask
+ Méthode d’initiation = API
+ Les références incluent l’URL du système tiers

![\[Détails d’un contact externe.\]](http://docs.aws.amazon.com/fr_fr/connect/latest/adminguide/images/evaluate-external-activities2.png)
