Options de gestion des contenus préjudiciables détectés par les barrières de protection Amazon Bedrock - Amazon Bedrock

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Options de gestion des contenus préjudiciables détectés par les barrières de protection Amazon Bedrock

Vous pouvez configurer les actions effectuées par votre barrière de protection Amazon Bedrock au moment de l’exécution lorsqu’elle détecte un contenu préjudiciable dans les invites (inputAction) et les réponses (outputAction).

Les politiques de filtrage des barrières de protection prennent en charge les actions suivantes lorsqu’un contenu préjudiciable est détecté dans les entrées et les réponses du modèle :

  • Bloquer : bloque le contenu et le remplace par des messages de blocage.

  • Masquer : anonymise le contenu et le remplace par des balises d’identification (telles que {NAME} ou{EMAIL}).

    Cette option est uniquement disponible avec les filtres d’informations sensibles. Pour de plus amples informations, veuillez consulter Suppression des données d’identification personnelle (PII) des conversations à l’aide des filtres d’informations sensibles.

  • Détecter : n’effectue aucune action, mais renvoie ce que la barrière de protection détecte dans la réponse de traçage. Utilisez cette option, connue sous le nom de mode détection, pour évaluer si votre barrière de protection fonctionne comme prévu.

Évaluation par une barrière de protection en mode détection

Les politiques de barrières de protection Amazon Bedrock prennent en charge le mode détection, qui vous permet d’évaluer les performances de votre barrière de protection sans effectuer aucune action (comme le blocage du contenu).

L’utilisation du mode détection comporte les avantages suivants :

  • Vous pouvez tester les points forts et différentes combinaisons des politiques de votre barrière de protection sans affecter l’expérience client.

  • Vous pouvez analyser les faux positifs ou négatifs et ajuster les configurations de vos politiques en conséquence.

  • Vous pouvez déployer votre barrière de protection uniquement après avoir confirmé qu’elle fonctionne comme prévu.

Exemple d’utilisation du mode détection pour évaluer les filtres de contenu

Par exemple, imaginons que vous configuriez une politique avec un filtrage de contenu de niveau HIGH. Sur la base de ce paramètre, votre barrière de protection bloque le contenu même si elle renvoie une valeur de confiance LOW dans son évaluation.

Pour comprendre ce comportement (et vous assurer que votre application ne bloque pas du contenu inattendu), vous pouvez configurer l’action de la politique sur NONE. La réponse de traçage peut ressembler à ceci :

{ "assessments": [{ "contentPolicy": { "filters": [{ "action": "NONE", "confidence": "LOW", "detected": true, "filterStrength": "HIGH", "type": "VIOLENCE" }] } }] }

Cela vous permet de prévisualiser l’évaluation de la barrière de protection et de voir que la catégorie VIOLENCE a été détecté (true), mais qu’aucune action n’a été effectuée, car vous configurée ceci sur NONE.

Si vous ne souhaitez pas bloquer ce texte, vous pouvez régler la force du filtre sur MEDIUM ou LOW et refaire l’évaluation. Après avoir obtenu les résultats que vous recherchez, vous pouvez mettre à jour l’action de votre politique sur BLOCK ou ANONYMIZE.