Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Opciones para tratar contenido dañino detectado por Barreras de protección para Amazon Bedrock
Puede configurar las acciones que realizará su barrera de protección de Amazon Bedrock en tiempo de ejecución cuando detecte contenido dañino en las peticiones (inputAction) y las respuestas (outputAction).
Las políticas de filtrado de barreras de protección permiten las siguientes acciones cuando se detecta contenido dañino en las entradas y respuestas del modelo:
-
Bloquear: bloquea el contenido y lo sustituye por mensajes bloqueados.
-
Enmascarar: anonimiza el contenido y lo sustituye por etiquetas de identificador (como
{NAME}o{EMAIL}).Esta opción solo está disponible con los filtros de información confidencial. Para obtener más información, consulte Eliminación de la PII de las conversaciones con filtros de información confidencial.
-
Detectar: no realiza ninguna acción, pero devuelve lo que la barrera de protección detecte en la respuesta de rastreo. Utilice esta opción, conocida como modo de detección, para evaluar si la barrera de protección funciona de la manera esperada.
Evaluación de barreras de protección con modo de detección
Las políticas de Barreras de protección para Amazon Bedrock admiten el modo de detección, que le permite evaluar el rendimiento de su barrera de protección sin aplicar ninguna acción (como bloquear el contenido).
Entre los beneficios de utilizar el modo de detección se incluyen los siguientes:
-
Pruebe diferentes combinaciones y puntos fuertes de las políticas de su barrera de protección sin que ello repercuta en la experiencia del cliente.
-
Analice los falsos positivos o negativos y ajuste las configuraciones de sus políticas en consecuencia.
-
Implemente la barrera de protección solo después de confirmar que funciona según lo esperado.
Ejemplo: uso del modo de detección para evaluar los filtros de contenido
Supongamos, por ejemplo, que configura una política con una intensidad de filtro de contenido de HIGH. Según esta configuración, la barrera de protección bloqueará el contenido aunque devuelva la confianza de LOW en su evaluación.
Para entender este comportamiento (y asegurarse de que su aplicación no bloquee el contenido que no espere que bloquee), puede configurar la acción de la política como NONE. La respuesta de rastreo podría tener el siguiente aspecto:
{ "assessments": [{ "contentPolicy": { "filters": [{ "action": "NONE", "confidence": "LOW", "detected": true, "filterStrength": "HIGH", "type": "VIOLENCE" }] } }] }
Esto le permite obtener una vista previa de la evaluación de la barrera de protección y saber si se detectó VIOLENCE (true), pero no se realizó ninguna acción porque la estableció en NONE.
Si no quiere bloquear ese texto, puede ajustar la intensidad del filtro a MEDIUM o LOW y repetir la evaluación. Una vez que obtenga los resultados que busca, puede actualizar la acción de la política a BLOCK o ANONYMIZE.