Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Bloqueo de palabras y conversaciones dañinas con filtros de contenido
Amazon Bedrock Guardrails admite filtros de contenido para ayudar a detectar y filtrar las entradas dañinas de los usuarios y las salidas generadas por modelos en lenguaje natural. Los filtros de contenido se admiten en las siguientes categorías:
Odio
Describe las sugerencias y modela las respuestas que discriminan, critican, insultan, denuncian o deshumanizan a una persona o grupo por motivos de identidad (por ejemplo, raza, etnia, género, religión, orientación sexual, capacidad y origen nacional).
Insultos
Describe las indicaciones de entrada y modela las respuestas que incluyen un lenguaje degradante, humillante, burlón, insultante o denigrante. Este tipo de lenguaje también se denomina intimidación.
Sexual
Describe las indicaciones de entrada y modela las respuestas que indican interés, actividad o excitación sexual utilizando referencias directas o indirectas a partes del cuerpo, rasgos físicos o sexo.
Violencia
Describe las indicaciones de entrada y modela las respuestas, que incluyen la glorificación o las amenazas de infligir dolor físico, lesión o lesión a una persona, grupo o cosa.
Mala conducta
Describe las sugerencias y modela las respuestas que buscan o proporcionan información sobre la participación en actividades delictivas o sobre el daño, la defraudación o el aprovechamiento de una persona, grupo o institución.
Configura filtros de contenido para tu barandilla
Puede configurar filtros de contenido para su barandilla mediante la API o AWS Management Console Amazon Bedrock.