Detección de abusos de Amazon Bedrock
AWS tiene el compromiso de usar responsablemente la IA. Para ayudar a prevenir un posible uso indebido, Amazon Bedrock implementa mecanismos automatizados de detección de abusos para identificar y mitigar las posibles infracciones de la Política de uso aceptable (AUP)
Nuestros mecanismos de detección de abusos están totalmente automatizados, por lo que no se puede revisar ni acceder a las entradas de usuario ni a las salidas del modelo.
La detección automática de abusos incluye:
-
Categorizar el contenido: utilizamos clasificadores para detectar el contenido dañino (como el que incita a la violencia) en las entradas de usuario y en las salidas del modelo. Un clasificador es un algoritmo que procesa las entradas y salidas del modelo y asigna el tipo de daño y el nivel de confianza. Podemos utilizar estos clasificadores tanto en Titan como en modelos de terceros. Esto puede incluir modelos que se hayan refinado con la personalización de modelos de Amazon Bedrock. El proceso de clasificación está automatizado y no implica la revisión humana de entradas de usuario ni de salidas del modelo.
-
Identificar patrones: utilizamos métricas de clasificación para identificar posibles infracciones y comportamientos recurrentes. Podemos recopilar y compartir métricas de clasificadores anónimas con proveedores de modelos externos. Amazon Bedrock no almacena las entradas de usuario ni las salidas del modelo y no las comparte con proveedores de modelos externos.
-
Detección y bloqueo de material de abuso sexual infantil (CSAM): usted es responsable del contenido que usted y sus usuarios finales suban a Amazon Bedrock y debe asegurarse de que no contenga imágenes ilegales. Para ayudar a detener la difusión de CSAM, Amazon Bedrock puede utilizar mecanismos automatizados de detección de abusos (como la tecnología de coincidencia de hash o los clasificadores) para detectar posible CSAM. Si Amazon Bedrock detecta posible CSAM en las entradas de imágenes, bloqueará la solicitud y usted recibirá un mensaje de error automático. Amazon Bedrock también puede remitir una denuncia al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC, por sus siglas en inglés) o a la autoridad pertinente. Nos tomamos muy en serio el CSAM y, por ello, no dejaremos de actualizar nuestros mecanismos de detección, bloqueo y notificación. Es posible que las leyes aplicables le exijan que tome medidas adicionales. Usted es responsable de tomar dichas medidas.
Cuando nuestros mecanismos automatizados de detección de abusos identifiquen posibles infracciones, podemos solicitar información sobre el uso que hace de Amazon Bedrock y sobre el cumplimiento de nuestras condiciones de servicio o de la AUP de un proveedor externo. En el caso de que no responda, se niegue o no pueda cumplir con estos términos o políticas, AWS podría suspender su acceso a Amazon Bedrock. También es posible que se le facture por los trabajos de refinamiento que hayan fallado si nuestras pruebas automatizadas detectan que las respuestas de los modelos no cumplen los términos de licencia y las políticas de los proveedores de modelos de terceros.
Si tiene alguna pregunta, póngase en contacto con AWS Support. Para obtener más información, consulte las preguntas frecuentes de Amazon Bedrock