Detecção de abuso no Amazon Bedrock - Amazon Bedrock

Detecção de abuso no Amazon Bedrock

A AWS está comprometida com o uso responsável da IA. Para ajudar a evitar possíveis usos indevidos, o Amazon Bedrock implementa mecanismos automatizados de detecção de abuso para identificar possíveis violações da Política de uso aceitável (AUP) e dos Termos de Serviço da AWS, incluindo a Política de IA responsável ou a AUP de um provedor de modelos de terceiros.

Nossos mecanismos de detecção de abuso são totalmente automatizados, portanto não há análise humana nem acesso às entradas do usuário ou às saídas do modelo.

A detecção automática de abuso inclui:

  • Categorização do conteúdo: usamos classificadores para detectar conteúdo prejudicial (como conteúdo que incita a violência) nas entradas do usuário e nas saídas do modelo. Um classificador é um algoritmo que processa entradas e saídas do modelo e atribui o tipo de dano e nível de confiança. Podemos executar esses classificadores no uso do modelo Titan quanto de modelos de terceiros. Isso pode incluir modelos ajustados por meio da personalização de modelos do Amazon Bedrock. O processo de classificação é automatizado e não envolve análise humana das entradas ou saídas do usuário modelo.

  • Identificação de padrões: usamos métricas de classificadores para identificar possíveis violações e comportamentos recorrentes. Podemos compilar e compartilhar métricas de classificadores anônimas com provedores de modelos de terceiros. O Amazon Bedrock não armazena a entrada do usuário ou a saída do modelo nem as compartilha com provedores de modelos de terceiros.

  • Detecção e bloqueio de material de abuso sexual infantil (CSAM): o cliente (e seus usuários finais) é responsável pelo conteúdo que carrega no Amazon Bedrock e deve garantir que ele esteja livre de imagens ilegais. Para ajudar a impedir a disseminação de CSAM, o Amazon Bedrock pode usar mecanismos automatizados de detecção de abuso (como tecnologia de correspondência de hash ou classificadores) para detectar CSAM aparente. Se o Amazon Bedrock detectar CSAM aparente nas entradas de imagem do cliente, ele bloqueará a solicitação e enviará uma mensagem de erro automática. O Amazon Bedrock também pode registrar uma denúncia no Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) ou em uma autoridade relevante. Levamos o CSAM a sério e continuaremos a atualizar nossos mecanismos de detecção, bloqueio e denúncia. De acordo com as leis aplicáveis, o cliente pode ser obrigado a tomar medidas adicionais e é responsável por essas medidas.

Quando nossos mecanismos automatizados de detecção de abuso identificarem possíveis violações, poderemos solicitar ao cliente informações sobre o seu uso do Amazon Bedrock e a sua conformidade com nossos termos de serviço ou com a AUP de provedores de terceiros. Caso um cliente não possa, não queira ou não tome providências para agir de acordo com esses termos ou políticas, a AWS poderá suspender seu acesso ao Amazon Bedrock. Além disso, trabalhos de ajuste fino reprovados estão sujeitos a cobranças se nossos testes automatizados detectarem que as respostas do modelo são inconsistentes com os termos e políticas de licenças de fornecedores de modelos terceiros.

Em caso de dúvidas, entre em contato com o AWS Support. Para obter mais informações, consulte as Perguntas frequentes sobre o Amazon Bedrock.