Criar barreiras de proteção de IA para Amazon Q no Connect - Amazon Connect

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Criar barreiras de proteção de IA para Amazon Q no Connect

Uma barreira de proteção de IA é um recurso que permite que você implemente proteções com base em seus casos de uso e políticas de IA responsável.

O Amazon Connect usa barreiras de proteção do Amazon Bedrock. Você pode criar e editar essas barreiras de proteção no site de administração do Amazon Connect .

O que é importante saber

  • É possível criar até três barreiras de proteção personalizadas.

  • As barreiras de proteção do Amazon Q no Connect oferecem suporte aos mesmos idiomas do nível clássico das barreiras de proteção do Amazon Bedrock. Para acessar uma lista completa de idiomas compatíveis, consulte Idiomas compatíveis com as barreiras de proteção do Amazon Bedrock. A avaliação de conteúdo textual em outros idiomas será ineficaz.

  • Ao configurar ou editar uma barreira de proteção, é altamente recomendável que você faça testes e compare com configurações diferentes. É possível que algumas de suas combinações tenham consequências inesperadas. Teste a barreira de proteção para garantir que os resultados atendam aos requisitos do seu caso de uso.

Como criar uma barreira de proteção de IA

  1. Faça login no site de Amazon Connect administração com uma conta que tenha Amazon Q, AI guardrails - Crie permissão em seu perfil de segurança.

  2. No site do Amazon Connect administrador, no menu de navegação esquerdo, escolha Amazon Q, AI guardrails.

  3. Na página Barreiras de proteção, escolha Criar barreira de proteção.

  4. Na caixa de diálogo Criar barreira de proteção de IA, insira um nome e uma descrição para a barreira de proteção e escolha Criar.

  5. Na página Construtor de barreiras de proteção de IA, preencha os seguintes campos conforme necessário para criar políticas para a sua barreira de proteção:

    • Filtros de conteúdo: ajuste a intensidade dos filtros para ajudar a bloquear prompts de entrada ou respostas de modelo que tenham conteúdo prejudicial. A filtragem é feita com base na detecção de determinadas categorias predefinidas de conteúdo prejudicial, como ódio, insultos, sexo, violência, má conduta e ataque de prompt.

    • Tópicos negados: defina um conjunto de tópicos que não são desejáveis no contexto da sua aplicação. O filtro ajudará a bloqueá-los se detectados em consultas do usuário ou nas respostas do modelo. É possível adicionar até 30 tópicos negados.

    • Verificação contextual de aterramento: ajude a detectar e filtrar alucinações nas respostas do modelo de acordo com uma fonte de base e a relevância para a consulta do usuário.

    • Filtros de palavras: configure filtros para ajudar a bloquear palavras, frases e palavrões indesejáveis (correspondência exata). Essas palavras podem incluir termos ofensivos, nomes de concorrentes etc.

    • Filtros de informações confidenciais: configure filtros para ajudar a bloquear ou mascarar informações confidenciais, como informações de identificação pessoal (PII), ou expressões regulares personalizadas nas entradas de usuário e nas respostas do modelo.

      O bloqueio ou mascaramento é feito com base na detecção probabilística de informações confidenciais em formatos padrão em entidades como número SSN, data de nascimento, endereço etc. Isso também permite configurar a detecção de padrões baseada em expressões regulares para identificadores.

    • Mensagens bloqueadas: personalize a mensagem padrão que é exibida para o usuário se a barreira de proteção bloquear a entrada ou a resposta do modelo.

    O Amazon Connect não oferece suporte ao Filtro de conteúdo de imagem para ajudar a detectar e filtrar conteúdo de imagem impróprio ou tóxico.

  6. Quando a barreira de proteção estiver completa, escolha Salvar.

    Ao selecionar na lista suspensa de versões, Latest:Draft sempre retorna o estado salvo da barreira de proteção de IA.

  7. Selecione Publish. As atualizações na barreira de proteção de IA são salvas, o status de visibilidade da barreira de proteção de IA é definido como Publicada e uma nova versão da barreira de proteção de IA é criada.

    A página da barreira de proteção de IA com o status de visibilidade definido como Publicada.

    Ao selecionar na lista suspensa de versões, Latest:Published sempre retorna o estado salvo da barreira de proteção de IA.

Alterar a mensagem padrão de bloqueio

Esta seção explica como acessar o construtor e editor de barreiras de proteção de IA no site de administração do Amazon Connect , usando o exemplo de alteração da mensagem de bloqueio que é exibida aos usuários.

A imagem a seguir mostra um exemplo da mensagem de bloqueio padrão exibida para um usuário. A mensagem padrão é “Blocked input text by guardrail”.

Um exemplo de uma mensagem de barreira de proteção padrão exibida para um cliente.
Como alterar a mensagem de bloqueio padrão
  1. Faça login no site do Amazon Connect administrador em https://instance name.my.connect.aws/. Use uma conta de administrador ou uma conta com permissão para Amazon Q - Barreiras de proteção de IA - Criar em seu perfil de segurança.

  2. No menu de navegação, escolha Amazon Q e Barreiras de proteção de IA.

  3. Na página Barreiras de proteção de IA, escolha Criar barreira de proteção de IA. Uma caixa de diálogo é exibida para você atribuir um nome e uma descrição.

  4. Na caixa de diálogo Criar barreira de proteção de IA, insira um nome e uma descrição, depois escolha Criar. Se sua empresa já tiver três barreiras de proteção, você receberá uma mensagem de erro, conforme mostrado na imagem a seguir.

    Uma mensagem de que sua empresa já tem três barreiras de proteção.

    Se você receber essa mensagem, em vez de criar outra barreira de proteção, considere editar uma barreira existente para atender às suas necessidades. Ou exclua uma para poder criar outra.

  5. Para alterar a mensagem padrão que é exibida quando a barreira de proteção bloqueia a resposta do modelo, vá até a seção Mensagens bloqueadas.

  6. Insira o texto da mensagem de bloqueio que deseja exibir, escolha Salvar e Publicar.

Exemplos de comandos da CLI para configurar políticas de barreira de proteção de IA

Veja a seguir exemplos de como configurar as políticas de barreira de proteção de IA usando a AWS CLI.

Bloquear tópicos indesejáveis

Use o exemplo de comando AWS CLI a seguir para bloquear tópicos indesejáveis.

aws qconnect update-ai-guardrail --cli-input-json { "assistantId": "a0a81ecf-6df1-4f91-9513-3bdcb9497e32", "aiGuardrailId": "9147c4ad-7870-46ba-b6c1-7671f6ca3d95", "blockedInputMessaging": "Blocked input text by guardrail", "blockedOutputsMessaging": "Blocked output text by guardrail", "visibilityStatus": "PUBLISHED", "topicPolicyConfig": { "topicsConfig": [ { "name": "Financial Advice", "definition": "Investment advice refers to financial inquiries, guidance, or recommendations with the goal of generating returns or achieving specific financial objectives.", "examples": ["- Is investment in stocks better than index funds?", "Which stocks should I invest into?", "- Can you manage my personal finance?"], "type": "DENY" } ] } }

Filtrar conteúdo nocivo e impróprio

Use o seguinte exemplo de comando da AWS CLI para filtrar conteúdo nocivo e impróprio.

aws qconnect update-ai-guardrail --cli-input-json { "assistantId": "a0a81ecf-6df1-4f91-9513-3bdcb9497e32", "aiGuardrailId": "9147c4ad-7870-46ba-b6c1-7671f6ca3d95", "blockedInputMessaging": "Blocked input text by guardrail", "blockedOutputsMessaging": "Blocked output text by guardrail", "visibilityStatus": "PUBLISHED", "contentPolicyConfig": { "filtersConfig": [ { "inputStrength": "HIGH", "outputStrength": "HIGH", "type": "INSULTS" } ] } }

Filtrar palavras nocivas e impróprias

Use o exemplo de comando AWS CLI a seguir para filtrar palavras nocivas e inapropriadas. 

aws qconnect update-ai-guardrail --cli-input-json { "assistantId": "a0a81ecf-6df1-4f91-9513-3bdcb9497e32", "aiGuardrailId": "9147c4ad-7870-46ba-b6c1-7671f6ca3d95", "blockedInputMessaging": "Blocked input text by guardrail", "blockedOutputsMessaging": "Blocked output text by guardrail", "visibilityStatus": "PUBLISHED", "wordPolicyConfig": { "wordsConfig": [ { "text": "Nvidia", }, ] } }

Detectar alucinações na resposta do modelo

Use o seguinte exemplo de comando AWS CLI para detectar alucinações na resposta do modelo. 

aws qconnect update-ai-guardrail --cli-input-json { "assistantId": "a0a81ecf-6df1-4f91-9513-3bdcb9497e32", "aiGuardrailId": "9147c4ad-7870-46ba-b6c1-7671f6ca3d95", "blockedInputMessaging": "Blocked input text by guardrail", "blockedOutputsMessaging": "Blocked output text by guardrail", "visibilityStatus": "PUBLISHED", "contextualGroundPolicyConfig": { "filtersConfig": [ { "type": "RELEVANCE", "threshold": 0.50 }, ] } }

Ocultar informações confidenciais

Use o seguinte exemplo de comando da AWS CLI para redigir informações confidenciais, como informações pessoais identificáveis (PII).

aws qconnect update-ai-guardrail --cli-input-json { "assistantId": "a0a81ecf-6df1-4f91-9513-3bdcb9497e32", "aiGuardrailId": "9147c4ad-7870-46ba-b6c1-7671f6ca3d95", "blockedInputMessaging": "Blocked input text by guardrail", "blockedOutputsMessaging": "Blocked output text by guardrail", "visibilityStatus": "PUBLISHED", "sensitiveInformationPolicyConfig": { "piiEntitiesConfig": [ { "type": "CREDIT_DEBIT_CARD_NUMBER", "action":"BLOCK", }, ] } }