Crea guardrail AI per Amazon Q in Connect - Amazon Connect

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Crea guardrail AI per Amazon Q in Connect

Un guardrail basato sull'intelligenza artificiale è una risorsa che consente di implementare misure di protezione basate sui casi d'uso e sulle politiche di intelligenza artificiale responsabili.

Amazon Connect utilizza i guardrail Amazon Bedrock. Puoi creare e modificare questi guardrail nel sito web di amministrazione. Amazon Connect

Informazioni importanti

  • Puoi creare fino a tre guardrail personalizzati.

  • I guardrail Amazon Q in Connect supportano le stesse lingue dei guardrails di livello classico di Amazon Bedrock. Per un elenco completo delle lingue supportate, consulta Lingue supportate da Amazon Bedrock Guardrails. La valutazione del contenuto testuale in altre lingue sarà inefficace.

  • Quando configuri o modifichi un guardrail, ti consigliamo vivamente di sperimentare e confrontare configurazioni diverse. È possibile che alcune delle tue combinazioni abbiano conseguenze indesiderate. Prova il guardrail per assicurarti che i risultati soddisfino i requisiti del caso d'uso.

Come creare un guardrail AI

  1. Accedi al sito Web di Amazon Connect amministrazione con un account con Amazon Q, AI guardrails - Crea l'autorizzazione nel suo profilo di sicurezza.

  2. Nel sito web di Amazon Connect amministrazione, nel menu di navigazione a sinistra, scegli Amazon Q, AI guardrails.

  3. Nella pagina Guardrails, scegli Crea Guardrail.

  4. Nella finestra di dialogo Crea guardrail AI, inserisci un nome e una descrizione del guardrail, quindi scegli Crea.

  5. Nella pagina AI Guardrail Builder, completa i seguenti campi secondo necessità per creare politiche per il tuo guardrail:

    • Filtri per i contenuti: regola la potenza dei filtri per bloccare le richieste di input o modellare le risposte contenenti contenuti dannosi. Il filtraggio viene eseguito in base al rilevamento di alcune categorie di contenuti dannosi predefinite: odio, insulti, sesso, violenza, cattiva condotta e attacco immediato.

    • Argomenti negati: definisci una serie di argomenti indesiderati nel contesto della tua candidatura. Il filtro aiuterà a bloccarli se rilevati nelle domande degli utenti o nelle risposte del modello. Puoi aggiungere fino a 30 argomenti negati.

    • Controllo contestuale del grounding: aiuta a rilevare e filtrare le allucinazioni nelle risposte del modello in base alla provenienza e alla pertinenza della domanda dell'utente.

    • Filtri testuali: configura i filtri per bloccare parole, frasi e parolacce indesiderate (corrispondenza esatta). Tali parole possono includere termini offensivi, nomi di concorrenti, ecc.

    • Filtri per informazioni sensibili: configura i filtri per bloccare o mascherare le informazioni sensibili, come le informazioni di identificazione personale (PII) o espressioni regolari personalizzate negli input degli utenti e nelle risposte del modello.

      Il blocco o il mascheramento vengono eseguiti sulla base del rilevamento probabilistico di informazioni sensibili in formati standard in entità come numero SSN, data di nascita, indirizzo, ecc. Ciò consente anche di configurare il rilevamento dei pattern per gli identificatori basato su espressioni regolari.

    • Messaggi bloccati: personalizza il messaggio predefinito che viene visualizzato all'utente se il guardrail blocca l'input o la risposta del modello.

    Amazon Connect non supporta il filtro dei contenuti delle immagini per aiutare a rilevare e filtrare contenuti di immagini inappropriati o tossici.

  6. Quando il guardrail è completo, scegli Salva.

    Quando si seleziona dal menu a discesa delle versioni, Latest:Draft restituisce sempre lo stato salvato del guardrail AI.

  7. Seleziona Publish (Pubblica). Gli aggiornamenti al guardrail AI vengono salvati, lo stato di visibilità del guardrail AI è impostato su Pubblicato e viene creata una nuova versione di AI Guardrail.

    La pagina AI guardrail, lo stato di visibilità è impostato su Pubblicato.

    Quando si seleziona dal menu a discesa delle versioni, Latest:Published restituisce sempre lo stato salvato del guardrail AI.

Cambia il messaggio bloccato predefinito

Questa sezione spiega come accedere al generatore e all'editor di AI Guardrail nel sito Web di Amazon Connect amministrazione, utilizzando l'esempio della modifica del messaggio bloccato visualizzato agli utenti.

L'immagine seguente mostra un esempio del messaggio bloccato predefinito che viene visualizzato a un utente. Il messaggio predefinito è «Testo di input bloccato da guardrail».

Un esempio di messaggio guardrail predefinito visualizzato da un cliente.
Per modificare il messaggio bloccato predefinito
  1. Accedi al sito web di Amazon Connect amministrazione all'indirizzo https://instance name.my.connect.aws/. Usa un account amministratore o un account con Amazon Q - AI guardrails - Crea l'autorizzazione nel suo profilo di sicurezza.

  2. Nel menu di navigazione, scegli Amazon Q, AI guardrails.

  3. Nella pagina AI Guardrails, scegli Crea AI Guardrail. Viene visualizzata una finestra di dialogo per assegnare un nome e una descrizione.

  4. Nella finestra di dialogo Crea AI Guardrail, inserisci un nome e una descrizione, quindi scegli Crea. Se la tua azienda ha già tre guardrail, riceverai un messaggio di errore, come mostrato nell'immagine seguente.

    Un messaggio che indica che la tua azienda ha già tre barriere.

    Se ricevete questo messaggio, anziché creare un altro guardrail, prendete in considerazione la possibilità di modificare un guardrail esistente per soddisfare le vostre esigenze. In alternativa, eliminane uno in modo da poterne creare un altro.

  5. Per modificare il messaggio predefinito visualizzato quando guardrail blocca la risposta del modello, scorri fino alla sezione Messaggi bloccati.

  6. Inserisci il testo del messaggio di blocco che desideri venga visualizzato, scegli Salva, quindi Pubblica.

Esempi di comandi CLI per configurare le politiche di AI guardrail

Di seguito sono riportati alcuni esempi di come configurare le politiche del guardrail AI utilizzando la AWS CLI.

Blocca argomenti indesiderati

Usa il seguente comando AWS CLI di esempio per bloccare argomenti indesiderati.

{         "assistantId": "a0a81ecf-6df1-4f91-9513-3bdcb9497e32",         "name": "test-ai-guardrail-2",         "description": "This is a test ai-guardrail",         "blockedInputMessaging": "Blocked input text by guardrail",         "blockedOutputsMessaging": "Blocked output text by guardrail",         "visibilityStatus": "PUBLISHED",         "topicPolicyConfig": {                   "topicsConfig": [                     {                       "name": "Financial Advice",                       "definition": "Investment advice refers to financial inquiries, guidance, or recommendations with the goal of generating returns or achieving specific financial objectives.",                       "examples": ["- Is investment in stocks better than index funds?", "Which stocks should I invest into?", "- Can you manage my personal finance?"],                       "type": "DENY"                     }                   ]                 }     }

Filtra contenuti dannosi e inappropriati

Utilizza il seguente comando AWS CLI di esempio per filtrare contenuti dannosi e inappropriati.

{         "assistantId": "a0a81ecf-6df1-4f91-9513-3bdcb9497e32",         "name": "test-ai-guardrail-2",         "description": "This is a test ai-guardrail",         "blockedInputMessaging": "Blocked input text by guardrail",         "blockedOutputsMessaging": "Blocked output text by guardrail",         "visibilityStatus": "PUBLISHED",         "contentPolicyConfig": {                   "filtersConfig": [                     {                        "inputStrength": "HIGH",                        "outputStrength": "HIGH",                        "type": "INSULTS"                     }                   ]                 }     }

Filtra parole dannose e inappropriate

Utilizza il seguente comando AWS CLI di esempio per filtrare parole dannose e inappropriate. 

{         "assistantId": "a0a81ecf-6df1-4f91-9513-3bdcb9497e32",         "name": "test-ai-guardrail-2",         "description": "This is a test ai-guardrail",         "blockedInputMessaging": "Blocked input text by guardrail",         "blockedOutputsMessaging": "Blocked output text by guardrail",         "visibilityStatus": "PUBLISHED",         "wordPolicyConfig": {                   "wordsConfig": [                     {                        "text": "Nvidia",                     },                   ]                 }     }

Rileva le allucinazioni nella risposta del modello

Usa il seguente comando AWS CLI di esempio per rilevare allucinazioni nella risposta del modello. 

{         "assistantId": "a0a81ecf-6df1-4f91-9513-3bdcb9497e32",         "name": "test-ai-guardrail-2",         "description": "This is a test ai-guardrail",         "blockedInputMessaging": "Blocked input text by guardrail",         "blockedOutputsMessaging": "Blocked output text by guardrail",         "visibilityStatus": "PUBLISHED",         "contextualGroundPolicyConfig": {                   "filtersConfig": [                     {                        "type": "RELEVANCE",                        "threshold": 0.50                     },                   ]                 }     }

Oscura le informazioni sensibili

Utilizza il seguente comando AWS CLI di esempio per oscurare informazioni sensibili come le informazioni personali identificabili (PII).

{         "assistantId": "a0a81ecf-6df1-4f91-9513-3bdcb9497e32",         "name": "test-ai-guardrail-2",         "description": "This is a test ai-guardrail",         "blockedInputMessaging": "Blocked input text by guardrail",         "blockedOutputsMessaging": "Blocked output text by guardrail",         "visibilityStatus": "PUBLISHED",         "sensitiveInformationPolicyConfig": {                   "piiEntitiesConfig": [                     {                        "type": "CREDIT_DEBIT_CARD_NUMBER",                        "action":"BLOCK",                     },                   ]                 }     }