Crea il tuo guardrail - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Crea il tuo guardrail

Amazon Bedrock Guardrails consiste in una raccolta di diverse politiche di filtraggio che puoi configurare per evitare contenuti indesiderati e dannosi e rimuovere o mascherare informazioni sensibili per la protezione della privacy.

Puoi configurare le seguenti politiche in un guardrail:

  • Filtri di contenuto: è possibile configurare delle soglie per bloccare le richieste di input o modellare le risposte in linguaggio naturale per il testo e separatamente per le immagini contenenti contenuti dannosi come: odio, insulti, atti sessuali, violenti, scorretti (compresa l'attività criminale) e attacchi rapidi (prompt injection e jailbreak). Ad esempio, un sito di e-commerce può progettare il proprio assistente online in modo da evitare l'uso di immagini con un linguaggio inappropriato, come odio o violenza. and/or

  • Attacchi rapidi: può aiutarti a rilevare e filtrare gli attacchi immediati e le iniezioni immediate. Aiuta a rilevare i prompt che hanno lo scopo di aggirare la moderazione, ignorare le istruzioni o generare contenuti dannosi.

  • Argomenti negati: puoi definire una serie di argomenti da evitare all'interno della tua applicazione di intelligenza artificiale generativa. Ad esempio, è possibile progettare un'applicazione di assistente bancario per evitare argomenti relativi alla consulenza illegale in materia di investimenti.

  • Filtri di parole: puoi configurare un set di parole o frasi personalizzate (corrispondenza esatta) che desideri rilevare e bloccare nell'interazione tra gli utenti e le applicazioni di intelligenza artificiale generativa. Ad esempio, puoi rilevare e bloccare parolacce, nonché parole personalizzate specifiche come i nomi dei concorrenti o altre parole offensive.

  • Filtri per informazioni sensibili: possono aiutarti a rilevare contenuti sensibili come informazioni di identificazione personale (PII) in formati standard o entità regex personalizzate negli input degli utenti e nelle risposte FM. In base al caso d'uso, è possibile rifiutare gli input contenenti informazioni sensibili o oscurarli nelle risposte FM. Ad esempio, puoi oscurare le informazioni personali degli utenti generando riepiloghi dalle trascrizioni delle conversazioni con clienti e agenti.

  • Controllo contestuale del fondamento: può aiutarvi a rilevare e filtrare le allucinazioni nelle risposte del modello se queste non sono fondate (di fatto imprecise o aggiungono nuove informazioni) nelle informazioni di origine o sono irrilevanti rispetto alla richiesta dell'utente. Ad esempio, è possibile bloccare o contrassegnare le risposte nelle applicazioni RAG (generazione aumentata di recupero), se le risposte del modello si discostano dalle informazioni nei passaggi recuperati o non rispondono alla domanda dell'utente.

Nota

Tutti i contenuti bloccati dalle politiche di cui sopra verranno visualizzati come testo semplice in Amazon Bedrock Model Invocation Logs, se li hai abilitati. Puoi disabilitare Amazon Bedrock Invocation Logs se non desideri che i contenuti bloccati appaiano come testo normale nei log.

Un guardrail deve contenere almeno un filtro e un messaggio per quando le richieste e le risposte degli utenti vengono bloccate. Puoi scegliere di utilizzare la messaggistica predefinita. Puoi aggiungere filtri ed eseguire iterazioni sul guardrail in un secondo momento seguendo i passaggi riportati in. Modifica il tuo guardrail