Rilevamento degli abusi su Amazon Bedrock - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Rilevamento degli abusi su Amazon Bedrock

AWS si impegna a utilizzare l'intelligenza artificiale in modo responsabile. Per prevenire meglio potenziali abusi, Amazon Bedrock implementa meccanismi automatici di rilevamento per identificare potenziali violazioni della Policy di utilizzo accettabile (AUP) e dei Termini di servizio di AWS, inclusa la Policy sull'IA responsabile o una AUP del provider del modello di terzi.

I nostri meccanismi di rilevamento degli abusi sono completamente automatizzati, quindi non è prevista alcuna revisione umana o accesso agli input degli utenti o agli output dei modelli.

Il rilevamento automatico degli abusi include:

  • Classificazione dei contenuti: utilizziamo dei classificatori per rilevare contenuti dannosi (ad esempio contenuti che incitano alla violenza) negli input degli utenti e negli output dei modelli. Un classificatore è un algoritmo che elabora gli input e gli output del modello e che assegna il tipo di danno e il livello di confidenza. Possiamo eseguire questi classificatori sia sull'utilizzo di modelli di terze parti che su quelli Titan di terze parti. Ciò può includere modelli ottimizzati utilizzando la personalizzazione del modello di Amazon Bedrock. Il processo di classificazione è automatizzato e non prevede la revisione umana degli input degli utenti o degli output del modello.

  • Identificazione dei modelli: utilizziamo le metriche dei classificatori per identificare potenziali violazioni e comportamenti ricorrenti. Possiamo compilare e condividere metriche di classificazione anonime con provider di modelli di terze parti. Amazon Bedrock non memorizza l'input dell'utente o l'output del modello e non li condivide con provider di modelli di terze parti.

  • Rilevamento e blocco di materiale pedopornografico (CSAM): sei responsabile dei contenuti che tu (e i tuoi utenti finali) caricate su Amazon Bedrock e devi assicurarti che tali contenuti siano privi di immagini illegali. Per contribuire a fermare la diffusione del CSAM, Amazon Bedrock può utilizzare meccanismi automatici di rilevamento degli abusi (come la tecnologia di hash matching o i classificatori) per rilevare il CSAM apparente. Se Amazon Bedrock rileva un evidente CSAM negli input delle immagini, Amazon Bedrock bloccherà la richiesta e riceverai un messaggio di errore automatico. Amazon Bedrock può anche presentare una segnalazione al National Center for Missing and Exploited Children (NCMEC) o a un'autorità competente. Prendiamo sul serio CSAM e continueremo ad aggiornare i nostri meccanismi di rilevamento, blocco e segnalazione. Le leggi applicabili potrebbero obbligarti a intraprendere ulteriori azioni e sei responsabile di tali azioni.

Una volta che i nostri meccanismi automatici di rilevamento degli abusi identificano potenziali violazioni, possiamo richiedere informazioni sull'utilizzo di Amazon Bedrock e sulla conformità ai nostri termini di servizio o all'AUP di un fornitore terzo. Nel caso in cui tu non risponda, non voglia o non sia in grado di rispettare questi termini o politiche, puoi AWS sospendere il tuo accesso ad Amazon Bedrock. Inoltre, se i nostri test automatici rilevano che le risposte del modello non sono coerenti con i termini e le politiche di licenza dei fornitori di modelli di terze parti, potrebbero esserti addebitati i costi per i lavori di messa a punto non riusciti.

Contatta AWS l'assistenza se hai altre domande. Per ulteriori informazioni, consulta Amazon Bedrock FAQs.