Rilevamento degli abusi su Amazon Bedrock - Amazon Bedrock

Rilevamento degli abusi su Amazon Bedrock

AWS si impegna a utilizzare l’IA in modo responsabile. Per prevenire meglio potenziali abusi, Amazon Bedrock implementa meccanismi automatici di rilevamento per identificare potenziali violazioni della Policy di utilizzo accettabile (AUP) e dei Termini di servizio di AWS, inclusa la Policy sull’IA responsabile o una AUP del provider del modello di terzi.

I nostri meccanismi di rilevamento degli abusi sono completamente automatizzati, quindi non è prevista alcuna revisione umana o accesso agli input degli utenti o agli output dei modelli.

Il rilevamento automatico degli abusi include:

  • Classificazione dei contenuti: utilizziamo dei classificatori per rilevare contenuti dannosi (ad esempio contenuti che incitano alla violenza) negli input degli utenti e negli output dei modelli. Un classificatore è un algoritmo che elabora gli input e gli output del modello e che assegna il tipo di danno e il livello di confidenza. Potremmo eseguire questi classificatori per l’utilizzo sia di Titan sia di modelli di terze parti. Ciò può includere modelli ottimizzati per eseguire il fine-tuning utilizzando la personalizzazione del modello di Amazon Bedrock. Il processo di classificazione è automatizzato e non prevede la revisione umana degli input degli utenti o degli output del modello.

  • Identificazione dei modelli: utilizziamo le metriche dei classificatori per identificare potenziali violazioni e comportamenti ricorrenti. Possiamo compilare e condividere metriche di classificazione anonime con provider di modelli di terze parti. Amazon Bedrock non memorizza l’input dell’utente o l’output del modello e non li condivide con provider di modelli di terze parti.

  • Rilevamento e blocco di materiale pedopornografico (CSAM): sei responsabile dei contenuti che tu (e i tuoi utenti finali) caricate su Amazon Bedrock e devi assicurarti che tali contenuti siano privi di immagini illegali. Per contribuire a fermare la diffusione di CSAM, Amazon Bedrock può utilizzare meccanismi automatici di rilevamento degli abusi (come la tecnologia di corrispondenza hash o i classificatori) per individuare CSAM evidenti. Se Amazon Bedrock rileva contenuti CSAM evidenti nelle immagini inserite, Amazon Bedrock bloccherà la richiesta e riceverai un messaggio di errore automatico. Amazon Bedrock può anche presentare una segnalazione al National Center for Missing and Exploited Children (NCMEC) o a un’autorità competente. Prendiamo molto sul serio il problema dei materiali pedopornografici e continueremo ad aggiornare i nostri meccanismi di rilevamento, blocco e segnalazione. Le leggi applicabili potrebbero richiedere l’adozione di ulteriori misure, di cui l’utente è responsabile.

Una volta che i nostri meccanismi automatici di rilevamento degli abusi identificano potenziali violazioni, possiamo richiedere informazioni sull’uso di Amazon Bedrock e sulla conformità ai nostri termini di servizio o all’AUP di un fornitore terzo. Nel caso in cui l’utente non risponda, non sia disposto o non sia in grado di rispettare i presenti termini o le presenti policy, AWS potrà sospendere l’accesso dell’utente ad Amazon Bedrock. Se i nostri test automatici rilevano che le risposte del modello non sono conformi ai termini e alle policy di licenza dei fornitori di modelli di terze parti, potrebbero esserti addebitati anche i lavori di fine-tuning non riusciti.

Se hai altre domande, contatta il Supporto AWS. Per ulteriori dettagli, consulta le domande frequenti su Amazon Bedrock.