Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Déploiement des modèles Amazon Nova Forge dans le cadre de la détection des abus SageMaker par Amazon Inference
AWS s'engage à utiliser l'IA de manière responsable. Pour éviter toute utilisation abusive potentielle, lorsque vous déployez des modèles Amazon Nova Forge dans Amazon SageMaker Inference, SageMaker Inference met en œuvre des mécanismes automatisés de détection des abus afin d'identifier les violations potentielles de la politique d' AWS utilisation acceptable
Nos mécanismes de détection des abus sont entièrement automatisés. Personne ne vérifie ni ne consulte les entrées utilisateur ni les sorties des modèles.
La détection automatique des abus inclut ce qui suit :
-
Catégoriser le contenu — Nous utilisons des classificateurs pour détecter les contenus préjudiciables (tels que les contenus incitant à la violence) dans les entrées des utilisateurs et dans les sorties des modèles. Un classificateur est un algorithme qui traite les entrées et les sorties des modèles, et attribue le type de préjudice et le niveau de confiance. Nous pouvons exécuter ces classificateurs en fonction de l'utilisation du modèle Amazon Nova Forge. Le processus de classification est automatisé et n’implique aucune vérification humaine des entrées utilisateur ni des sorties des modèles.
-
Identifier les modèles — Nous utilisons les métriques du classificateur pour identifier les violations potentielles et les comportements récurrents. Nous pouvons compiler et partager des statistiques de classification anonymisées. Amazon SageMaker Inference ne stocke pas les entrées de l'utilisateur ni les sorties du modèle.
-
Détection et blocage du matériel pédopornographique (CSAM) : vous êtes responsable du contenu que vous (et vos utilisateurs finaux) téléchargez sur Amazon SageMaker Inference et devez vous assurer que ce contenu ne contient pas d'images illégales. Pour aider à stopper la diffusion du CSAM, lors du déploiement d'un modèle Amazon Nova Forge dans Amazon SageMaker Inference, SageMaker Inference peut utiliser des mécanismes automatisés de détection des abus (tels que la technologie de hachage ou les classificateurs) pour détecter les CSAM apparents. Si Amazon SageMaker Inference détecte un CSAM apparent dans vos images saisies, Amazon SageMaker Inference bloquera la demande et vous recevrez un message d'erreur automatique. Amazon SageMaker Inference peut également déposer un rapport auprès du National Center for Missing and Exploited Children (NCMEC) ou d'une autorité compétente. Nous prenons le CSAM très au sérieux et nous continuerons à mettre à jour nos mécanismes de détection, de blocage et de signalement. Les lois applicables peuvent vous obliger à prendre des mesures supplémentaires, et vous êtes responsable de ces actions.
Une fois que nos mécanismes automatisés de détection des abus ont identifié des violations potentielles, nous pouvons vous demander des informations sur votre utilisation d'Amazon SageMaker Inference et sur le respect de nos conditions d'utilisation. Si vous ne répondez pas, si vous ne voulez pas ou si vous êtes incapable de vous conformer à ces conditions ou politiques, vous AWS pouvez suspendre votre accès à Amazon SageMaker Inference. L'échec de la tâche d'inférence peut également vous être facturé si nos tests automatisés détectent que les réponses du modèle ne sont pas conformes à nos conditions générales.
Contactez AWS le Support si vous avez d'autres questions. Pour plus d'informations, consultez le site Amazon SageMaker FAQs