Missbrauchserkennung von Amazon Bedrock - Amazon Bedrock

Missbrauchserkennung von Amazon Bedrock

AWS setzt sich für den verantwortungsvollen Umgang mit KI ein. Damit potenzieller Missbrauch verhindert wird, implementiert Amazon Bedrock automatisierte Mechanismen zur Missbrauchserkennung, um potenzielle Verstöße gegen die Acceptable Use Policy (AUP) und die Servicebedingungen von AWS, einschließlich der Richtlinie für verantwortungsvolle KI oder der AUP eines Drittanbieters von Modellen, zu identifizieren und zu minimieren.

Unsere Mechanismen zur Missbrauchserkennung sind vollständig automatisiert, sodass es keine menschliche Überprüfung von oder menschlichen Zugriff auf Benutzereingaben oder Modellausgaben gibt.

Die automatische Missbrauchserkennung umfasst:

  • Inhalte kategorisieren – Wir verwenden Klassifizierer, um schädliche Inhalte (z. B. Inhalte, die zu Gewalt aufrufen) in Benutzereingaben und Modellausgaben zu erkennen. Ein Klassifizierer ist ein Algorithmus, der Modellein- und -ausgaben verarbeitet und die Art des Schadens und das Maß der Zuverlässigkeit zuweist. Wir können diese Klassifizierer sowohl für Titan als auch für Modelle von Drittanbietern verwenden. Dies kann Modelle einschließen, die mithilfe der Modellanpassung von Amazon Bedrock optimiert wurden. Der Klassifizierungsprozess ist automatisiert und umfasst keine menschliche Überprüfung von Benutzereingaben oder Modellausgaben.

  • Muster identifizieren – Wir verwenden Klassifizierermetriken, um potenzielle Verstöße und wiederkehrendes Verhalten zu identifizieren. Wir können anonymisierte Klassifizierermetriken zusammenstellen und an Drittanbieter von Modellen weitergeben. Amazon Bedrock speichert keine Benutzereingaben oder Modellausgaben und gibt diese auch nicht an Drittanbieter von Modellen weiter.

  • Erkennen und Blockieren von Kinderpornografie (Child Sexual Abuse Material, CSAM) – Sie sind für die Inhalte verantwortlich, die Sie (und Ihre Endbenutzer) auf Amazon Bedrock hochladen, und müssen sicherstellen, dass diese Inhalte frei von illegalen Bildern sind. Um die Verbreitung von CSAM zu verhindern, kann Amazon Bedrock automatisierte Mechanismen zur Missbrauchserkennung (wie Hash-Abgleichstechnologie oder Klassifizierer) einsetzen, um offensichtliches CSAM zu erkennen. Wenn Amazon Bedrock offensichtliches CSAM in Ihren Bildeingaben erkennt, blockiert Amazon Bedrock die Anfrage und Sie erhalten eine automatisierte Fehlermeldung. Amazon Bedrock kann auch einen Bericht beim National Center for Missing and Exploited Children (NCMEC) oder einer zuständigen Behörde einreichen. Wir nehmen CSAM sehr ernst und werden unsere Erkennungs-, Blockier- und Meldemechanismen weiterhin aktualisieren. Möglicherweise sind Sie nach geltendem Recht verpflichtet, zusätzliche Maßnahmen zu ergreifen, und Sie sind für diese Maßnahmen verantwortlich.

Wenn unsere automatisierten Mechanismen zur Missbrauchserkennung potenzielle Verstöße erkennen, können wir Informationen über Ihre Nutzung von Amazon Bedrock und die Einhaltung unserer Nutzungsbedingungen oder der Richtlinie zur zulässigen Nutzung eines Drittanbieters anfordern. Sollten Sie nicht reagieren, nicht bereit oder nicht in der Lage sein, diese Bedingungen oder Richtlinien einzuhalten, kann AWS Ihren Zugriff auf Amazon Bedrock sperren. Möglicherweise werden Ihnen auch die fehlgeschlagenen Feinabstimmungsaufträge in Rechnung gestellt, wenn unsere automatisierten Tests feststellen, dass die Modellantworten nicht mit den Lizenzbedingungen und Richtlinien von Drittanbietern von Modellen vereinbar sind.

Bei Fragen wenden Sie sich an den AWS Support. Weitere Informationen finden Sie unter Amazon Bedrock – häufig gestellte Fragen.