Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
So blockieren Sie schädliche Wörter und Konversationen mit Inhaltsfiltern
Amazon Bedrock Guardrails unterstützt Inhaltsfilter, um schädliche Benutzereingaben und modellgenerierte Ausgaben in natürlicher Sprache sowie codebezogene Inhalte im Standard-Tarif zu erkennen und zu filtern. Inhaltsfilter werden für die folgenden Kategorien unterstützt:
Hass
-
Beschreibt Prompts und Modellantworten, die eine Person oder Gruppe aufgrund ihrer Identität (wie etwa Rasse, ethnische Zugehörigkeit, Geschlecht, Religion, sexuelle Orientierung, Fähigkeiten oder Herkunft) diskriminieren, kritisieren, beleidigen, verurteilen oder entmenschlichen.
Beleidigungen
-
Beschreibt Prompts und Modellantworten, die erniedrigende, demütigende, spöttische, beleidigende oder herabsetzende Sprache enthalten. Diese Art von Sprache wird auch als Mobbing bezeichnet.
Sexuell
-
Beschreibt Prompts und Modellantworten, die sexuelles Interesse, sexuelle Aktivität oder Erregung durch direkte oder indirekte Hinweise auf Körperteile, körperliche Merkmale oder Sexualität erkennen lassen.
Gewalt
-
Beschreibt Prompts und Modellantworten, die die Verherrlichung oder Androhung von körperlichen Schmerzen, Verletzungen oder Schädigungen gegenüber einer Person, Gruppe oder Sache enthalten.
Fehlverhalten
-
Beschreibt Prompts und Modellantworten, die Informationen über die Beteiligung an kriminellen Aktivitäten oder über das Schädigen, Betrügen oder Ausnutzen einer Person, Gruppe oder Institution suchen oder bereitstellen.
So konfigurieren Sie Inhaltsfilter für Ihren Integritätsschutz
Sie können Inhaltsfilter für Ihre Leitplanke mithilfe der AWS-Managementkonsole oder Amazon Bedrock API konfigurieren.