Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Erstelle deine Leitplanke
Amazon Bedrock Guardrails besteht aus einer Sammlung verschiedener Filterrichtlinien, die Sie konfigurieren können, um unerwünschte und schädliche Inhalte zu vermeiden und vertrauliche Informationen zum Schutz der Privatsphäre zu entfernen oder zu maskieren.
Sie können die folgenden Richtlinien in einer Guardrail konfigurieren:
Inhaltsfilter — Sie können Schwellenwerte konfigurieren, um Eingabeaufforderungen zu blockieren oder Antworten in natürlicher Sprache für Text und separat für Bilder mit schädlichen Inhalten wie Hass, Beleidigungen, sexuellem Verhalten, Gewalt, Fehlverhalten (einschließlich krimineller Aktivitäten) und spontanen Angriffen (Prompt Injection und Jailbreak) zu modellieren. Beispielsweise kann eine E-Commerce-Website ihren Online-Assistenten so gestalten, dass keine unangemessenen and/or Sprachbilder wie Hass oder Gewalt verwendet werden.
-
Sofortige Angriffe — Kann Ihnen helfen, schnelle Angriffe und Sofort-Injections zu erkennen und zu filtern. Hilft bei der Erkennung von Eingabeaufforderungen, die darauf abzielen, die Moderation zu umgehen, Anweisungen außer Kraft zu setzen oder schädliche Inhalte zu generieren.
Abgelehnte Themen — Sie können eine Reihe von Themen definieren, die Sie in Ihrer generativen KI-Anwendung vermeiden möchten. Beispielsweise kann eine Anwendung als Bankassistent so konzipiert werden, dass Themen im Zusammenhang mit illegaler Anlageberatung vermieden werden.
Wortfilter — Sie können eine Reihe von benutzerdefinierten Wörtern oder Ausdrücken (exakte Übereinstimmung) konfigurieren, die Sie bei der Interaktion zwischen Ihren Benutzern und generativen KI-Anwendungen erkennen und blockieren möchten. Sie können beispielsweise Schimpfwörter sowie spezifische benutzerdefinierte Wörter wie Konkurrenznamen oder andere anstößige Wörter erkennen und blockieren.
Filter für vertrauliche Informationen — Können Ihnen helfen, vertrauliche Inhalte wie personenbezogene Daten (PII) in Standardformaten oder benutzerdefinierte Regex-Entitäten in Benutzereingaben und FM-Antworten zu erkennen. Je nach Anwendungsfall können Sie Eingaben, die vertrauliche Informationen enthalten, ablehnen oder sie in FM-Antworten unkenntlich machen. Sie können beispielsweise die persönlichen Daten der Benutzer schwärzen und gleichzeitig Zusammenfassungen aus Gesprächsprotokollen von Kunden und Agenten erstellen.
Prüfung der kontextuellen Grundlage — Kann Ihnen helfen, Halluzinationen in Modellantworten zu erkennen und zu filtern, wenn sie nicht in den Quellinformationen begründet sind (sachlich falsch sind oder neue Informationen hinzufügen) oder für die Anfrage des Benutzers irrelevant sind. Sie können beispielsweise Antworten in RAG-Anwendungen blockieren oder kennzeichnen (Retrieval-Augmented Generation), wenn die Modellantworten von den Informationen in den abgerufenen Passagen abweichen oder die Frage des Benutzers nicht beantworten.
Anmerkung
Alle blockierten Inhalte der oben genannten Richtlinien werden als Klartext in den Amazon Bedrock Model Invocation Logs angezeigt, sofern Sie sie aktiviert haben. Sie können Amazon Bedrock Invocation Logs deaktivieren, wenn Sie nicht möchten, dass Ihre blockierten Inhalte als Klartext in den Protokollen erscheinen.
Eine Leitplanke muss mindestens einen Filter und eine Meldung für den Fall enthalten, dass Eingabeaufforderungen und Benutzerantworten blockiert werden. Sie können sich dafür entscheiden, die Standardnachrichten zu verwenden. Sie können Filter hinzufügen und später an Ihrer Leitplanke iterieren, indem Sie die Schritte unter befolgen. Ändern Sie Ihre Leitplanke
Themen
Blockieren Sie abgelehnte Themen, um schädliche Inhalte zu entfernen
Entfernen Sie mit Wortfiltern eine bestimmte Liste von Wörtern und Ausdrücken aus Konversationen
Verwenden Sie die kontextuelle Erdungsprüfung, um Halluzinationen in Antworten zu filtern
Optionen für den Umgang mit schädlichen Inhalten, die von Amazon Bedrock Guardrails erkannt wurden