Verantwortungsvolle KI - Amazon Nova

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Verantwortungsvolle KI

Einstellungen für die Inhaltsmoderation: Kunden von Amazon Nova Forge haben Zugriff auf anpassbare Inhaltsmoderationseinstellungen (CCMS) für die Modelle Amazon Nova Lite 1.0 und Pro 1.0. CCMS ermöglicht es Ihnen, die Steuerung der Inhaltsmoderation an Ihre spezifischen Geschäftsanforderungen anzupassen und gleichzeitig wichtige verantwortungsvolle KI-Sicherheitsvorkehrungen zu treffen. Um festzustellen, ob Ihr geschäftlicher Anwendungsfall für CCMS in Frage kommt, wenden Sie sich an Ihren Amazon Web Services Services-Kundenbetreuer.

Amazon Nova Forge bietet ein Toolkit für verantwortungsvolle KI, das Trainingsdaten, Bewertungsbenchmarks und Laufzeitkontrollen umfasst, damit Sie Ihre Modelle an die Richtlinien für verantwortungsvolle KI von Amazon Nova anpassen können.

Trainingsdaten: Die Kategorie „RAI“ bei der Datenmischung umfasst Fälle und Szenarien, in denen verantwortungsvolle KI-Prinzipien, Sicherheitsüberlegungen und verantwortungsvoller Technologieeinsatz im Vordergrund stehen. Nutzen Sie diese Informationen, um Ihre Modelle während der weiteren Vorschulung verantwortungsbewusst aufeinander abzustimmen.

Bewertungen: Es stehen Benchmark-Aufgaben zur Verfügung, mit denen Sie die Fähigkeit Ihres Modells testen können, unangemessene, schädliche oder falsche Inhalte zu erkennen und abzulehnen. Verwenden Sie diese Bewertungen, um den Unterschied zwischen der Leistung des Basismodells und der Leistung Ihres benutzerdefinierten Modells zu messen.

Laufzeitkontrollen: Standardmäßig steuert die Laufzeit von Amazon Nova moderate Modellreaktionen während der Inferenz. Um diese Kontrollen für Ihren speziellen Geschäftsfall zu ändern, fordern Sie Customable Content Moderation Settings (CCMS) an, indem Sie sich an Ihren Amazon Web Services Services-Kundenbetreuer wenden.

Gemeinsame Verantwortung für die Sicherheit

Sicherheit ist eine gemeinsame Verantwortung von Amazon Web Services und unseren Kunden. Wenn Sie das Basismodell ändern oder fortlaufende Vorschulungen durchführen, um die Leistung in einem bestimmten Anwendungsfall zu verbessern, kann sich dies auf die Sicherheit, Fairness und andere Eigenschaften des neuen Modells auswirken.

Wir verwenden eine robuste Anpassungsmethode, um Änderungen an den in unseren Basismodellen integrierten Sicherheits-, Fairness- und anderen Schutzmaßnahmen zu minimieren und gleichzeitig die Auswirkungen auf die Modellleistung bei Aufgaben, für die das Modell nicht maßgeschneidert wurde, zu minimieren.

Sie sind verantwortlich für:

  • End-to-end Testen ihrer Anwendungen an Datensätzen, die für ihre Anwendungsfälle repräsentativ sind

  • Entscheidung, ob die Testergebnisse ihren spezifischen Erwartungen in Bezug auf Sicherheit, Fairness und andere Eigenschaften sowie allgemeine Wirksamkeit entsprechen

Weitere Informationen finden Sie im Amazon Web Services Services-Leitfaden zur verantwortungsvollen Nutzung von KI, in der Amazon Web Services Services-Richtlinie für verantwortungsvolle KI, in der Richtlinie zur AWS akzeptablen Nutzung und in den AWS Servicebedingungen für die Services, die Sie nutzen möchten.

Anpassbare Einstellungen für die Inhaltsmoderation (CCMS)

Mit CCMS können Sie die Kontrollen an Ihre Geschäftsanforderungen anpassen und gleichzeitig wichtige, nicht konfigurierbare Kontrollen beibehalten, die einen verantwortungsvollen Umgang mit KI sicherstellen.

Diese Einstellungen ermöglichen die Generierung von Inhalten über drei verfügbare Konfigurationen:

  • Nur Sicherheit

  • Sicherheit, sensible Inhalte und Fairness kombiniert

  • Alle Kategorien kombiniert

Die vier Kategorien für die Moderation von Inhalten sind:

  1. Sicherheit — Umfasst gefährliche Aktivitäten, Waffen und kontrollierte Substanzen

  2. Vertraulicher Inhalt — Beinhaltet Obszönitäten, Nacktheit und Mobbing

  3. Fairness — Geht auf Vorurteile und kulturelle Überlegungen ein

  4. Sicherheit — Beinhaltet Cyberkriminalität, Malware und bösartige Inhalte

Unabhängig von Ihrer CCMS-Konfiguration setzt Amazon Amazon Nova wichtige, nicht konfigurierbare Kontrollen durch, um einen verantwortungsvollen Umgang mit KI sicherzustellen, z. B. Kontrollen zur Vermeidung von Schäden für Kinder und zum Schutz der Privatsphäre.

Empfehlungen für die Verwendung von CCMS

Bei der Verwendung von CCMS empfehlen wir, Continuous Pre Training (CPT) zu verwenden und nicht am Checkpoint, sondern an einem Kontrollpunkt vor dem RAI (Pre-Training-Early, PRE-TRAINING-Mid oder) zu beginnen. PRE-TRAINING-Final GA/FINAL Diese Checkpoints wurden weder einer Sicherheitsschulung unterzogen noch wurden sie auf bestimmte RAI-Verhaltensweisen ausgerichtet, sodass Sie sie effizienter an Ihre Anforderungen an die Moderation von Inhalten anpassen können.

Tipp: Wenn Sie CCMS mit Datenmischung verwenden, sollten Sie erwägen, den Prozentsatz der Kategorie „RAI“ in Ihrer nova_data-Konfiguration an Ihre spezifischen Anforderungen an die Inhaltsmoderation anzupassen.

Verfügbarkeit

CCMS ist derzeit für zugelassene Kunden verfügbar, die Folgendes verwenden:

  • Modelle Nova Lite 1.0 und Pro 1.0

  • Amazon Bedrock On-Demand-Inferenz

  • Die Region us-east-1 (Nord-Virginia)

Um CCMS für Ihre Forge-Modelle zu aktivieren, wenden Sie sich an Ihren Amazon Web Services Account Manager.