Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Verantwortliches KI-Toolkit und Moderation von Inhalten
Toolkit für verantwortungsvolle KI
Nova Forge bietet ein Toolkit für verantwortungsvolle KI, das Schulungs- und Bewertungsdaten enthält, um Modelle während des Trainingsprozesses an die Richtlinien für verantwortungsvolle KI von Amazon Nova anzupassen, sowie Laufzeitkontrollen zur Moderation der Modellreaktionen während der Inferenz.
Trainingsdaten — Fälle und Szenarien, in denen verantwortungsvolle KI-Prinzipien, Sicherheitsüberlegungen und verantwortungsvoller Technologieeinsatz im Vordergrund stehen, stehen für die Mischung von Daten zur Verfügung, um die Modelle während der weiteren Trainingsvorbereitung verantwortungsbewusst aufeinander abzustimmen.
Evaluationen — Evaluationen, in denen die Fähigkeit des Modells getestet wird, unangemessene, schädliche oder falsche Inhalte zu erkennen und abzulehnen, stehen als Benchmark-Aufgabe zur Verfügung, um den Unterschied zwischen der Leistung des Basismodells und der Leistung kundenspezifischer Modelle zu ermitteln.
Laufzeitkontrollen — Standardmäßig steuert die Laufzeit von Amazon Nova moderate Modellreaktionen während der Inferenz. Um diese Laufzeitsteuerungen zu ändern, fordern Sie die anpassbaren Einstellungen für die Inhaltsmoderation von Amazon Nova an, indem Sie sich an einen Amazon Web Services Services-Kundenbetreuer wenden.
Sicherheit ist eine gemeinsame Verantwortung von Amazon Web Services und seinen Benutzern. Wenn Sie das Basismodell ändern oder fortlaufende Vorschulungen durchführen, um die Leistung in einem bestimmten Anwendungsfall zu verbessern, kann sich dies auf die Sicherheit, Fairness und andere Eigenschaften des neuen Modells auswirken. Eine robuste Anpassungsmethode minimiert Änderungen an den in Basismodellen integrierten Sicherheits-, Fairness- und anderen Schutzmaßnahmen und minimiert gleichzeitig die Auswirkungen auf die Modellleistung bei Aufgaben, für die das Modell nicht maßgeschneidert wurde. End-to-endDas Testen von Anwendungen anhand von Datensätzen, die für Anwendungsfälle repräsentativ sind, ist erforderlich, um festzustellen, ob die Testergebnisse den spezifischen Erwartungen in Bezug auf Sicherheit, Fairness und andere Eigenschaften sowie die Gesamteffektivität entsprechen. Weitere Informationen finden Sie im Amazon Web Services-Leitfaden zur verantwortungsvollen Nutzung von KI, in der Amazon Web Services Services-Richtlinie für verantwortungsvolle KI, in der Amazon Web Services Services-Richtlinie zur akzeptablen Nutzung und in den Nutzungsbedingungen von Amazon Web Services.
Individuell anpassbare Moderation von Inhalten
Die anpassbaren Einstellungen für die Inhaltsmoderation (CCMS) ermöglichen die Anpassung der Kontrollen an die Geschäftsanforderungen und ermöglichen gleichzeitig die Beibehaltung grundlegender, nicht konfigurierbarer Kontrollen, um einen verantwortungsvollen Umgang mit KI sicherzustellen.
Diese Einstellungen ermöglichen die Inhaltsgenerierung über drei verfügbare Konfigurationen:
Nur Sicherheit
Sicherheit, sensible Inhalte und Fairness kombiniert
Alle Kategorien kombiniert
Die vier Kategorien für die Moderation von Inhalten sind:
-
Sicherheit — Umfasst gefährliche Aktivitäten, Waffen und kontrollierte Substanzen
-
Vertraulicher Inhalt — Beinhaltet Obszönitäten, Nacktheit und Mobbing
-
Fairness — Geht auf Vorurteile und kulturelle Überlegungen ein
-
Sicherheit — Beinhaltet Cyberkriminalität, Malware und bösartige Inhalte
Unabhängig von Ihrer CCMS-Konfiguration setzt Amazon Nova wichtige, nicht konfigurierbare Kontrollen durch, um einen verantwortungsvollen Umgang mit KI sicherzustellen, z. B. Kontrollen zur Vermeidung von Schäden für Kinder und zum Schutz der Privatsphäre.
Bei der Verwendung von CCMS empfehlen wir, Continued Pre-Training (CPT) zu verwenden und mit einem Prüfpunkt für die Ausrichtung vor dem RAI (nur teilweise oder vollständig vortrainierter Text) zu beginnen, anstatt mit dem vollständig ausgerichteten Produktions-Checkpoint. Diese Checkpoints wurden weder einer Sicherheitsschulung unterzogen noch wurden sie auf bestimmte RAI-Verhaltensweisen ausgerichtet, sodass Sie sie effizienter an Ihre Anforderungen an die Moderation von Inhalten anpassen können.
Tipp
Wenn Sie CCMS mit Datenmischung verwenden, sollten Sie erwägen, den Prozentsatz der Kategorie „RAI“ in Ihrer nova_data-Konfiguration an Ihre spezifischen Anforderungen an die Inhaltsmoderation anzupassen.
Verfügbarkeit
CCMS ist derzeit für zugelassene Kunden verfügbar, die Folgendes verwenden:
Amazon Nova Lite 1.0- und Pro 1.0-Modelle
Amazon Bedrock On-Demand-Inferenz
Die Region us-east-1 (Nord-Virginia)
Um CCMS für Ihre Forge-Modelle zu aktivieren, wenden Sie sich an einen Amazon Web Services Services-Kundenbetreuer.