Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Anpassen von Modellen mit Amazon AI SageMaker
Die Anpassung von SageMaker Amazon-KI-Modellen ist eine Funktion, die den traditionell komplexen und zeitaufwändigen Prozess der Anpassung von KI-Modellen von einem monatelangen Unterfangen in einen optimierten Arbeitsablauf verwandelt, der innerhalb weniger Tage abgeschlossen werden kann. Diese Funktion befasst sich mit der kritischen Herausforderung, vor der KI-Entwickler stehen, die Basismodelle mit firmeneigenen Daten anpassen müssen, um hochgradig differenzierte Kundenerlebnisse zu schaffen. Eine ausführliche Dokumentation zur Anpassung, einschließlich step-by-step Anleitungen und erweiterter Konfigurationsoptionen, finden Sie in diesem SageMaker KI-Leitfaden. Einen kurzen Überblick über die Anpassung von Nova-Modellen finden Sie unter Anpassen und Feinabstimmung SageMaker im Amazon Nova-Benutzerhandbuch.
Zu den Funktionen gehören eine neue Benutzerschnittstelle, die die Anforderungen natürlicher Sprache versteht, sowie eine umfassende Suite fortschrittlicher Techniken zur Modellanpassung, die alle auf einer serverlosen Infrastruktur basieren, die den betrieblichen Aufwand für die Verwaltung von Rechenressourcen überflüssig macht. Ganz gleich, ob Sie Anwendungen für die Rechtsforschung entwickeln, Chatbots für den Kundenservice verbessern oder domänenspezifische KI-Agenten entwickeln, diese Funktion beschleunigt Ihren Weg von proof-of-concept der Produktionsbereitstellung bis zur Serienbereitstellung.
Funktionen in Model Customization powered by Amazon Bedrock Evaluations können Daten sicher AWS-Regionen innerhalb Ihrer Region zur Verarbeitung übertragen. Weitere Informationen finden Sie in der Dokumentation zu Amazon Bedrock Evaluations.
Die wichtigsten Konzepte
Serverloses Training
Eine vollständig verwaltete Recheninfrastruktur, die jegliche Komplexität der Infrastruktur abstrahiert, sodass Sie sich ausschließlich auf die Modellentwicklung konzentrieren können. Dazu gehören die automatische Bereitstellung von GPU-Instanzen (P5, P4de, P4d, G5) auf der Grundlage von Modellgröße und Schulungsanforderungen, voroptimierte Schulungsrezepte, die bewährte Methoden für jede Anpassungstechnik beinhalten, Echtzeitüberwachung mit Live-Metriken und Protokollen, auf die über die Benutzeroberfläche zugegriffen werden kann, und automatische Bereinigung der Ressourcen nach Abschluss der Schulung zur Kostenoptimierung.
Techniken zur Modellanpassung
Umfassender Satz fortschrittlicher Methoden, darunter überwachte Feinabstimmung (SFT), direkte Präferenzoptimierung (DPO), Reinforcement-Learning mit verifizierbaren Belohnungen (RLVR) und Reinforcement-Learning mit KI-Feedback (RLAIF).
Benutzerdefiniertes Modell
Eine spezielle Version eines Basismodells, das an einen bestimmten Anwendungsfall angepasst wurde, indem es anhand Ihrer eigenen Daten trainiert wurde. Das Ergebnis ist ein KI-Modell, das die allgemeinen Funktionen des ursprünglichen Foundation-Modells beibehält und gleichzeitig domänenspezifisches Wissen, Terminologie, Stil oder Verhalten hinzufügt, die auf Ihre Anforderungen zugeschnitten sind.
Ressourcen zur Anpassung des KI-Modells
Ressourcen und Artefakte, die zum Trainieren, Verfeinern und Evaluieren benutzerdefinierter Modelle während der Modellanpassung verwendet werden. Zu diesen Ressourcen gehören Datensätze, bei denen es sich um Sammlungen von Trainingsbeispielen (Prompt-Response-Paare, domänenspezifischer Text oder beschriftete Daten) handelt, die zur Feinabstimmung eines Basismodells verwendet werden, um bestimmte Verhaltensweisen, Kenntnisse oder Stile zu erlernen, und Evaluatoren, bei denen es sich um Mechanismen zur Bewertung und Verbesserung der Modellleistung handelt, entweder durch Belohnungsfunktionen (codebasierte Logik, die Modellergebnisse anhand bestimmter Kriterien bewertet, die beim RLVR-Training und bei der Bewertung benutzerdefinierter Punktzahlen verwendet werden) oder durch Belohnungsanweisungen ( Anweisungen in natürlicher Sprache, die einem LLM helfen, die Qualität der Modellantworten zu beurteilen, die bei der Schulung und LLM-as-a-judge Bewertung von RLAIF verwendet werden).
Modellpaketgruppe
Ein Sammelcontainer, der alle protokollierten Modelle aus Trainingsjobs nachverfolgt und einen zentralen Speicherort für Modellversionen und deren Herkunft bietet.
Protokolliertes Modell
Die Ausgabe, die von SageMaker KI bei der Ausführung von serverlosen Trainingsaufträgen erzeugt wird. Dabei kann es sich um ein fein abgestimmtes Modell (erfolgreicher Job), einen Checkpoint (fehlgeschlagener Job mit Checkpoint) oder zugehörige Metadaten (fehlgeschlagener Job ohne Checkpoint) handeln.
Registriertes Modell
Ein protokolliertes Modell, das für formelle Nachverfolgungs- und Steuerungszwecke markiert wurde und ein vollständiges Herkunfts- und Lebenszyklusmanagement ermöglicht.
Abstammung
Die automatisch erfassten Beziehungen zwischen Schulungsaufträgen, Eingabedatensätzen, Ausgabemodellen, Bewertungsjobs und Bereitstellungen in SageMaker KI und Amazon Bedrock.
Kontoübergreifendes Teilen
Die Möglichkeit, Modelle, Datensätze und Evaluatoren mithilfe von AWS Resource Access Manager (RAM) AWS kontenübergreifend gemeinsam zu nutzen und gleichzeitig die vollständige Transparenz der Herkunft zu gewährleisten.