Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Elemente für die Modellanpassung in der Benutzeroberfläche erstellen
Sie können die Datensatz- und Evaluator-Assets, die Sie für die Modellanpassung verwenden können, in der Benutzeroberfläche erstellen und verwalten.
Objekte
Wählen Sie im linken Bereich und in der Amazon SageMaker Studio-Benutzeroberfläche Assets aus und wählen Sie dann Datasets aus.
Wählen Sie Datensatz hochladen, um den Datensatz hinzuzufügen, den Sie in Ihren Modelanpassungsjobs verwenden werden. Wenn Sie das erforderliche Dateneingabeformat auswählen, können Sie auf eine Referenz des zu verwendenden Datensatzformats zugreifen.
Auswertungsprogramme
Sie können auch Prämienfunktionen und Prämienaufforderungen für Ihre Reinforcement-Learning-Anpassungsaufträge hinzufügen.
Die Benutzeroberfläche bietet auch Hinweise zum Format, das für die Belohnungsfunktion oder die Prämienaufforderung erforderlich ist.
Ressourcen für die Modellanpassung mithilfe des AWS SDK
Sie können auch das SageMaker AI Python SDK verwenden, um Assets zu erstellen. Sehen Sie sich unten einen Beispielcodeausschnitt an:
from sagemaker.ai_registry.air_constants import REWARD_FUNCTION, REWARD_PROMPT from sagemaker.ai_registry.dataset import DataSet, CustomizationTechnique from sagemaker.ai_registry.evaluator import Evaluator # Creating a dataset example dataset = DataSet.create( name="sdkv3-gen-ds2", source="s3://sample-test-bucket/datasets/training-data/jamjee-sft-ds1.jsonl", # or use local filepath as source. customization_technique=CustomizationTechnique.SFT ) # Refreshes status from hub dataset.refresh() pprint(dataset.__dict__) # Creating an evaluator. Method : Lambda evaluator = Evaluator.create( name = "sdk-new-rf11", source="arn:aws:lambda:us-west-2:<>:function:<function-name>8", type=REWARD_FUNCTION ) # Creating an evaluator. Method : Bring your own code evaluator = Evaluator.create( name = "eval-lambda-test", source="/path_to_local/eval_lambda_1.py", type = REWARD_FUNCTION ) # Optional wait, by default we have wait = True during create call. evaluator.wait() evaluator.refresh() pprint(evaluator)