Elemente für die Modellanpassung in der Benutzeroberfläche erstellen - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Elemente für die Modellanpassung in der Benutzeroberfläche erstellen

Sie können die Datensatz- und Evaluator-Assets, die Sie für die Modellanpassung verwenden können, in der Benutzeroberfläche erstellen und verwalten.

Objekte

Wählen Sie im linken Bereich und in der Amazon SageMaker Studio-Benutzeroberfläche Assets aus und wählen Sie dann Datasets aus.

Ein Bild, das den Zugriff auf die Modellanpassung enthält.

Wählen Sie Datensatz hochladen, um den Datensatz hinzuzufügen, den Sie in Ihren Modelanpassungsjobs verwenden werden. Wenn Sie das erforderliche Dateneingabeformat auswählen, können Sie auf eine Referenz des zu verwendenden Datensatzformats zugreifen.

Ein Bild, das den Zugriff auf die Modellanpassung enthält.

Auswertungsprogramme

Sie können auch Prämienfunktionen und Prämienaufforderungen für Ihre Reinforcement-Learning-Anpassungsaufträge hinzufügen.

Ein Bild, das den Zugriff auf die Modellanpassung zeigt.

Die Benutzeroberfläche bietet auch Hinweise zum Format, das für die Belohnungsfunktion oder die Prämienaufforderung erforderlich ist.

Ein Bild, das den Zugriff auf die Modellanpassung enthält.

Ressourcen für die Modellanpassung mithilfe des AWS SDK

Sie können auch das SageMaker AI Python SDK verwenden, um Assets zu erstellen. Sehen Sie sich unten einen Beispielcodeausschnitt an:

from sagemaker.ai_registry.air_constants import REWARD_FUNCTION, REWARD_PROMPT from sagemaker.ai_registry.dataset import DataSet, CustomizationTechnique from sagemaker.ai_registry.evaluator import Evaluator # Creating a dataset example dataset = DataSet.create( name="sdkv3-gen-ds2", source="s3://sample-test-bucket/datasets/training-data/jamjee-sft-ds1.jsonl", # or use local filepath as source. customization_technique=CustomizationTechnique.SFT ) # Refreshes status from hub dataset.refresh() pprint(dataset.__dict__) # Creating an evaluator. Method : Lambda evaluator = Evaluator.create( name = "sdk-new-rf11", source="arn:aws:lambda:us-west-2:<>:function:<function-name>8", type=REWARD_FUNCTION ) # Creating an evaluator. Method : Bring your own code evaluator = Evaluator.create( name = "eval-lambda-test", source="/path_to_local/eval_lambda_1.py", type = REWARD_FUNCTION ) # Optional wait, by default we have wait = True during create call. evaluator.wait() evaluator.refresh() pprint(evaluator)