View a markdown version of this page

Création de ressources pour la personnalisation des modèles dans l'interface utilisateur - Amazon SageMaker AI

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Création de ressources pour la personnalisation des modèles dans l'interface utilisateur

Vous pouvez créer et gérer les actifs du jeu de données et de l'évaluateur que vous pouvez utiliser pour personnaliser le modèle dans l'interface utilisateur.

Assets

Sélectionnez Assets dans le panneau de gauche et dans l'interface utilisateur d'Amazon SageMaker Studio, puis sélectionnez Datasets.

Une image contenant l'accès à la personnalisation du modèle.

Choisissez Upload Dataset pour ajouter le jeu de données que vous utiliserez dans vos tâches de personnalisation de modèles. En choisissant le format de saisie de données requis, vous pouvez accéder à une référence du format de jeu de données à utiliser.

Une image contenant l'accès à la personnalisation du modèle.

Évaluateurs

Vous pouvez également ajouter des fonctions de récompense et des invites de récompense pour vos tâches de personnalisation de l'apprentissage par renforcement.

Une image contenant l'accès à la personnalisation du modèle.

L'interface utilisateur fournit également des conseils sur le format requis pour la fonction de récompense ou l'invite de récompense.

Une image contenant l'accès à la personnalisation du modèle.

Ressources pour la personnalisation des modèles à l'aide du AWS SDK

Vous pouvez également utiliser le SDK SageMaker AI Python pour créer des actifs. Voir un exemple d'extrait de code ci-dessous :

from sagemaker.ai_registry.air_constants import REWARD_FUNCTION, REWARD_PROMPT from sagemaker.ai_registry.dataset import DataSet, CustomizationTechnique from sagemaker.ai_registry.evaluator import Evaluator # Creating a dataset example dataset = DataSet.create( name="sdkv3-gen-ds2", source="s3://sample-test-bucket/datasets/training-data/jamjee-sft-ds1.jsonl", # or use local filepath as source. customization_technique=CustomizationTechnique.SFT ) # Refreshes status from hub dataset.refresh() pprint(dataset.__dict__) # Creating an evaluator. Method : Lambda evaluator = Evaluator.create( name = "sdk-new-rf11", source="arn:aws:lambda:us-west-2:<>:function:<function-name>8", type=REWARD_FUNCTION ) # Creating an evaluator. Method : Bring your own code evaluator = Evaluator.create( name = "eval-lambda-test", source="/path_to_local/eval_lambda_1.py", type = REWARD_FUNCTION ) # Optional wait, by default we have wait = True during create call. evaluator.wait() evaluator.refresh() pprint(evaluator)