Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Création de ressources pour la personnalisation des modèles dans l'interface utilisateur
Vous pouvez créer et gérer les actifs du jeu de données et de l'évaluateur que vous pouvez utiliser pour personnaliser le modèle dans l'interface utilisateur.
Assets
Sélectionnez Assets dans le panneau de gauche et dans l'interface utilisateur d'Amazon SageMaker Studio, puis sélectionnez Datasets.
Choisissez Upload Dataset pour ajouter le jeu de données que vous utiliserez dans vos tâches de personnalisation de modèles. En choisissant le format de saisie de données requis, vous pouvez accéder à une référence du format de jeu de données à utiliser.
Évaluateurs
Vous pouvez également ajouter des fonctions de récompense et des invites de récompense pour vos tâches de personnalisation de l'apprentissage par renforcement.
L'interface utilisateur fournit également des conseils sur le format requis pour la fonction de récompense ou l'invite de récompense.
Ressources pour la personnalisation des modèles à l'aide du AWS SDK
Vous pouvez également utiliser le SDK SageMaker AI Python pour créer des actifs. Voir un exemple d'extrait de code ci-dessous :
from sagemaker.ai_registry.air_constants import REWARD_FUNCTION, REWARD_PROMPT from sagemaker.ai_registry.dataset import DataSet, CustomizationTechnique from sagemaker.ai_registry.evaluator import Evaluator # Creating a dataset example dataset = DataSet.create( name="sdkv3-gen-ds2", source="s3://sample-test-bucket/datasets/training-data/jamjee-sft-ds1.jsonl", # or use local filepath as source. customization_technique=CustomizationTechnique.SFT ) # Refreshes status from hub dataset.refresh() pprint(dataset.__dict__) # Creating an evaluator. Method : Lambda evaluator = Evaluator.create( name = "sdk-new-rf11", source="arn:aws:lambda:us-west-2:<>:function:<function-name>8", type=REWARD_FUNCTION ) # Creating an evaluator. Method : Bring your own code evaluator = Evaluator.create( name = "eval-lambda-test", source="/path_to_local/eval_lambda_1.py", type = REWARD_FUNCTION ) # Optional wait, by default we have wait = True during create call. evaluator.wait() evaluator.refresh() pprint(evaluator)