Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Creazione di risorse per la personalizzazione del modello nell'interfaccia utente
È possibile creare e gestire il set di dati e le risorse di valutazione che è possibile utilizzare per la personalizzazione del modello nell'interfaccia utente.
Asset
Seleziona Assets nel pannello a sinistra e nell'interfaccia utente di Amazon SageMaker Studio, quindi seleziona Datasets.
Scegli Carica set di dati per aggiungere il set di dati che utilizzerai nei lavori di personalizzazione del modello. Scegliendo il formato di input dei dati richiesto, puoi accedere a un riferimento del formato del set di dati da utilizzare.
Valutatori
Puoi anche aggiungere Reward Functions e Reward Prompt per i tuoi lavori di personalizzazione del Reinforcement Learning.
L'interfaccia utente fornisce anche indicazioni sul formato richiesto per la funzione di ricompensa o la richiesta di ricompensa.
Risorse per la personalizzazione del modello tramite SDK AWS
Puoi anche usare SageMaker AI Python SDK per creare risorse. Vedi il frammento di codice di esempio riportato di seguito:
from sagemaker.ai_registry.air_constants import REWARD_FUNCTION, REWARD_PROMPT from sagemaker.ai_registry.dataset import DataSet, CustomizationTechnique from sagemaker.ai_registry.evaluator import Evaluator # Creating a dataset example dataset = DataSet.create( name="sdkv3-gen-ds2", source="s3://sample-test-bucket/datasets/training-data/jamjee-sft-ds1.jsonl", # or use local filepath as source. customization_technique=CustomizationTechnique.SFT ) # Refreshes status from hub dataset.refresh() pprint(dataset.__dict__) # Creating an evaluator. Method : Lambda evaluator = Evaluator.create( name = "sdk-new-rf11", source="arn:aws:lambda:us-west-2:<>:function:<function-name>8", type=REWARD_FUNCTION ) # Creating an evaluator. Method : Bring your own code evaluator = Evaluator.create( name = "eval-lambda-test", source="/path_to_local/eval_lambda_1.py", type = REWARD_FUNCTION ) # Optional wait, by default we have wait = True during create call. evaluator.wait() evaluator.refresh() pprint(evaluator)