Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Crear recursos para la personalización del modelo en la interfaz de usuario
Puede crear y administrar el conjunto de datos y los activos del evaluador que puede usar para la personalización del modelo en la interfaz de usuario.
Activos
Selecciona Activos en el panel de la izquierda y en la interfaz de usuario de Amazon SageMaker Studio y, a continuación, selecciona Conjuntos de datos.
Elija Cargar conjunto de datos para añadir el conjunto de datos que utilizará en sus trabajos de personalización de modelos. Al elegir el formato de entrada de datos obligatorio, puede acceder a una referencia del formato de conjunto de datos que desee utilizar.
Evaluadores
También puedes añadir funciones de recompensa e indicaciones de recompensa para tus trabajos de personalización del aprendizaje por refuerzo.
La interfaz de usuario también proporciona orientación sobre el formato requerido para la función de recompensa o la solicitud de recompensa.
Recursos para la personalización de modelos mediante el AWS SDK
También puedes usar el SDK de Python para SageMaker IA para crear activos. Consulta un ejemplo de fragmento de código a continuación:
from sagemaker.ai_registry.air_constants import REWARD_FUNCTION, REWARD_PROMPT from sagemaker.ai_registry.dataset import DataSet, CustomizationTechnique from sagemaker.ai_registry.evaluator import Evaluator # Creating a dataset example dataset = DataSet.create( name="sdkv3-gen-ds2", source="s3://sample-test-bucket/datasets/training-data/jamjee-sft-ds1.jsonl", # or use local filepath as source. customization_technique=CustomizationTechnique.SFT ) # Refreshes status from hub dataset.refresh() pprint(dataset.__dict__) # Creating an evaluator. Method : Lambda evaluator = Evaluator.create( name = "sdk-new-rf11", source="arn:aws:lambda:us-west-2:<>:function:<function-name>8", type=REWARD_FUNCTION ) # Creating an evaluator. Method : Bring your own code evaluator = Evaluator.create( name = "eval-lambda-test", source="/path_to_local/eval_lambda_1.py", type = REWARD_FUNCTION ) # Optional wait, by default we have wait = True during create call. evaluator.wait() evaluator.refresh() pprint(evaluator)