View a markdown version of this page

Crear recursos para la personalización del modelo en la interfaz de usuario - Amazon SageMaker AI

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Crear recursos para la personalización del modelo en la interfaz de usuario

Puede crear y administrar el conjunto de datos y los activos del evaluador que puede usar para la personalización del modelo en la interfaz de usuario.

Activos

Selecciona Activos en el panel de la izquierda y en la interfaz de usuario de Amazon SageMaker Studio y, a continuación, selecciona Conjuntos de datos.

Una imagen que contiene el acceso a la personalización del modelo.

Elija Cargar conjunto de datos para añadir el conjunto de datos que utilizará en sus trabajos de personalización de modelos. Al elegir el formato de entrada de datos obligatorio, puede acceder a una referencia del formato de conjunto de datos que desee utilizar.

Una imagen que contiene el acceso a la personalización del modelo.

Evaluadores

También puedes añadir funciones de recompensa e indicaciones de recompensa para tus trabajos de personalización del aprendizaje por refuerzo.

Una imagen que contiene el acceso a la personalización del modelo.

La interfaz de usuario también proporciona orientación sobre el formato requerido para la función de recompensa o la solicitud de recompensa.

Una imagen que contiene el acceso a la personalización del modelo.

Recursos para la personalización de modelos mediante el AWS SDK

También puedes usar el SDK de Python para SageMaker IA para crear activos. Consulta un ejemplo de fragmento de código a continuación:

from sagemaker.ai_registry.air_constants import REWARD_FUNCTION, REWARD_PROMPT from sagemaker.ai_registry.dataset import DataSet, CustomizationTechnique from sagemaker.ai_registry.evaluator import Evaluator # Creating a dataset example dataset = DataSet.create( name="sdkv3-gen-ds2", source="s3://sample-test-bucket/datasets/training-data/jamjee-sft-ds1.jsonl", # or use local filepath as source. customization_technique=CustomizationTechnique.SFT ) # Refreshes status from hub dataset.refresh() pprint(dataset.__dict__) # Creating an evaluator. Method : Lambda evaluator = Evaluator.create( name = "sdk-new-rf11", source="arn:aws:lambda:us-west-2:<>:function:<function-name>8", type=REWARD_FUNCTION ) # Creating an evaluator. Method : Bring your own code evaluator = Evaluator.create( name = "eval-lambda-test", source="/path_to_local/eval_lambda_1.py", type = REWARD_FUNCTION ) # Optional wait, by default we have wait = True during create call. evaluator.wait() evaluator.refresh() pprint(evaluator)