As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Como usar o LightGBM do SageMaker AI
É possível usar o LightGBM como um algoritmo integrado do Amazon SageMaker AI. A seção a seguir descreve como usar o LightGBM com o SageMaker Python SDK. Para obter informações sobre como usar o LightGBM na interface do usuário clássica do Amazon SageMaker Studio, consulte SageMaker JumpStart modelos pré-treinados.
-
Usar o LightGBM como um algoritmo integrado
Use o algoritmo integrado LightGBM para criar um contêiner de treinamento LightGBM como mostrado no exemplo de código a seguir. Você pode identificar automaticamente o URI da imagem do algoritmo integrado LightGBM usando a API
image_uris.retrievedo SageMaker AI (ou a APIget_image_urise estiver usando o Amazon SageMaker Python SDKversão 2). Depois de especificar o URI de imagem do LightGBM, você pode usar o contêiner do LightGBM para criar um estimador usando a API Estimator do SageMaker AI e iniciar uma tarefa de treinamento. O algoritmo integrado do LightGBM é executado no modo script, mas o script de treinamento é fornecido para você e não há necessidade de substituí-lo. Se tiver uma vasta experiência no uso do modo script para criar um trabalho de treinamento do SageMaker, você poderá incorporar seus próprios scripts de treinamento do LightGBM.
from sagemaker import image_uris, model_uris, script_uris train_model_id, train_model_version, train_scope = "lightgbm-classification-model", "*", "training" training_instance_type = "ml.m5.xlarge" # Retrieve the docker image train_image_uri = image_uris.retrieve( region=None, framework=None, model_id=train_model_id, model_version=train_model_version, image_scope=train_scope, instance_type=training_instance_type ) # Retrieve the training script train_source_uri = script_uris.retrieve( model_id=train_model_id, model_version=train_model_version, script_scope=train_scope ) train_model_uri = model_uris.retrieve( model_id=train_model_id, model_version=train_model_version, model_scope=train_scope ) # Sample training data is available in this bucket training_data_bucket = f"jumpstart-cache-prod-{aws_region}" training_data_prefix = "training-datasets/tabular_multiclass/" training_dataset_s3_path = f"s3://{training_data_bucket}/{training_data_prefix}/train" validation_dataset_s3_path = f"s3://{training_data_bucket}/{training_data_prefix}/validation" output_bucket = sess.default_bucket() output_prefix = "jumpstart-example-tabular-training" s3_output_location = f"s3://{output_bucket}/{output_prefix}/output" from sagemaker import hyperparameters # Retrieve the default hyperparameters for training the model hyperparameters = hyperparameters.retrieve_default( model_id=train_model_id, model_version=train_model_version ) # [Optional] Override default hyperparameters with custom values hyperparameters[ "num_boost_round" ] = "500" print(hyperparameters) from sagemaker.estimator import Estimator from sagemaker.utils import name_from_base training_job_name = name_from_base(f"built-in-algo-{train_model_id}-training") # Create SageMaker Estimator instance tabular_estimator = Estimator( role=aws_role, image_uri=train_image_uri, source_dir=train_source_uri, model_uri=train_model_uri, entry_point="transfer_learning.py", instance_count=1, # for distributed training, specify an instance_count greater than 1 instance_type=training_instance_type, max_run=360000, hyperparameters=hyperparameters, output_path=s3_output_location ) # Launch a SageMaker Training job by passing the S3 path of the training data tabular_estimator.fit( { "train": training_dataset_s3_path, "validation": validation_dataset_s3_path, }, logs=True, job_name=training_job_name )Para obter mais informações sobre como configurar o LightGBM como algoritmo integrado, consulte os seguintes exemplos de caderno: