Ottimizzare un modello LightGBM - Amazon SageMaker AI

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Ottimizzare un modello LightGBM

L'ottimizzazione automatica dei modelli, nota anche come ottimizzazione degli iperparametri, trova la versione migliore di un modello eseguendo molti processi che testano un intervallo di iperparametri sul set di dati di addestramento e di convalida. L'ottimizzazione del modello si concentra sui seguenti iperparametri:

Nota

La funzione dell'obiettivo di apprendimento viene assegnata automaticamente in base al tipo di attività di classificazione, che è determinata dal numero di numeri interi univoci nella colonna dell'etichetta. Per ulteriori informazioni, consulta Iperparametri di LightGBM.

  • Una funzione dell’obiettivo di apprendimento da ottimizzare durante l’addestramento dei modelli

  • Un parametro di valutazione utilizzato per valutare le prestazioni del modello durante la convalida

  • Un insieme di iperparametri e un intervallo di valori per ciascuno da utilizzare quando si ottimizza automaticamente il modello

L'ottimizzazione automatica del modello ricerca gli iperparametri specificati per trovare la combinazione di valori che restituisce il modello che ottimizza il parametro di valutazione scelto.

Nota

L’ottimizzazione automatica del modello per LightGBM viene fornita solo dagli Amazon SageMaker SDK, non dalla console di Amazon SageMaker AI.

Per ulteriori informazioni sull'ottimizzazione del modello, consulta Ottimizzazione automatica dei modelli con AI SageMaker.

Parametri di valutazione calcolati dall'algoritmo LightGBM

L’algoritmo SageMaker AI LightGBM calcola le seguenti metriche da utilizzare per la convalida dei modelli. Il parametro di valutazione viene assegnato automaticamente in base al tipo di attività di classificazione, che è determinata dal numero di numeri interi univoci nella colonna dell'etichetta.

Nome parametro Descrizione Direzione dell'ottimizzazione Modello regex
rmse radice dell'errore quadratico medio minimizza "rmse: ([0-9\\.]+)"
l1 media degli errori assoluti minimizza "l1: ([0-9\\.]+)"
l2 errore quadratico medio minimizza "l2: ([0-9\\.]+)"
huber huber loss (perdita di huber) minimizza "huber: ([0-9\\.]+)"
fair perdita equa minimizza "fair: ([0-9\\.]+)"
binary_logloss entropia binaria incrociata massimizza "binary_logloss: ([0-9\\.]+)"
binary_error errore binario minimizza "binary_error: ([0-9\\.]+)"
auc AUC massimizza "auc: ([0-9\\.]+)"
average_precision punteggio di precisione media massimizza "average_precision: ([0-9\\.]+)"
multi_logloss entropia incrociata multiclasse massimizza "multi_logloss: ([0-9\\.]+)"
multi_error punteggio di errore multiclasse minimizza "multi_error: ([0-9\\.]+)"
auc_mu AUC-mu massimizza "auc_mu: ([0-9\\.]+)"
cross_entropy entropia incrociata minimizza "cross_entropy: ([0-9\\.]+)"

Iperparametri LightGBM ottimizzabili

Ottimizza il modello LightGBM con i seguenti iperparametri. Gli iperparametri che hanno il maggiore impatto sull'ottimizzazione dei parametri di valutazione di LightGBM sono: learning_rate, num_leaves, feature_fraction, bagging_fraction, bagging_freq, max_depth e min_data_in_leaf. Per un elenco di tutti gli iperparametri LightGBM, consulta Iperparametri di LightGBM.

Nome parametro Tipo parametro Intervalli consigliati
learning_rate ContinuousParameterRanges MinValue: 0,001, MaxValue: 0,01
num_leaves IntegerParameterRanges MinValue: 10, MaxValue: 100
feature_fraction ContinuousParameterRanges MinValue: 0,1, MaxValue: 1,0
bagging_fraction ContinuousParameterRanges MinValue: 0,1, MaxValue: 1,0
bagging_freq IntegerParameterRanges MinValue: 0, MaxValue: 10
max_depth IntegerParameterRanges MinValue: 15, MaxValue: 100
min_data_in_leaf IntegerParameterRanges MinValue: 10, MaxValue: 200