

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Passo a passo do relatório de treinamento do Debugger XGBoost
<a name="debugger-training-xgboost-report-walkthrough"></a>

Esta seção mostra o relatório de treinamento do Debugger XGBoost . O relatório é agregado automaticamente, dependendo da expressão regular do tensor de saída, reconhecendo que tipo de seu trabalho de treinamento está entre classificação binária, classificação multiclasse e regressão.

**Importante**  
No relatório, os gráficos e as recomendações são fornecidos para fins informativos e não são definitivos. Você é responsável por fazer sua própria avaliação independente das informações.

**Topics**
+ [Distribuição de rótulos verdadeiros do conjunto de dados](#debugger-training-xgboost-report-walkthrough-dist-label)
+ [Gráfico de perda versus etapas](#debugger-training-xgboost-report-walkthrough-loss-vs-step)
+ [importância do atributo](#debugger-training-xgboost-report-walkthrough-feature-importance)
+ [Matriz de confusão](#debugger-training-xgboost-report-walkthrough-confusion-matrix)
+ [Avaliação da matriz de confusão](#debugger-training-xgboost-report-walkthrough-eval-conf-matrix)
+ [Taxa de precisão de cada elemento diagonal durante a iteração](#debugger-training-xgboost-report-walkthrough-accuracy-rate)
+ [Curva característica de operação do receptor](#debugger-training-xgboost-report-walkthrough-rec-op-char)
+ [Distribuição de resíduos na última etapa salva](#debugger-training-xgboost-report-walkthrough-dist-residual)
+ [Erro absoluto de validação por compartimento de etiqueta durante a iteração](#debugger-training-xgboost-report-walkthrough-val-error-per-label-bin)

## Distribuição de rótulos verdadeiros do conjunto de dados
<a name="debugger-training-xgboost-report-walkthrough-dist-label"></a>

Esse histograma mostra a distribuição de classes rotuladas (para classificação) ou valores (para regressão) em seu conjunto de dados original. A distorção em seu conjunto de dados pode contribuir para imprecisões. Essa visualização está disponível para os seguintes tipos de modelo: classificação binária, multiclassificação e regressão.

![\[Um exemplo de distribuição de rótulos verdadeiros do gráfico do conjunto de dados.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/debugger/debugger-training-xgboost-report-walkthrough-dist-label.png)


## Gráfico de perda versus etapas
<a name="debugger-training-xgboost-report-walkthrough-loss-vs-step"></a>

Este é um gráfico de linhas que mostra a progressão da perda nos dados de treinamento e nos dados de validação ao longo das etapas do treinamento. A perda é o que você definiu em sua função objetivo, como erro quadrático médio. Você pode avaliar se o ajuste do modelo está excessivo ou insuficiente a partir desse gráfico. Esta seção também fornece informações que você pode usar para determinar como resolver os problemas de ajuste excessivo e insuficiente. Essa visualização está disponível para os seguintes tipos de modelo: classificação binária, multiclassificação e regressão. 

![\[Um exemplo de gráfico de perda versus etapa.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/debugger/debugger-training-xgboost-report-walkthrough-loss-vs-step.png)


## importância do atributo
<a name="debugger-training-xgboost-report-walkthrough-feature-importance"></a>

Há três tipos diferentes de visualizações de importância de atributos fornecidos: peso, ganho e cobertura. Fornecemos definições detalhadas para cada um dos três no relatório. As visualizações de importância do atributo ajudam você a aprender quais atributos em seu conjunto de dados de treinamento contribuíram para as predições. As visualizações da importância do atributo estão disponíveis para os seguintes tipos de modelo: classificação binária, multiclassificação e regressão. 

![\[Um exemplo de gráfico de importância de um atributo.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/debugger/debugger-training-xgboost-report-walkthrough-feature-importance.png)


## Matriz de confusão
<a name="debugger-training-xgboost-report-walkthrough-confusion-matrix"></a>

Essa visualização é aplicável somente aos modelos de classificação binária e multiclasse. A precisão por si só pode não ser suficiente para avaliar o desempenho do modelo. Para alguns casos de uso, como saúde e detecção de fraudes, também é importante conhecer a taxa de falsos positivos e a taxa de falsos negativos. Uma matriz de confusão fornece as dimensões adicionais para avaliar o desempenho do seu modelo.

![\[Um exemplo de matriz de confusão.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/debugger/debugger-training-xgboost-report-walkthrough-confusion-matrix.png)


## Avaliação da matriz de confusão
<a name="debugger-training-xgboost-report-walkthrough-eval-conf-matrix"></a>

Esta seção fornece mais informações sobre as métricas micro, macro e ponderadas sobre precisão, recall e pontuação F1 para seu modelo.

![\[Avaliação da matriz de confusão.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/debugger/debugger-training-xgboost-report-walkthrough-eval-conf-matrix.png)


## Taxa de precisão de cada elemento diagonal durante a iteração
<a name="debugger-training-xgboost-report-walkthrough-accuracy-rate"></a>

Essa visualização é aplicável somente aos modelos de classificação binária e classificação multiclasse. Este é um gráfico de linhas que traça os valores diagonais na matriz de confusão ao longo das etapas de treinamento de cada classe. Este gráfico mostra como a precisão de cada classe progride ao longo das etapas do treinamento. Você pode identificar as classes com baixo desempenho nesse gráfico. 

![\[Um exemplo de taxa de precisão de cada elemento diagonal durante no gráfico de iteração.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/debugger/debugger-training-xgboost-report-walkthrough-accuracy-rate.gif)


## Curva característica de operação do receptor
<a name="debugger-training-xgboost-report-walkthrough-rec-op-char"></a>

Essa visualização é aplicável somente aos modelos de classificação binária. A curva característica de operação do receptor é comumente usada para avaliar o desempenho do modelo de classificação binária. O eixo y da curva é a taxa de positivos verdadeiros (TPF) e o eixo x é a taxa de falsos positivos (FPR). O gráfico também exibe o valor da área sob a curva (AUC). Quanto maior o valor da AUC, mais previsível é o seu classificador. Você também pode usar a curva ROC para entender a compensação entre TPR e FPR e identificar o limite de classificação ideal para seu caso de uso. O limite de classificação pode ser ajustado para ajustar o comportamento do modelo para reduzir mais de um ou outro tipo de erro (FP/FN).

![\[Um exemplo de gráfico de curva característica de operação do receptor.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/debugger/debugger-training-xgboost-report-walkthrough-rec-op-char.png)


## Distribuição de resíduos na última etapa salva
<a name="debugger-training-xgboost-report-walkthrough-dist-residual"></a>

Essa visualização é um gráfico de colunas que mostra as distribuições residuais na última etapa que o Debugger captura. Nessa visualização, você pode verificar se a distribuição residual está próxima da distribuição normal centralizada em zero. Se os resíduos estiverem distorcidos, seus atributos podem não ser suficientes para prever os rótulos. 

![\[Um exemplo de distribuição de resíduos no último gráfico de etapa salvo.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/debugger/debugger-training-xgboost-report-walkthrough-dist-residual.png)


## Erro absoluto de validação por compartimento de etiqueta durante a iteração
<a name="debugger-training-xgboost-report-walkthrough-val-error-per-label-bin"></a>

Essa visualização é aplicável somente para modelos de regressão. Os valores-alvo reais são divididos em 10 intervalos. Essa visualização mostra como os erros de validação progridem em cada intervalo ao longo das etapas de treinamento nos gráficos de linha. O erro absoluto de validação é o valor absoluto da diferença entre a predição e o real durante a validação. Você pode identificar os intervalos de baixo desempenho nessa visualização.

![\[Um exemplo de erro absoluto de validação por compartimento de rótulos no gráfico de iteração.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/debugger/debugger-training-xgboost-report-walkthrough-val-error-per-label-bin.png)
