

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Relatório de explicabilidade
<a name="image-classification-explainability-report"></a>

O Amazon SageMaker Autopilot fornece um relatório de explicabilidade para ajudar a explicar como o melhor candidato a modelo faz previsões para problemas de classificação de imagens. Esse relatório pode ajudar engenheiros de ML, gerentes de produto e outras partes interessadas internas a entender as características do modelo. Tanto os consumidores quanto os reguladores confiam na transparência de machine learning para confiar e interpretar as decisões tomadas com base nas predições de modelo. Você pode usar essas explicações para auditar e atender aos requisitos regulatórios, estabelecer confiança no modelo, apoiar a tomada de decisões humanas e depurar e melhorar o desempenho do modelo.

A funcionalidade explicativa do Autopilot para classificação de imagens usa uma abordagem de mapa de ativação de classe visual (CAM) que produz um mapa de calor em que a distribuição e a intensidade de cada cor destacam as áreas de uma imagem que mais contribuem para uma predição específica. Essa abordagem se baseia nos principais componentes derivados de uma implementação do [Eigen-CAM](https://arxiv.org/ftp/arxiv/papers/2008/2008.00299.pdf).

O Autopilot gera o relatório de explicabilidade como um arquivo JSON. O relatório inclui detalhes da análise com base no conjunto de dados de validação. Cada imagem usada para gerar o relatório contém as seguintes informações:
+ `input_image_uri`: o URI do Amazon S3 para a imagem de entrada tomada como entrada para o mapa de calor. 
+ `heatmap_image_uri`: o URI do Amazon S3 para a imagem do mapa de calor gerada pelo Autopilot. 
+ `predicted_label`: A classe de etiqueta prevista pelo melhor modelo treinado pelo Autopilot. 
+ `probability`: A confiança com que o `predicted_label` foi previsto.

Você pode encontrar o prefixo Amazon S3 para os artefatos de explicabilidade gerados para o melhor candidato na resposta a `[DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html)` em `[BestCandidate.CandidateProperties.CandidateArtifactLocations.Explainability](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateArtifactLocations.html#sagemaker-Type-CandidateArtifactLocations-Explainability)`.

Os exemplos a seguir ilustram a aparência dos mapas de calor em algumas amostras do [Oxford-IIIT Pet Dataset](https://www.robots.ox.ac.uk/~vgg/data/pets/). A imagem do mapa de calor exibe gradientes de cores que indicam a importância relativa dos diferentes atributos na imagem. A cor vermelha representa regiões com maior importância na previsão do “predicted\$1label” da imagem de entrada em comparação com os atributos representados pela cor azul.


****  

| Imagem de entrada | Imagem do mapa de calor | 
| --- | --- | 
|  ![\[A imagem original de um cachorro.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/autopilot/autopilot-image-classification-explainability-img1-input.png)  |  ![\[Um mapa de calor da imagem de um cachorro destaca as regiões com maior contribuição para o rótulo previsto.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/autopilot/autopilot-image-classification-explainability-img1-output.png)  | 
|  ![\[A imagem original de um gato.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/autopilot/autopilot-image-classification-explainability-img2-input.png)  |  ![\[Um mapa de calor da imagem de um gato destaca as regiões com maior contribuição para o rótulo previsto.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/autopilot/autopilot-image-classification-explainability-img2-output.png)  | 