

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Explore os resultados do teste
<a name="explore-test-results"></a>

Depois que o trabalho de análise for concluído, os resultados do teste estarão disponíveis para análise. A solução fornece métricas e ferramentas abrangentes para ajudar você a entender o desempenho do seu aplicativo sob carga.

## Métricas resumidas de execução de testes
<a name="test-run-summary"></a>

Quando um teste é concluído, a solução gera um resumo que inclui as seguintes métricas:
+  **Tempo médio de resposta** - O tempo médio de resposta, em segundos, para todas as solicitações geradas pelo teste.
+  **Latência média** - A latência média, em segundos, de todas as solicitações geradas pelo teste.
+  **Tempo médio de conexão** - O tempo médio, em segundos, necessário para se conectar ao host para todas as solicitações.
+  **Largura de banda média** - A largura de banda média para todas as solicitações geradas pelo teste.
+  **Contagem total** - O número total de solicitações.
+  **Contagem de sucesso** - O número total de solicitações bem-sucedidas.
+  **Contagem de erros** - O número total de erros.
+  **Solicitações por segundo** - A média de solicitações por segundo para todas as solicitações geradas pelo teste.
+  **Percentis - Percentis** de tempo de resposta, incluindo p50 (mediana), p90, p95 e p99, mostrando a distribuição dos tempos de resposta em todas as solicitações.

## Tabela de execuções de teste
<a name="test-runs-table"></a>

![\[Tabela de resumo da execução do teste em todas as execuções de teste históricas\]](http://docs.aws.amazon.com/pt_br/solutions/latest/distributed-load-testing-on-aws/images/test-run-results.png)


A tabela de execuções de teste exibe todas as execuções de teste históricas de um cenário. Você pode:
+ Veja as métricas resumidas de cada teste executado.
+ Defina um teste de linha de base para comparação de desempenho.
+ Faça o download da tabela como um arquivo CSV.
+ Alterne as colunas para personalizar sua visualização.
+ Selecione uma execução de teste para ver os resultados detalhados.

## Comparação de linha de base
<a name="baseline-comparison"></a>

Você pode designar uma execução de teste como linha de base para comparar futuras execuções de teste com ela. Quando uma linha de base é definida:
+ A tabela de execuções de teste mostra diferenças percentuais (\$1/-%) em comparação com a linha de base de cada métrica.
+ O indicador de linha de base ajuda você a identificar rapidamente melhorias ou regressões de desempenho.
+ Você pode alterar ou limpar a linha de base a qualquer momento.

## Resultados detalhados do teste
<a name="detailed-test-results"></a>

Selecionar uma execução de teste abre a visualização detalhada dos resultados com três guias: Resultados da execução do teste, erros e artefatos.

![\[Resultados detalhados da execução do teste mostrando a comparação básica e o painel de métricas\]](http://docs.aws.amazon.com/pt_br/solutions/latest/distributed-load-testing-on-aws/images/test-run-detailed-view.png)


 **Informações básicas** 

Se uma execução de teste de linha de base for definida, ela será exibida na parte superior da página. Você pode escolher **Mostrar real, Mostrar** **porcentagem** ou **Remover linha de base** para controlar como as comparações da linha de base são exibidas.

 **Tabela de resultados da execução do teste** 

A tabela de resultados fornece métricas detalhadas com os seguintes recursos:

 **Visualizações de dimensões**   
Alterne entre três visualizações usando os botões de dimensão:  
+  **Geral** - Resultados agregados em todos os endpoints e regiões
+  **Por endpoint** - Resultados divididos por endpoints individuais
+  **Por região** — Resultados detalhados por região da AWS

 **Botões de ação**   
+  **Mostrar real** - Exibir valores métricos reais
+  **Mostrar porcentagem** - Exibir diferenças percentuais em relação à linha de base
+  **Remover linha de base** - Limpe a comparação da linha de base

 **Exportação e personalização de dados** 
+ Baixe a tabela de resultados como um arquivo CSV
+ Alterne as colunas para personalizar sua visualização
+ Filtre e classifique os dados para se concentrar em métricas específicas
+ Filtre e classifique os dados para se concentrar em métricas específicas.

## Aba Erros
<a name="errors-tab"></a>

A guia de erros fornece uma análise detalhada dos erros:
+ Visualize as contagens de erros por tipo.
+ Veja os erros agregados por teste geral ou por endpoint.
+ Identifique padrões em solicitações com falha.
+ Solucione problemas com endpoints ou regiões específicas.

## Aba Artefatos
<a name="artifacts-tab"></a>

A guia de artefatos permite que você acesse todos os arquivos gerados durante a execução do teste:
+ Visualize artefatos individuais (registros, arquivos de resultados).
+ Baixe artefatos específicos para análise offline.
+ Baixe todos os artefatos de execução de teste como um único arquivo.

## Estrutura de resultados do S3
<a name="s3-results-structure"></a>

Na versão 4.0, a estrutura de resultados do S3 foi alterada para melhorar a organização:
+  **Nova estrutura** -`scenario-id/test-run-id/results-files`.
+  **Estrutura legada** - Os testes executados antes da versão 4.0 mostram todos os arquivos de resultados no nível da ID do cenário.

**nota**  
Os resultados do teste são exibidos no console. Você também pode acessar os resultados brutos do teste diretamente no bucket do Amazon S3, abaixo da `Results` pasta. Para obter mais informações sobre os resultados do teste Taurus, consulte [Gerando relatórios de teste](https://gettaurus.org/docs/Reporting/) no Manual do usuário do *Taurus*.