Explorez les résultats des tests - Tests de charge distribués sur AWS

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Explorez les résultats des tests

Une fois le travail d'analyse terminé, les résultats des tests sont disponibles pour analyse. La solution fournit des mesures et des outils complets pour vous aider à comprendre les performances de votre application sous charge.

Mesures récapitulatives des essais

Lorsqu'un test est terminé, la solution génère un résumé qui inclut les mesures suivantes :

  • Temps de réponse moyen : temps de réponse moyen, en secondes, pour toutes les demandes générées par le test.

  • Latence moyenne : latence moyenne, en secondes, pour toutes les demandes générées par le test.

  • Temps de connexion moyen : temps moyen, en secondes, nécessaire pour se connecter à l'hôte pour toutes les demandes.

  • Bande passante moyenne : bande passante moyenne pour toutes les demandes générées par le test.

  • Nombre total : nombre total de demandes.

  • Nombre de demandes réussies : nombre total de demandes réussies.

  • Nombre d'erreurs : nombre total d'erreurs.

  • Demandes par seconde : nombre moyen de demandes par seconde pour toutes les demandes générées par le test.

  • Percentiles : percentiles de temps de réponse, y compris p50 (médiane), p90, p95 et p99, indiquant la distribution des temps de réponse entre toutes les demandes.

Tableau des essais

Tableau récapitulatif des essais pour tous les essais historiques

Le tableau des essais affiche l'historique de tous les essais d'un scénario. Vous pouvez effectuer les actions suivantes :

  • Consultez les statistiques récapitulatives pour chaque essai.

  • Définissez un cycle de test de référence pour comparer les performances.

  • Téléchargez le tableau sous forme de fichier CSV.

  • Basculez entre les colonnes pour personnaliser votre affichage.

  • Sélectionnez un essai pour afficher les résultats détaillés.

Comparaison de référence

Vous pouvez désigner un cycle de test comme référence pour comparer les futurs essais par rapport à celui-ci. Lorsqu'une ligne de base est définie :

  • Le tableau des essais montre les différences en pourcentage (+/- %) par rapport à la base de référence pour chaque métrique.

  • L'indicateur de référence vous aide à identifier rapidement les améliorations ou les régressions des performances.

  • Vous pouvez modifier ou effacer la ligne de base à tout moment.

Résultats de test détaillés

La sélection d'un essai ouvre la vue détaillée des résultats avec trois onglets : Résultats du test, Erreurs et Artefacts.

Résultats de test détaillés montrant la comparaison de base et le tableau de bord des métriques

Informations de base

Si un test de référence est défini, il s'affiche en haut de la page. Vous pouvez choisir Afficher la valeur réelle, Afficher le pourcentage ou Supprimer la ligne de base pour contrôler le mode d'affichage des comparaisons de lignes de base.

Tableau des résultats des essais

Le tableau des résultats fournit des mesures détaillées avec les fonctionnalités suivantes :

Vues dimensionnelles

Basculez entre trois vues à l'aide des boutons de dimension :

  • Globalement : résultats agrégés pour tous les terminaux et toutes les régions

  • Par point de terminaison - Résultats ventilés par point de terminaison individuel

  • Par région - Résultats ventilés par région AWS

Boutons d'action
  • Afficher les valeurs réelles - Afficher les valeurs métriques réelles

  • Afficher le pourcentage - Afficher les différences en pourcentage par rapport à la ligne de base

  • Supprimer la ligne de base - Efface la comparaison de la ligne de base

Exportation et personnalisation des données

  • Téléchargez le tableau des résultats sous forme de fichier CSV

  • Basculez entre les colonnes pour personnaliser votre affichage

  • Filtrez et triez les données pour vous concentrer sur des indicateurs spécifiques

  • Filtrez et triez les données pour vous concentrer sur des indicateurs spécifiques.

Onglet Erreurs

L'onglet erreurs fournit une analyse détaillée des erreurs :

  • Afficher le nombre d'erreurs par type.

  • Consultez les erreurs agrégées par test global ou par point de terminaison.

  • Identifiez les modèles de demandes ayant échoué.

  • Résolvez les problèmes liés à des terminaux ou à des régions spécifiques.

Onglet Artifacts

L'onglet artefacts vous permet d'accéder à tous les fichiers générés lors du test :

  • Afficher les artefacts individuels (journaux, fichiers de résultats).

  • Téléchargez des artefacts spécifiques pour une analyse hors ligne.

  • Téléchargez tous les artefacts du test sous forme d'archive unique.

Structure des résultats S3

Dans la version 4.0, la structure des résultats S3 a été modifiée pour améliorer l'organisation :

  • Nouvelle structure -scenario-id/test-run-id/results-files.

  • Structure héritée - Les tests exécutés avant la version 4.0 affichent tous les fichiers de résultats au niveau de l'ID du scénario.

Note

Les résultats des tests sont affichés dans la console. Vous pouvez également accéder aux résultats bruts des tests directement dans le compartiment Amazon S3 situé sous le Results dossier. Pour plus d'informations sur les résultats des tests Taurus, consultez la section Génération de rapports de test dans le manuel d'utilisation de Taurus.