

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# SageMaker Rapport interactif du débogueur
<a name="debugger-profiling-report"></a>

Recevez des rapports de profilage générés automatiquement par Debugger. Le rapport Debugger fournit des informations sur vos tâches d'entraînement et suggère des recommandations pour améliorer les performances de votre modèle. La capture d'écran suivante montre un collage du rapport de profilage Debugger. Pour en savoir plus, consultez [SageMaker Rapport interactif du débogueur](#debugger-profiling-report).

**Note**  
Vous pouvez télécharger un rapport Debugger pendant que votre tâche d'entraînement est en cours d'exécution ou une fois la tâche terminée. Pendant l'entraînement, Debugger met à jour le rapport reflétant le statut d'évaluation des règles actuelles. Vous ne pouvez télécharger un rapport Debugger complet qu'une fois la tâche d'entraînement terminée.

**Important**  
Dans les rapports, les diagrammes et les recommandations sont fournis à titre informatif et ne sont pas définitifs. Vous êtes tenu de réaliser votre propre évaluation indépendante des informations.

![\[Exemple de rapport récapitulatif de tâche d'entraînement Debugger\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-profile-report.jpg)


Pour tous les travaux de SageMaker formation, la [ProfilerReport](debugger-built-in-profiler-rules.md#profiler-report) règle SageMaker Debugger invoque toutes les règles de [surveillance et de profilage et regroupe l'analyse des règles](debugger-built-in-profiler-rules.md#built-in-rules-monitoring) dans un rapport complet. En suivant ce guide, téléchargez le rapport à l'aide du [SDK Amazon SageMaker Python](https://sagemaker.readthedocs.io/en/stable) ou de la console S3, et découvrez ce que vous pouvez interpréter à partir des résultats du profilage.

**Important**  
Dans le rapport, les diagrammes et les recommandations sont fournis à titre informatif et ne sont pas définitifs. Vous êtes tenu de réaliser votre propre évaluation indépendante des informations.

# Téléchargez le rapport de SageMaker profilage du Debugger
<a name="debugger-profiling-report-download"></a>

Téléchargez le rapport de profilage du SageMaker Debugger pendant que votre tâche de formation est en cours d'exécution ou une fois la tâche terminée à l'aide du [SDK et ( AWS Command Line Interface CLI) Amazon SageMaker Python](https://sagemaker.readthedocs.io/en/stable).

**Note**  
Pour obtenir le rapport de profilage généré par SageMaker Debugger, vous devez utiliser la [ProfilerReport](https://docs.aws.amazon.com/sagemaker/latest/dg/debugger-built-in-rules.html#profiler-report)règle intégrée proposée par SageMaker Debugger. Pour activer la règle avec votre tâche d'entraînement, consultez [Configuration des règles de profilage intégrées](https://docs.aws.amazon.com/sagemaker/latest/dg/use-debugger-built-in-profiler-rules.html).

**Astuce**  
Vous pouvez également télécharger le rapport en un seul clic dans le tableau de bord SageMaker Studio Debugger Insights. Cela ne nécessite aucun script supplémentaire pour télécharger le rapport. Pour savoir comment télécharger le rapport depuis Studio, consultez [Ouvrez le tableau de bord Amazon SageMaker Debugger Insights](debugger-on-studio-insights.md).

------
#### [ Download using SageMaker Python SDK and AWS CLI ]

1. Vérifiez l'URI de base de sortie S3 par défaut de la tâche en cours.

   ```
   estimator.output_path
   ```

1. Vérifiez le nom de la tâche en cours.

   ```
   estimator.latest_training_job.job_name
   ```

1. Le rapport de profilage Debugger est stocké sous `<default-s3-output-base-uri>/<training-job-name>/rule-output`. Configurez le chemin de sortie de la règle comme suit :

   ```
   rule_output_path = estimator.output_path + estimator.latest_training_job.job_name + "/rule-output"
   ```

1. Pour vérifier si le rapport est généré, listez les répertoires et les fichiers de façon récursive sous `rule_output_path` en utilisant `aws s3 ls` avec l'option `--recursive`.

   ```
   ! aws s3 ls {rule_output_path} --recursive
   ```

   Cela devrait renvoyer une liste complète des fichiers sous un dossier généré automatiquement et nommé `ProfilerReport-1234567890`. Le nom du dossier est une combinaison de chaînes `ProfilerReport` et d'une balise unique à 10 chiffres basée sur l'horodatage Unix lorsque la ProfilerReport règle est initiée.   
![\[Exemple de sortie de règle\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-rule-output-ls-example.png)

   `profiler-report.html` est un rapport de profilage généré automatiquement par Debugger. Les fichiers restants sont les composants d'analyse des règles intégrées stockés dans JSON et un bloc-notes Jupyter, qui sont utilisés pour être agrégés dans le rapport.

1. Téléchargez les fichiers de façon récursive en utilisant `aws s3 cp`. La commande suivante enregistre tous les fichiers de sortie de règle dans le dossier `ProfilerReport-1234567890` sous le répertoire de travail actuel.

   ```
   ! aws s3 cp {rule_output_path} ./ --recursive
   ```
**Astuce**  
Si vous utilisez un serveur de bloc-notes Jupyter, exécutez `!pwd` pour vérifier le répertoire de travail actuel.

1. Sous le répertoire `/ProfilerReport-1234567890/profiler-output`, ouvrez `profiler-report.html`. Si c'est JupyterLab le cas, choisissez **Trust HTML** pour voir le rapport de profilage du Debugger généré automatiquement.  
![\[Exemple de sortie de règle\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-rule-output-open-html.png)

1. Ouvrez le fichier `profiler-report.ipynb` pour voir comment le rapport est généré. Vous pouvez également personnaliser et étendre le rapport de profilage à l'aide du fichier de bloc-notes Jupyter.

------
#### [ Download using Amazon S3 Console ]

1. Connectez-vous à la console Amazon S3 AWS Management Console et ouvrez-la à l'adresse [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Recherchez le compartiment S3 de base. Par exemple, si vous n'avez pas spécifié de nom de tâche de base, le nom du compartiment S3 de base doit être au format suivant : `sagemaker-<region>-111122223333`. Recherchez le compartiment S3 de base à l'aide du champ *Find bucket by name (Rechercher des compartiments par nom)*.  
![\[Exemple d'utilisation de l'URI du compartiment S3 de sortie de règle\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-report-download-s3console-0.png)

1. Dans le compartiment S3 de base, recherchez le nom de la tâche d'entraînement en spécifiant votre préfixe de nom de tâche dans le champ de saisie *Find objects by prefix (Rechercher des objets par préfixe)*. Choisissez le nom de la tâche d'entraînement.  
![\[Exemple d'utilisation de l'URI du compartiment S3 de sortie de règle\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-report-download-s3console-1.png)

1. Le compartiment S3 de la tâche d'entraînement doit contenir trois sous-dossiers pour les données d'entraînement collectées par Debugger : **debug-output/**, **profiler-output/** et **rule-output/**. Choisissez **rule-output/**.   
![\[Exemple d'utilisation de l'URI du compartiment S3 de sortie de règle\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-report-download-s3console-2.png)

1. **Dans le dossier **rule-output/, choisissez ProfilerReport -1234567890****, puis choisissez le dossier profiler-output/**.** Le dossier **profiler-output/** contient **profiler-report.html** (le rapport de profilage généré automatiquement en html), **profiler-report.ipynb** (un bloc-notes Jupyter avec des scripts qui sont utilisés pour générer le rapport) et **profiler-report/** (contient les fichiers JSON d'analyse de règle qui sont utilisés comme composants du rapport).

1. Sélectionnez le fichier **profiler-report.html** et choisissez **Actions**, puis **Download (Télécharger)**.  
![\[Exemple d'utilisation de l'URI du compartiment S3 de sortie de règle\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-report-download-s3console-3.png)

1. Ouvrez le fichier téléchargé **profiler-report.html** dans un navigateur web.

------

**Note**  
Si vous avez démarré votre tâche d'entraînement sans configurer les paramètres spécifiques à Debugger, Debugger génère le rapport uniquement en fonction des règles de surveillance du système, car les paramètres Debugger ne sont pas configurés pour enregistrer les métriques de cadre. Pour activer le profilage des métriques du framework et recevoir un rapport de profilage étendu du Debugger, configurez le `profiler_config` paramètre lors de la construction ou de la mise à jour des estimateurs d' SageMaker IA.  
Pour découvrir comment configurer le paramètre `profiler_config` avant de démarrer une tâche d'entraînement, consultez [Configuration de l’estimateur pour le profilage du cadre](debugger-configure-framework-profiling.md).  
Pour mettre à jour la tâche d'entraînement actuelle et activer le profilage des métriques de cadre, consultez [Update Debugger Framework Profiling Configuration](debugger-update-monitoring-profiling.md).

# Démonstration du rapport de profilage Debugger
<a name="debugger-profiling-report-walkthrough"></a>

Cette section présente le rapport de profilage de Debugger section par section. Le rapport de profilage est généré sur la base des règles intégrées de surveillance et de profilage. Le rapport affiche des résultats uniquement pour les règles qui ont détecté des problèmes.

**Important**  
Dans le rapport, les diagrammes et les recommandations sont fournis à titre informatif et ne sont pas définitifs. Vous êtes tenu de réaliser votre propre évaluation indépendante des informations.

**Topics**
+ [Résumé des tâches d'entraînement](#debugger-profiling-report-walkthrough-summary)
+ [Statistiques d'utilisation du système](#debugger-profiling-report-walkthrough-system-usage)
+ [Résumé des métriques de cadre](#debugger-profiling-report-walkthrough-framework-metrics)
+ [Résumé des règles](#debugger-profiling-report-walkthrough-rules-summary)
+ [Analyse de la boucle d'entraînement : durée des étapes](#debugger-profiling-report-walkthrough-step-durations)
+ [Analyse d'utilisation du GPU](#debugger-profiling-report-walkthrough-gpu-utilization)
+ [Taille de lot](#debugger-profiling-report-walkthrough-batch-size)
+ [Goulets d'étranglement de CPU](#debugger-profiling-report-walkthrough-cpu-bottlenecks)
+ [Goulets d'étranglement des E/S](#debugger-profiling-report-walkthrough-io-bottlenecks)
+ [Équilibrage de charge dans un entraînement multi-GPU](#debugger-profiling-report-walkthrough-workload-balancing)
+ [Analyse de mémoire GPU](#debugger-profiling-report-walkthrough-gpu-memory)

## Résumé des tâches d'entraînement
<a name="debugger-profiling-report-walkthrough-summary"></a>

Le début du rapport présente un résumé de votre tâche d'entraînement. Dans cette section, vous pouvez voir les durées et les horodatages aux différentes phases d'entraînement.

![\[Exemple de rapport de profilage Debugger\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-profiling-report-summary.gif)


Le tableau récapitulatif comprend les informations suivantes :
+ **start\$1time** : heure exacte à laquelle la tâche d'entraînement a démarré.
+ **end\$1time** : heure exacte à laquelle la tâche d'entraînement s'est terminée.
+ **job\$1duration\$1in\$1seconds** : durée totale d'entraînement de l'heure de début (**start\$1time**) à l'heure de fin (**end\$1time**).
+ **training\$1loop\$1start** : heure exacte à laquelle la première étape de la première époque a démarré.
+ **training\$1loop\$1end** : heure exacte à laquelle la dernière étape de la dernière époque s'est terminée.
+ **training\$1loop\$1duration\$1in\$1seconds** : durée totale entre l'heure de début de la boucle d'entraînement et l'heure de fin de la boucle d'entraînement.
+ **initialization\$1in\$1seconds** : temps consacré à l'initialisation de la tâche d'entraînement. La phase d'initialisation couvre la période de l'heure de début (**start\$1time**) à l'heure de début de la bouche d'entraînement (**training\$1loop\$1start**). Le temps d'initialisation concerne la compilation du script d'entraînement, le démarrage du script d'entraînement, la création et l'initialisation du modèle, l'initialisation des instances EC2 et le téléchargement des données d'entraînement.
+ **finalization\$1in\$1seconds** : temps consacré à la finalisation de la tâche d'entraînement, par exemple pour la fin de l'entraînement du modèle, la mise à jour des artefacts du modèle et la fermeture des instances EC2. La phase de finalisation couvre la période allant de l'heure de fin de la boucle d'entraînement (**training\$1loop\$1end**) à l'heure de fin (**end\$1time**).
+ **initialisation (%)** : pourcentage de temps passé sur l'**initialisation** par rapport à la **durée totale de la tâche en secondes**. 
+ **training loop (%)** : pourcentage de temps passé sur la **boucle d'entraînement** par rapport à la **durée totale de la tâche en secondes**.
+ **finalization (%)** : pourcentage de temps passé sur la **finalisation** par rapport à la **durée totale de la tâche en secondes**.

## Statistiques d'utilisation du système
<a name="debugger-profiling-report-walkthrough-system-usage"></a>

Dans cette section, vous pouvez voir une présentation des statistiques d'utilisation du système.

![\[Exemple de rapport de profilage Debugger\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-profiling-report-system-usage.png)


Le rapport de profilage Debugger inclut les informations suivantes :
+ **node** : répertorie le nom des nœuds. Si vous utilisez un entraînement distribué sur plusieurs nœuds (plusieurs instances EC2), les noms de nœuds sont au format `algo-n`.
+ **metric** : métriques système collectées par Debugger : CPU, GPU, mémoire CPU, mémoire GPU, I/O et métriques réseau.
+ **unit** : unité des métriques système.
+ **max** : valeur maximale de chaque métrique système.
+ **p99** : 99e percentile de chaque utilisation du système.
+ **p95** : 95e percentile de chaque utilisation du système.
+ **p50** : 50e percentile (médian) de chaque utilisation du système.
+ **min** : valeur minimale de chaque métrique système.

## Résumé des métriques de cadre
<a name="debugger-profiling-report-walkthrough-framework-metrics"></a>

Dans cette section, les diagrammes à secteurs suivants montrent la répartition des opérations du cadre sur CPUs et GPUs.

![\[Exemple de rapport de profilage Debugger\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-profiling-report-framework-metrics-summary.gif)


Chacun des diagrammes à secteurs analyse les métriques de cadre collectés sur différents aspects, comme suit :
+ **Rapport entre les TRAIN/EVAL phases et les autres** — Indique le rapport entre les durées consacrées aux différentes phases d'entraînement.
+ **Ratio between forward and backward pass (Rapport entre la transmission vers l'avant et la transmission vers l'arrière)** : affiche le rapport entre les durées passées sur la transmission vers l'avant et vers l'arrière dans la boucle d'entraînement.
+ **Rapport entre CPU/GPU les opérateurs** : indique le rapport entre le temps passé sur les opérateurs fonctionnant sur un processeur ou un processeur graphique, tels que les opérateurs convolutifs.
+ **Métriques générales enregistrées dans le cadre** : affiche le rapport entre le temps passé sur les principales métriques de cadre, telles que le chargement des données, la transmission vers l'avant et la transmission vers l'arrière.

### Présentation : opérateurs CPU
<a name="debugger-profiling-report-walkthrough-cpu-operators"></a>

Cette section fournit des informations détaillées sur les opérateurs de CPU. Le tableau indique le pourcentage de temps et le temps cumulé absolu passé sur les opérateurs de CPU les plus fréquemment appelés.

![\[Exemple de rapport de profilage Debugger\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-profiling-report-framework-cpu-operators.gif)


### Présentation : opérateurs GPU
<a name="debugger-profiling-report-walkthrough-gpu-operators"></a>

Cette section fournit des informations détaillées sur les opérateurs GPU. Le tableau indique le pourcentage de temps et le temps cumulé absolu passé sur les opérateurs GPU les plus fréquemment appelés.

![\[Exemple de rapport de profilage Debugger\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-profiling-report-framework-gpu-operators.gif)


## Résumé des règles
<a name="debugger-profiling-report-walkthrough-rules-summary"></a>

Dans cette section, Debugger regroupe les résultats d'évaluation des règles, les analyses, les descriptions de règles et les suggestions.

![\[Exemple de rapport de profilage Debugger\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-profiling-report-rules-summary.png)


## Analyse de la boucle d'entraînement : durée des étapes
<a name="debugger-profiling-report-walkthrough-step-durations"></a>

Dans cette section, vous trouverez des statistiques détaillées sur les durées d'étapes sur chaque cœur de GPU de chaque nœud. Debugger évalue les valeurs moyennes, maximales, p99, p95, p50 et minimales des durées d'étape, ainsi que les valeurs aberrantes d'étape. L'histogramme suivant montre les durées des étapes capturées sur les différents nœuds de travail et. GPUs Vous pouvez activer ou désactiver l'histogramme de chaque composant en choisissant les légendes sur le côté droit. Vous pouvez vérifier si un GPU particulier est à l'origine des valeurs aberrantes de durée d'étape.

![\[Exemple de rapport de profilage Debugger\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-profiling-report-framework-step-duration.gif)


## Analyse d'utilisation du GPU
<a name="debugger-profiling-report-walkthrough-gpu-utilization"></a>

Cette section présente les statistiques détaillées sur l'utilisation du cœur du processeur graphique selon la GPUUtilization règle Low. Il résume également les statistiques d'utilisation du GPU (moyenne, p95 et p5) afin de déterminer si la tâche de formation est sous-utilisée. GPUs

## Taille de lot
<a name="debugger-profiling-report-walkthrough-batch-size"></a>

Cette section présente les statistiques détaillées de l'utilisation totale des CPU, de l'utilisation des GPU individuels et des empreintes de mémoire GPU. La BatchSize règle détermine si vous devez modifier la taille du lot pour mieux utiliser le GPUs. Vous pouvez vérifier si la taille du lot est trop petite, ce qui entraîne une sous-utilisation, ou trop grande, ce qui entraîne une surutilisation et des problèmes de mémoire insuffisante. Dans le diagramme, les cases montrent les intervalles de percentiles p25 et p75 (remplis respectivement en violet foncé et en jaune vif) à partir de la médiane (p50). Les barres d'erreur indiquent le 5e percentile pour la limite inférieure et le 95e percentile pour la limite supérieure.

![\[Exemple de rapport de profilage Debugger\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-profiling-report-batch-size.png)


## Goulets d'étranglement de CPU
<a name="debugger-profiling-report-walkthrough-cpu-bottlenecks"></a>

Dans cette section, vous pouvez examiner en détail les goulots d'étranglement du processeur détectés par la CPUBottleneck règle lors de votre formation. La règle vérifie si l'utilisation du CPU est supérieure à `cpu_threshold` (90 % par défaut) et si l'utilisation du GPU est inférieure à `gpu_threshold` (10 % par défaut).

![\[Exemple de rapport de profilage Debugger\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-profiling-report-cpu-bottlenecks.png)


Les graphiques à secteurs affichent les informations suivantes :
+ **Low GPU usage caused by CPU bottlenecks (Faible utilisation du GPU causée par des goulets d'étranglement du CPU** : affiche le rapport des points de données entre ceux dont l'utilisation du GPU est supérieure et inférieure au seuil et ceux qui correspondent aux critères de goulet d'étranglement du CPU.
+ **Rapport entre les TRAIN/EVAL phases et les autres** — Indique le rapport entre les durées consacrées aux différentes phases d'entraînement.
+ **Ratio between forward and backward pass (Rapport entre la transmission vers l'avant et la transmission vers l'arrière)** : affiche le rapport entre les durées passées sur la transmission vers l'avant et vers l'arrière dans la boucle d'entraînement.
+ **Rapport entre CPU/GPU les opérateurs** : indique le rapport entre les durées consacrées à GPUs et CPUs par les opérateurs Python, tels que les processus de chargement de données et les opérateurs de passes avant et arrière.
+ **General metrics recorded in framework (Métriques générales enregistrées dans le cadre)** : affiche les principales métriques de cadre et le rapport entre les durées passées sur les métriques.

## Goulets d'étranglement des E/S
<a name="debugger-profiling-report-walkthrough-io-bottlenecks"></a>

Dans cette section, vous trouverez un résumé des I/O goulets d'étranglement. La règle évalue le temps d' I/O attente et les taux d'utilisation du GPU et surveille le temps passé sur les points d'I/O requests exceeds a threshold percent of the total training time. It might indicate I/Oétranglement liés à l'attente GPUs des données en provenance du stockage.

## Équilibrage de charge dans un entraînement multi-GPU
<a name="debugger-profiling-report-walkthrough-workload-balancing"></a>

Dans cette section, vous pouvez identifier les problèmes d'équilibrage de la charge de travail entre les deux GPUs. 

![\[Exemple de rapport de profilage Debugger\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-profiling-report-workload-balancing.gif)


## Analyse de mémoire GPU
<a name="debugger-profiling-report-walkthrough-gpu-memory"></a>

Dans cette section, vous pouvez analyser l'utilisation de la mémoire du GPU collectée par la règle GPUMemory d'augmentation. Dans le diagramme, les cases montrent les intervalles de percentiles p25 et p75 (remplis respectivement en violet foncé et en jaune vif) à partir de la médiane (p50). Les barres d'erreur indiquent le 5e percentile pour la limite inférieure et le 95e percentile pour la limite supérieure.

![\[Exemple de rapport de profilage Debugger\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/debugger/debugger-profiling-report-gpu-memory-utilization.png)


# Désactiver la collecte des statistiques d'utilisation d'Amazon SageMaker Debugger
<a name="debugger-telemetry"></a>

Pour toutes les tâches de SageMaker formation, Amazon SageMaker Debugger exécute la [ProfilerReport](debugger-built-in-profiler-rules.md#profiler-report) règle et génère automatiquement un. [SageMaker Rapport interactif du débogueur](debugger-profiling-report.md) La règle `ProfilerReport` fournit un fichier de bloc-notes Jupyter (`profiler-report.ipynb`) qui génère un fichier HTML correspondant (`profiler-report.html`). 

Debugger collecte les statistiques d'utilisation des rapports de profilage en incluant du code dans le bloc-notes Jupyter qui collecte les données `ProfilerReport` uniques de l'ARN de la tâche de traitement de la règle si l'utilisateur ouvre le fichier final `profiler-report.html`.

Debugger collecte uniquement des informations indiquant si un utilisateur ouvre le rapport HTML final. Il **NE COLLECTE PAS** des informations provenant des tâches d'entraînement, des données d'entraînement, des scripts d'entraînement, des tâches de traitement, des journaux ou du contenu du rapport de profilage lui-même.

Vous pouvez désactiver la collecte des statistiques d’utilisation à l’aide de l’une des options suivantes.

## (Recommandé) Option 1 : Désactiver la collecte avant d’exécuter une tâche d’entraînement
<a name="debugger-telemetry-profiler-report-opt-out-1"></a>

Pour désactiver la collecte, vous devez ajouter la règle Debugger `ProfilerReport` suivante à votre requête de tâche d'entraînement.

------
#### [ SageMaker Python SDK ]

```
estimator=sagemaker.estimator.Estimator(
    ...

    rules=ProfilerRule.sagemaker(
        base_config=rule_configs.ProfilerReport()
        rule_parameters={"opt_out_telemetry": "True"}
    )
)
```

------
#### [ AWS CLI ]

```
"ProfilerRuleConfigurations": [ 
    { 
        "RuleConfigurationName": "ProfilerReport-1234567890",
        "RuleEvaluatorImage": "895741380848.dkr.ecr.us-west-2.amazonaws.com/sagemaker-debugger-rules:latest",
        "RuleParameters": {
            "rule_to_invoke": "ProfilerReport", 
            "opt_out_telemetry": "True"
        }
    }
]
```

------
#### [ AWS SDK pour Python (Boto3) ]

```
ProfilerRuleConfigurations=[ 
    {
        'RuleConfigurationName': 'ProfilerReport-1234567890',
        'RuleEvaluatorImage': '895741380848.dkr.ecr.us-west-2.amazonaws.com/sagemaker-debugger-rules:latest',
        'RuleParameters': {
            'rule_to_invoke': 'ProfilerReport',
            'opt_out_telemetry': 'True'
        }
    }
]
```

------

## Option 2 : Désactiver la collecte une fois la tâche d’entraînement terminée
<a name="debugger-telemetry-profiler-report-opt-out-2"></a>

Pour désactiver la collecte une fois l'entraînement terminé, vous devez modifier le fichier `profiler-report.ipynb`. 

**Note**  
Les rapports HTML générés automatiquement avant que vous ajoutiez l'**option 1** à votre requête de tâche d'entraînement contiennent toujours les statistiques d'utilisation, même une fois que vous avez désactivé la collecte à l'aide de l'**option 2**.

1. Suivez les instructions sur le téléchargement des fichiers de rapport de profilage Debugger sur la page [Téléchargez le rapport de SageMaker profilage du Debugger](debugger-profiling-report-download.md).

1. Dans le répertoire `/ProfilerReport-1234567890/profiler-output`, ouvrez `profiler-report.ipynb`. 

1. Ajoutez **opt\$1out=True** à la fonction `setup_profiler_report()` dans la cinquième cellule de code, comme illustré dans l'exemple de code suivant :

   ```
   setup_profiler_report(processing_job_arn, opt_out=True)
   ```

1. Exécutez la cellule de code pour terminer la désactivation.