

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Démarrage
<a name="model-customize-evaluation-getting-started"></a>

## Soumettre un travail d'évaluation via SageMaker Studio
<a name="model-customize-evaluation-studio"></a>

### Étape 1 : Accédez à l'évaluation à partir de votre carte modèle
<a name="model-customize-evaluation-studio-step1"></a>

Après avoir personnalisé votre modèle, accédez à la page d'évaluation depuis votre fiche modèle.

Pour plus d'informations sur l'entraînement sur modèle personnalisé avec poids libre : [https://docs.aws.amazon.com/sagemaker/latest/dg/model- .html customize-open-weight-job](https://docs.aws.amazon.com/sagemaker/latest/dg/model-customize-open-weight-job.html)

SageMaker visualise votre modèle personnalisé dans l'onglet Mes modèles :

![\[Page de carte modèle enregistrée\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/getting-started-registered-model-card.png)


Choisissez Afficher la dernière version, puis sélectionnez Évaluer :

![\[Page de personnalisation du modèle\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/getting-started-evaluate-from-model-card.png)


### Étape 2 : Soumettez votre job d'évaluation
<a name="model-customize-evaluation-studio-step2"></a>

Cliquez sur le bouton Soumettre et soumettez votre travail d'évaluation. Cela soumet une tâche de référence minimale au MMLU.

Pour plus d'informations sur les types de tâches d'évaluation pris en charge, consultez[Types d'évaluation et soumission de Job](model-customize-evaluation-types.md).

![\[Page de soumission des tâches d'évaluation\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/getting-started-benchmark-submission.png)


### Étape 3 : Suivez la progression de votre job d'évaluation
<a name="model-customize-evaluation-studio-step3"></a>

La progression de votre tâche d'évaluation est suivie dans l'onglet Étapes d'évaluation :

![\[L'avancement de votre tâche d'évaluation\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/getting-started-benchmark-tracking.png)


### Étape 4 : Afficher les résultats de votre job d'évaluation
<a name="model-customize-evaluation-studio-step4"></a>

Les résultats de votre travail d'évaluation sont visualisés dans l'onglet Résultats de l'évaluation :

![\[Les indicateurs de votre travail d'évaluation\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/getting-started-benchmark-results.png)


### Étape 5 : Afficher vos évaluations terminées
<a name="model-customize-evaluation-studio-step5"></a>

Votre tâche d'évaluation terminée est affichée dans Évaluations de votre modèle de carte :

![\[Vos tâches d'évaluation terminées\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/getting-started-benchmark-completed-model-card.png)


## Soumettez votre travail d'évaluation via le SDK SageMaker Python
<a name="model-customize-evaluation-sdk"></a>

### Étape 1 : Créez votre BenchMarkEvaluator
<a name="model-customize-evaluation-sdk-step1"></a>

Transmettez votre modèle entraîné enregistré, l'emplacement de sortie AWS S3 et l'ARN MLFlow des ressources à, `BenchMarkEvaluator` puis initialisez-les.

```
from sagemaker.train.evaluate import BenchMarkEvaluator, Benchmark  
  
evaluator = BenchMarkEvaluator(  
    benchmark=Benchmark.MMLU,  
    model="arn:aws:sagemaker:<region>:<account-id>:model-package/<model-package-name>/<version>",  
    s3_output_path="s3://<bucket-name>/<prefix>/eval/",  
    mlflow_resource_arn="arn:aws:sagemaker:<region>:<account-id>:mlflow-tracking-server/<tracking-server-name>",  
    evaluate_base_model=False  
)
```

### Étape 2 : Soumettez votre job d'évaluation
<a name="model-customize-evaluation-sdk-step2"></a>

Appelez la `evaluate()` méthode pour soumettre le travail d'évaluation.

```
execution = evaluator.evaluate()
```

### Étape 3 : Suivez la progression de votre job d'évaluation
<a name="model-customize-evaluation-sdk-step3"></a>

Appelez la `wait()` méthode d'exécution pour obtenir une mise à jour en temps réel de l'avancement de la tâche d'évaluation.

```
execution.wait(target_status="Succeeded", poll=5, timeout=3600)
```

### Étape 4 : Afficher les résultats de votre job d'évaluation
<a name="model-customize-evaluation-sdk-step4"></a>

Appelez la `show_results()` méthode pour afficher les résultats de votre tâche d'évaluation.

```
execution.show_results()
```