

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Erste Schritte
<a name="model-customize-evaluation-getting-started"></a>

## Reichen Sie einen Bewertungsjob über SageMaker Studio ein
<a name="model-customize-evaluation-studio"></a>

### Schritt 1: Navigieren Sie auf Ihrer Modellkarte zur Bewertung
<a name="model-customize-evaluation-studio-step1"></a>

Nachdem Sie Ihr Modell angepasst haben, navigieren Sie von Ihrer Modellkarte aus zur Evaluierungsseite.

Informationen zum Training mit maßgeschneiderten Modellen mit offenem Gewicht finden Sie unter: [https://docs.aws.amazon.com/sagemaker/latest/dg/model.html customize-open-weight-job](https://docs.aws.amazon.com/sagemaker/latest/dg/model-customize-open-weight-job.html)

SageMaker visualisiert Ihr individuelles Modell auf der Registerkarte Meine Modelle:

![\[Seite mit der Karte registrierter Modelle\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/getting-started-registered-model-card.png)


Wählen Sie „Aktuelle Version anzeigen“ und anschließend „Evaluieren“:

![\[Seite zur Modellanpassung\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/getting-started-evaluate-from-model-card.png)


### Schritt 2: Reichen Sie Ihren Bewertungsjob ein
<a name="model-customize-evaluation-studio-step2"></a>

Wählen Sie die Schaltfläche „Senden“ und reichen Sie Ihren Bewertungsjob ein. Dadurch wird ein minimaler MMLU-Benchmark-Job eingereicht.

Informationen zu den unterstützten Typen von Bewertungsaufträgen finden Sie unter. [Bewertungsarten und Einreichung von Job](model-customize-evaluation-types.md)

![\[Seite zur Einreichung von Bewertungsaufträgen\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/getting-started-benchmark-submission.png)


### Schritt 3: Verfolgen Sie den Fortschritt Ihres Bewertungsauftrags
<a name="model-customize-evaluation-studio-step3"></a>

Der Fortschritt Ihres Bewertungsauftrags wird auf der Registerkarte Bewertungsschritte nachverfolgt:

![\[Der Fortschritt Ihres Bewertungsauftrags\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/getting-started-benchmark-tracking.png)


### Schritt 4: Sehen Sie sich die Ergebnisse Ihrer Bewertungsjobs an
<a name="model-customize-evaluation-studio-step4"></a>

Die Ergebnisse Ihrer Bewertungsaufgabe werden auf der Registerkarte Bewertungsergebnisse visualisiert:

![\[Ihre Bewertungs-Job-Metriken\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/getting-started-benchmark-results.png)


### Schritt 5: Sehen Sie sich Ihre abgeschlossenen Bewertungen an
<a name="model-customize-evaluation-studio-step5"></a>

Ihr abgeschlossener Bewertungsauftrag wird unter Bewertungen Ihrer Modellkarte angezeigt:

![\[Ihre abgeschlossenen Bewertungsaufträge\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/getting-started-benchmark-completed-model-card.png)


## Reichen Sie Ihren Evaluierungsjob über das SageMaker Python SDK ein
<a name="model-customize-evaluation-sdk"></a>

### Schritt 1: Erstellen Sie Ihr BenchMarkEvaluator
<a name="model-customize-evaluation-sdk-step1"></a>

Übergeben Sie Ihr registriertes trainiertes Modell, den AWS S3-Ausgabespeicherort und den MLFlow Ressourcen-ARN an `BenchMarkEvaluator` und initialisieren Sie es dann.

```
from sagemaker.train.evaluate import BenchMarkEvaluator, Benchmark  
  
evaluator = BenchMarkEvaluator(  
    benchmark=Benchmark.MMLU,  
    model="arn:aws:sagemaker:<region>:<account-id>:model-package/<model-package-name>/<version>",  
    s3_output_path="s3://<bucket-name>/<prefix>/eval/",  
    mlflow_resource_arn="arn:aws:sagemaker:<region>:<account-id>:mlflow-tracking-server/<tracking-server-name>",  
    evaluate_base_model=False  
)
```

### Schritt 2: Reichen Sie Ihren Bewertungsjob ein
<a name="model-customize-evaluation-sdk-step2"></a>

Rufen Sie die `evaluate()` Methode auf, um den Bewertungsjob einzureichen.

```
execution = evaluator.evaluate()
```

### Schritt 3: Verfolgen Sie den Fortschritt Ihres Bewertungsauftrags
<a name="model-customize-evaluation-sdk-step3"></a>

Rufen Sie die `wait()` Ausführungsmethode auf, um eine Live-Aktualisierung des Fortschritts der Evaluierungsaufgabe zu erhalten.

```
execution.wait(target_status="Succeeded", poll=5, timeout=3600)
```

### Schritt 4: Sehen Sie sich die Ergebnisse Ihrer Bewertungsjobs an
<a name="model-customize-evaluation-sdk-step4"></a>

Rufen Sie die `show_results()` Methode auf, um die Ergebnisse Ihrer Bewertungsaufgabe anzuzeigen.

```
execution.show_results()
```