

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Introducción
<a name="model-customize-evaluation-getting-started"></a>

## Presente un trabajo de evaluación a través de SageMaker Studio
<a name="model-customize-evaluation-studio"></a>

### Paso 1: Navegue hasta la evaluación desde su tarjeta modelo
<a name="model-customize-evaluation-studio-step1"></a>

Después de personalizar el modelo, vaya a la página de evaluación desde su tarjeta de modelo.

Para obtener información sobre el entrenamiento con modelos personalizados con pesas abiertas: [https://docs.aws.amazon.com/sagemaker/latest/dg/model- .html customize-open-weight-job](https://docs.aws.amazon.com/sagemaker/latest/dg/model-customize-open-weight-job.html)

SageMaker visualiza su modelo personalizado en la pestaña Mis modelos:

![\[Página de tarjeta de modelo registrado\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/getting-started-registered-model-card.png)


Seleccione Ver la última versión y, a continuación, elija Evaluar:

![\[Página de personalización del modelo\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/getting-started-evaluate-from-model-card.png)


### Paso 2: Envíe su trabajo de evaluación
<a name="model-customize-evaluation-studio-step2"></a>

Pulse el botón Enviar y envíe su trabajo de evaluación. Esto presenta un trabajo mínimo de referencia de MMLU.

Para obtener información sobre los tipos de trabajos de evaluación admitidos, consulte. [Tipos de evaluación y presentación de trabajos](model-customize-evaluation-types.md)

![\[Página de envío de trabajos de evaluación\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/getting-started-benchmark-submission.png)


### Paso 3: Realice un seguimiento del progreso de su trabajo de evaluación
<a name="model-customize-evaluation-studio-step3"></a>

El progreso de su trabajo de evaluación se registra en la pestaña Pasos de evaluación:

![\[El progreso de su trabajo de evaluación\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/getting-started-benchmark-tracking.png)


### Paso 4: Vea los resultados de su trabajo de evaluación
<a name="model-customize-evaluation-studio-step4"></a>

Los resultados de su trabajo de evaluación se visualizan en la pestaña Resultados de la evaluación:

![\[Las métricas de tu trabajo de evaluación\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/getting-started-benchmark-results.png)


### Paso 5: Vea sus evaluaciones completadas
<a name="model-customize-evaluation-studio-step5"></a>

El trabajo de evaluación completado se muestra en Evaluaciones de su tarjeta modelo:

![\[Sus trabajos de evaluación completados\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/getting-started-benchmark-completed-model-card.png)


## Envíe su trabajo de evaluación a través del SDK de SageMaker Python
<a name="model-customize-evaluation-sdk"></a>

### Paso 1: Crea tu BenchMarkEvaluator
<a name="model-customize-evaluation-sdk-step1"></a>

Transfiera el modelo entrenado registrado, la ubicación de salida de AWS S3 y el ARN del MLFlow recurso y, a continuación, `BenchMarkEvaluator` inicialícelo.

```
from sagemaker.train.evaluate import BenchMarkEvaluator, Benchmark  
  
evaluator = BenchMarkEvaluator(  
    benchmark=Benchmark.MMLU,  
    model="arn:aws:sagemaker:<region>:<account-id>:model-package/<model-package-name>/<version>",  
    s3_output_path="s3://<bucket-name>/<prefix>/eval/",  
    mlflow_resource_arn="arn:aws:sagemaker:<region>:<account-id>:mlflow-tracking-server/<tracking-server-name>",  
    evaluate_base_model=False  
)
```

### Paso 2: Envíe su trabajo de evaluación
<a name="model-customize-evaluation-sdk-step2"></a>

Utilice el `evaluate()` método para enviar el trabajo de evaluación.

```
execution = evaluator.evaluate()
```

### Paso 3: Realice un seguimiento del progreso de su trabajo de evaluación
<a name="model-customize-evaluation-sdk-step3"></a>

Utilice el `wait()` método de ejecución para obtener una actualización en tiempo real del progreso del trabajo de evaluación.

```
execution.wait(target_status="Succeeded", poll=5, timeout=3600)
```

### Paso 4: Vea los resultados de su trabajo de evaluación
<a name="model-customize-evaluation-sdk-step4"></a>

Utilice el `show_results()` método para mostrar los resultados de su trabajo de evaluación.

```
execution.show_results()
```