

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Amazon SageMaker Experiments en Studio Classic
<a name="experiments"></a>

**importante**  
El seguimiento de SageMaker experimentos mediante el SDK de Experiments Python solo está disponible en Studio Classic. Recomendamos usar la nueva experiencia de Studio y crear experimentos con las últimas integraciones de SageMaker IA con MLflow. No hay ninguna integración de MLflow interfaz de usuario con Studio Classic. Si desea utilizarla MLflow con Studio, debe iniciar la MLflow interfaz de usuario mediante AWS CLI. Para obtener más información, consulte [Inicio de la interfaz de usuario de MLflow mediante la AWS CLI](mlflow-launch-ui.md#mlflow-launch-ui-cli).

Amazon SageMaker Experiments Classic es una función de Amazon SageMaker AI que le permite crear, gestionar, analizar y comparar sus experimentos de aprendizaje automático en Studio Classic. Utilice SageMaker Experiments para ver, gestionar, analizar y comparar tanto los experimentos personalizados que cree mediante programación como los que se crean automáticamente a partir de trabajos de SageMaker IA. 

Experimentos Classic realiza un seguimiento automático de las entradas, parámetros, configuraciones y resultados de las iteraciones como *ejecuciones*. *Puedes asignar, agrupar y organizar estas ejecuciones en experimentos.* SageMaker Experiments está integrado con Amazon SageMaker Studio Classic y proporciona una interfaz visual para explorar los experimentos activos y anteriores, comparar las ejecuciones en función de las principales métricas de rendimiento e identificar los modelos con mejor rendimiento. SageMaker Experiments hace un seguimiento de todos los pasos y elementos necesarios para crear un modelo, y puede revisar rápidamente los orígenes de un modelo cuando esté solucionando problemas en la producción o auditando sus modelos para comprobar su conformidad.

## Migre de Experiments Classic a Amazon SageMaker AI con MLflow
<a name="experiments-mlflow-migration"></a>

Los experimentos anteriores creados con Experimentos Classic todavía están disponibles para su visualización en Studio Classic. Si quieres mantener y usar el código de los experimentos anteriores MLflow, debes actualizar el código de entrenamiento para usar el MLflow SDK y volver a ejecutar los experimentos de entrenamiento. Para obtener más información sobre cómo empezar a utilizar el MLflow SDK y el AWS MLflow complemento, consulte[Intégrelo MLflow con su entorno](mlflow-track-experiments.md).

# Cuadernos de ejemplo para Experimentos Classic
<a name="experiments-examples"></a>

En los siguientes cuadernos de ejemplo se muestran cómo realizar un seguimiento de las ejecuciones de varios experimentos de entrenamiento de modelos. Puede ver los experimentos resultantes en Studio Classic después de ejecutar los cuadernos. Para ver un tutorial en el que se muestran características adicionales de Studio Classic, consulte [Visita clásica a Amazon SageMaker Studio](gs-studio-end-to-end.md).

## Realice un seguimiento de los experimentos en un entorno de cuaderno
<a name="experiments-tutorials-notebooks"></a>

Para obtener más información sobre el seguimiento de los experimentos en un entorno de cuadernos, consulte los siguientes cuadernos de ejemplo:
+ [Realizar un seguimiento de un experimento mientras forma un modelo de Keras a nivel local](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-experiments/local_experiment_tracking/keras_experiment.html)
+ [Realizar un seguimiento de un experimento mientras forma un modelo de Pytorch localmente o en su cuaderno](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-experiments/local_experiment_tracking/pytorch_experiment.html)

## Realiza un seguimiento del sesgo y la explicabilidad de tus experimentos con Clarify SageMaker
<a name="experiments-tutorials-clarify"></a>

Para obtener una step-by-step guía sobre el seguimiento de los sesgos y la explicabilidad de sus experimentos, consulte el siguiente cuaderno de ejemplo:
+ [Imparcialidad y explicabilidad con Clarify SageMaker ](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-experiments/sagemaker_clarify_integration/tracking_bias_explainability.html)

## Realice un seguimiento de los experimentos para los trabajos SageMaker de formación mediante el modo script
<a name="experiments-tutorials-scripts"></a>

Para obtener más información sobre el seguimiento de los experimentos para los trabajos de SageMaker formación, consulte los siguientes cuadernos de ejemplo:
+ [Realice un experimento de SageMaker IA con Pytorch Distributed Data Parallel (MNIST, clasificación de dígitos manuscritos)](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-experiments/sagemaker_job_tracking/pytorch_distributed_training_experiment.html)
+ [Realiza un seguimiento de un experimento mientras entrenas un modelo de Pytorch con un SageMaker Training Job](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-experiments/sagemaker_job_tracking/pytorch_script_mode_training_job.html)
+ [Entrene a un TensorFlow modelo con un trabajo de SageMaker formación y realice un seguimiento del mismo mediante experimentos SageMaker ](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-experiments/sagemaker_job_tracking/tensorflow_script_mode_training_job.html)

# Ver experimentos y ejecuciones
<a name="experiments-view-compare"></a>

Amazon SageMaker Studio Classic proporciona un navegador de experimentos que puede utilizar para ver listas de experimentos y ejecuciones. Puede elegir una de estas entidades para ver información detallada sobre la entidad o elegir varias entidades para compararlas. Puede filtrar la lista de experimentos por nombre, tipo y etiquetas de la entidad.

**Ver experimentos y ejecuciones**

1. Para ver el experimento en Studio Classic, en la barra lateral de la izquierda, seleccione **Experimentos**.

   Seleccione el nombre del experimento para ver todas las ejecuciones asociadas. Puede buscar experimentos escribiéndolos directamente en la barra de **Búsqueda** o filtrando por tipo de experimento. También puede elegir qué columnas quiere mostrar en su lista de experimentos o ejecuciones.

   Es posible que la lista tarde un momento en actualizarse y mostrar un experimento nuevo o una ejecución de experimentos nuevos. Puede hacer clic en **Actualizar** para actualizar la página. Su lista de experimentos debe tener un aspecto similar a este:  
![\[Una lista de experimentos en la interfaz de usuario de SageMaker experimentos\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/experiments-classic/experiments-overview.png)

1. En la lista de experimentos, haga doble clic en un experimento para mostrar una lista de ejecuciones del experimento.
**nota**  
De forma predeterminada, las ejecuciones de experimentos que se crean automáticamente mediante tareas y contenedores de SageMaker IA están visibles en la interfaz de usuario clásica de Experiments Studio. Para ocultar las carreras creadas por trabajos de SageMaker IA para un experimento determinado, selecciona el icono de configuración (![\[Black square icon representing a placeholder or empty image.\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/icons/Settings_squid.png)) y activa **Mostrar trabajos**.  
![\[En la interfaz de usuario de experimentos se muestra una lista de las ejecuciones de SageMaker experimentos\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/experiments-classic/experiments-runs-overview.png)

1. Haga doble clic en una ejecución para mostrar información sobre una ejecución específica.

   En el panel de **Información general**, elija cualquiera de los siguientes encabezados para ver la información disponible sobre cada ejecución:
   + **Métricas**: métricas que se registran durante una ejecución.
   + **Gráficos**: cree sus propios gráficos para comparar ejecuciones.
   + **Artefactos de salida**: todos los artefactos resultantes de la ejecución del experimento y las ubicaciones de los artefactos en Amazon S3.
   + **Informes de sesgo**: informes de sesgo generados con Clarify con anterioridad o posterioridad al entrenamiento.
   + **Explicabilidad**: informes de explicabilidad generados con Clarify.
   + **Depuraciones**: una lista de reglas del depurador y de problemas encontrados.