

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Agregar un modelo
<a name="jumpstart-content-sharing-add-model"></a>

Para agregar un modelo, elija **Compartido por mi organización** y, a continuación, seleccione **Agregar modelo** en la lista desplegable **Agregar**. Introduzca la información básica del modelo y agregue cualquier información de entrenamiento o inferencia que desee compartir con los colaboradores para entrenar o implementar el modelo. Tras introducir toda la información necesaria, seleccione **Agregar modelo** en la esquina inferior derecha de la pantalla.

**Topics**
+ [

# Adición de información básica
](jumpstart-content-sharing-info.md)
+ [

# Habilitar el entrenamiento
](jumpstart-content-sharing-training.md)
+ [

# Habilitación de la implementación
](jumpstart-content-sharing-deployment.md)
+ [

# Agregar un cuaderno
](jumpstart-content-sharing-notebooks.md)

# Adición de información básica
<a name="jumpstart-content-sharing-info"></a>

Añadir un modelo JumpStart implica proporcionar información básica sobre el modelo que quieres entrenar. Esta información ayuda a definir las características y capacidades del modelo, así como a mejorar su visibilidad y facilidad de búsqueda. Para crear un nuevo modelo, siga estos pasos:

1. Agregue un título para este modelo. Al agregar un título, se rellena automáticamente un identificador único en el campo ID en función del título del modelo.

1. Agregue una descripción del modelo.

1. Seleccione un tipo de datos de las opciones: *texto*, *visión*, *tabular* o *audio*.

1. Seleccione una tarea de machine learning de la lista de tareas disponibles, como la *clasificación de imágenes* o la *generación de texto*.

1. Seleccione un marco de machine learning.

1. Agregue información de metadatos con palabras clave o frases para utilizarla al buscar un modelo. Use comas para separar las palabras clave. Los espacios se sustituyen automáticamente por comas.

# Habilitar el entrenamiento
<a name="jumpstart-content-sharing-training"></a>

Al agregar un modelo para compartirlo, si lo desea, puede proporcionar un entorno de entrenamiento y permitir que los colaboradores de su organización entrenen el modelo compartido. 

**nota**  
Si va a agregar un modelo tabular, también debe especificar un formato de columna y una columna de destino para permitir el entrenamiento.

Tras proporcionar los detalles básicos del modelo, tendrá que configurar los ajustes del trabajo de entrenamiento que se utilizará para entrenar el modelo. Esto implica especificar el entorno del contenedor, los scripts de código, los conjuntos de datos, las ubicaciones de salida y otros parámetros para controlar cómo se ejecuta el trabajo de entrenamiento. Para configurar la configuración del trabajo de entrenamiento, siga estos pasos:

1. Agregue un contenedor para usarlo en el entrenamiento de modelos. Puede seleccionar un contenedor utilizado para un trabajo de formación existente, traer su propio contenedor en Amazon ECR o usar un contenedor de aprendizaje SageMaker profundo de Amazon.

1. Agregue variables de entorno.

1. Proporcione una ubicación para el script de entrenamiento.

1. Proporcione un punto de entrada al modo script.

1. Proporcione un URI de Amazon S3 para los artefactos del modelo generados durante el entrenamiento.

1. Proporcione el URI de Amazon S3 al conjunto de datos de entrenamiento predeterminado.

1. Proporcione una ruta de salida del modelo. La ruta de salida del modelo debe ser la ruta URI de Amazon S3 para cualquier artefacto del modelo generado a partir del entrenamiento. SageMaker La IA guarda los artefactos del modelo como un único archivo TAR comprimido en Amazon S3.

1. Proporcione un conjunto de datos de validación para utilizarlo en la evaluación del modelo durante el entrenamiento. Los conjuntos de datos de validación deben contener el mismo número de columnas y los mismos encabezados de características que el conjunto de datos de entrenamiento.

1. Active el aislamiento de red. El aislamiento de red aísla el contenedor de modelos de modo que no se puedan realizar llamadas de red entrantes o salientes desde o hacia el contenedor del modelo.

1. Proporcione canales de formación a través de los cuales la SageMaker IA pueda acceder a sus datos. Por ejemplo, puede especificar canales de entrada denominados `train` y `test`. Para cada canal, especifique un nombre de canal y un URI para la ubicación de sus datos. Elija **Explorar** para buscar ubicaciones de Amazon S3.

1. Proporcione hiperparámetros. Agregue cualquier hiperparámetro con el que los colaboradores deban experimentar durante el entrenamiento. Especifique un rango de valores válidos para estos hiperparámetros. Este rango se utiliza para entrenar la validación de hiperparámetros de un trabajo. Puede definir rangos en función del tipo de datos del hiperparámetro.

1. Seleccione un tipo de instancia. Para el entrenamiento con lotes grandes, recomendamos utilizar instancias de GPU con más memoria. Para obtener una lista completa de las instancias de SageMaker formación en todas AWS las regiones, consulte la tabla de **precios bajo demanda** en [Amazon SageMaker Pricing.](https://aws.amazon.com/sagemaker/pricing/)

1. Proporcione métricas. Defina las métricas de un trabajo de entrenamiento especificando un nombre y una expresión regular para cada métrica que su trabajo de entrenamiento monitorice. Diseñe las expresiones regulares para capturar los valores de las métricas que emite el algoritmo. Por ejemplo, la métrica `loss` puede tener la expresión regular `"Loss =(.*?);"`.

# Habilitación de la implementación
<a name="jumpstart-content-sharing-deployment"></a>

Al agregar un modelo para compartirlo, puede proporcionar opcionalmente un entorno de inferencia en el que los colaboradores de su organización puedan implementar el modelo compartido para realizar inferencias.

Tras entrenar tu modelo de aprendizaje automático, tendrás que implementarlo en un punto final de Amazon SageMaker AI para realizar inferencias. Esto implica proporcionar un entorno de contenedores, un script de inferencia, los artefactos del modelo generados durante el entrenamiento y seleccionar un tipo de instancia de cómputo adecuado. La configuración adecuada de estos parámetros es fundamental para garantizar que el modelo implementado pueda realizar predicciones precisas y gestionar las solicitudes de inferencia de manera eficiente. Para configurar el modelo de inferencia, siga estos pasos:

1. Agregue un contenedor para usarlo en la inferencia. Puede traer su propio contenedor en Amazon ECR o usar un contenedor de aprendizaje SageMaker profundo de Amazon.

1. Proporcione el URI de Amazon S3 a un script de inferencia. Los scripts de inferencia personalizados se ejecutan dentro del contenedor elegido. El script de inferencia debe incluir una función para cargar el modelo y, opcionalmente, funciones que generen predicciones y procesen entradas y salidas. Para obtener más información sobre la creación de scripts de inferencia para el marco que elija, consulte [Frameworks](https://sagemaker.readthedocs.io/en/stable/frameworks/index.html) en la documentación del SDK de SageMaker Python. Por ejemplo TensorFlow, consulte [Cómo implementar los controladores previos y and/or posteriores al procesamiento](https://sagemaker.readthedocs.io/en/stable/frameworks/tensorflow/deploying_tensorflow_serving.html#how-to-implement-the-pre-and-or-post-processing-handler-s).

1. Proporcione un URI de Amazon S3 para los artefactos del modelo. Los artefactos del modelo son el resultado del entrenamiento de un modelo y, por lo general, consisten en parámetros entrenados, una definición del modelo que describe cómo calcular las inferencias y otros metadatos. Si ha entrenado su modelo en SageMaker IA, los artefactos del modelo se guardan como un único archivo TAR comprimido en Amazon S3. Si ha entrenado su modelo fuera de la SageMaker IA, debe crear este único archivo TAR comprimido y guardarlo en una ubicación de Amazon S3.

1. Seleccione un tipo de instancia. Para el entrenamiento con lotes grandes, recomendamos utilizar instancias de GPU con más memoria. Para obtener una lista completa de las instancias de SageMaker formación en todas AWS las regiones, consulte la tabla de **precios bajo demanda** en [Amazon SageMaker Pricing](https://aws.amazon.com/sagemaker/pricing/).

# Agregar un cuaderno
<a name="jumpstart-content-sharing-notebooks"></a>

Para agregar un cuaderno, elija **Compartido por mi organización** y, a continuación, seleccione **Agregar cuaderno** en la lista desplegable **Agregar**. Introduzca la información básica de su cuaderno y proporcione un URI de Amazon S3 para la ubicación de dicho cuaderno. 

En primer lugar, agregue la información descriptiva básica sobre su cuaderno. Esta información se utiliza para mejorar la capacidad de búsqueda del cuaderno.

1. Agregue un título a este cuaderno. Al agregar un título, se rellena automáticamente un identificador único en el campo ID en función del título del cuaderno.

1. Agregue una descripción del cuaderno.

1. Seleccione un tipo de datos de las opciones: *texto*, *visión*, *tabular* o *audio*.

1. Seleccione una tarea de ML de la lista de tareas disponibles, como la *clasificación de imágenes* o la *generación de texto*.

1. Seleccione un marco de ML.

1. Agregue información de metadatos con palabras clave o frases para utilizarla al buscar un cuaderno. Use comas para separar las palabras clave. Los espacios se sustituyen automáticamente por comas.

Una vez que haya especificado la información básica, puede proporcionar un URI de Amazon S3 para la ubicación de dicho cuaderno. Puede elegir **Explorar** para buscar en los buckets de Amazon S3 la ubicación de su archivo de cuaderno. Cuando encuentre su cuaderno, copie el URI de Amazon S3, seleccione **Cancelar** y, a continuación, agregue el URI de Amazon S3 al campo **Ubicación del cuaderno**. 

Tras introducir toda la información necesaria, seleccione **Agregar cuaderno** en la esquina inferior derecha. 