Amazon SageMaker AI - Amazon Timestream

Para obtener capacidades similares a las de Amazon Timestream, considere Amazon Timestream LiveAnalytics para InfluxDB. Ofrece una ingesta de datos simplificada y tiempos de respuesta a las consultas en milisegundos de un solo dígito para realizar análisis en tiempo real. Obtenga más información aquí.

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Amazon SageMaker AI

Puede utilizar los blocs de notas de Amazon SageMaker para integrar los modelos de machine learning con Amazon Timestream. Para empezar, creamos un ejemplo de bloc de notas de SageMaker que procesa los datos de Timestream. Los datos se insertan en Timestream desde una aplicación Python de subprocesos múltiples que envía datos de manera continua. El código de origen del ejemplo del bloc de notas de SageMaker y de la aplicación Python de ejemplo están disponibles en GitHub.

  1. Cree una base de datos y una tabla según las instrucciones descritas en Creación de una base de datos de y Creación de una tabla.

  2. Clone el repositorio de GitHub para la aplicación de muestra de Python de subprocesos múltiples según las instrucciones de GitHub.

  3. Clone el repositorio de GitHubv para el bloc de notas de muestra de SageMaker de Timestream según las instrucciones de GitHub.

  4. Ejecute la aplicación para incorporar datos de manera continua a Timestream según las instrucciones del archivo README.

  5. Siga las instrucciones para crear un bucket de Amazon S3 para Amazon SageMaker como se describe aquí.

  6. Cree una instancia de Amazon SageMaker con la última versión de boto3 instalada: además de las instrucciones que se describen aquí, siga los pasos que se indican a continuación:

    1. En la página de la instancia Crear un bloc de notas, haga clic en Configuración adicional.

    2. Haga clic en Configuración del ciclo de vida: (opcional) y seleccione Crear una nueva configuración del ciclo de vida.

    3. En el cuadro asistente Crear la configuración del ciclo de vida, realice lo siguiente:

      1. Ingrese el nombre que desee en la configuración, por ejemplo, on-start.

      2. En el script del bloc de notas de Start, copie y pegue el contenido del script de Github.

      3. Reemplace PACKAGE=scipy con PACKAGE=boto3 en el script que pegó.

  7. Haga clic en Crear configuración.

  8. Diríjase al servicio de IAM en la consola de administración de AWS y busque el rol de ejecución de SageMaker recién creado para la instancia del bloc de notas.

  9. Asocie la política de IAM para AmazonTimestreamFullAccess al rol de ejecución.

    nota

    La política de IAM de AmazonTimestreamFullAccess no se limita a recursos específicos y no es adecuada para su uso en producción. En el caso de un sistema de producción, considere la posibilidad de utilizar políticas que limiten el acceso a recursos específicos.

  10. Cuando el estado de la instancia del bloc de notas sea InService, elija Abrir Jupyter para iniciar un bloc de notas de SageMaker para la instancia.

  11. Cargue los archivos timestreamquery.py y Timestream_SageMaker_Demo.ipynb en el bloc de notas con el botón Cargar.

  12. Elegir Timestream_SageMaker_Demo.ipynb

    nota

    Si aparece una ventana emergente que indica que no se encontró Kernel, elija conda_python3 y haga clic en Establecer Kernel.

  13. Modifique DB_NAME, TABLE_NAME, bucket y ENDPOINT para que coincidan el nombre de la base de datos, el nombre de la tabla, el nombre del bucket de S3 y la región de los modelos de entrenamiento.

  14. Elija el icono de reproducir para ejecutar las celdas individuales

  15. Cuando llegue a la celda Leverage Timestream to find hosts with average CPU utilization across the fleet, asegúrese de que el resultado muestre al menos 2 nombres de host.

    nota

    Si hay menos de 2 nombres de host en el resultado, es posible que deba volver a ejecutar la aplicación Python de ejemplo que ingiere datos en Timestream con una cantidad mayor de subprocesos y a escala de host.

  16. Cuando llegue a la celda Train a Random Cut Forest (RCF) model using the CPU utilization history, cambie train_instance_type según los requisitos de los recursos para el trabajo de entrenamiento.

  17. Cuando llegue a la celda Deploy the model for inference, cambie instance_type según los requisitos de los recursos para el trabajo de interfaz.

    nota

    El entrenamiento del modelo puede demorar unos minutos. Cuando se complete el entrenamiento, verá el mensaje Completado: se completó el trabajo de entrenamiento en el resultado de la celda.

  18. Ejecute la celda Stop and delete the endpoint para limpiar los recursos. También puede detener y eliminar la instancia de la consola de SageMaker.