Amazon SageMaker AI - Amazon Timestream

Amazon Timestream for LiveAnalytics に類似した機能をご希望の場合は Amazon Timestream for InfluxDB をご検討ください。リアルタイム分析に適した、シンプルなデータインジェストと 1 桁ミリ秒のクエリ応答時間を特徴としています。詳細については、こちらを参照してください。

Amazon SageMaker AI

Amazon SageMaker ノートブックを使用して、機械学習モデルを Amazon Timestream と統合できます。この処理を開始しやすいように、Timestream からのデータを処理するサンプル SageMaker ノートブックを作成しました。データは、マルチスレッド Python アプリケーションから Timestream に挿入され、継続的に送信されます。サンプル SageMaker ノートブックとサンプル Python アプリケーションのソースコードは、GitHub で入手できます。

  1. データベースを作成する」および「テーブルを作成する」で説明されている手順に従って、データベースとテーブルを作成します。

  2. GitHub の手順に従って、マルチスレッド Python サンプルアプリケーション向けの GitHub リポジトリのクローンを作成します。

  3. サンプル Timestream SageMaker ノートブック向けの GitHub リポジトリのクローンを、GitHub の手順に従って作成します。

  4. README の指示に従って、Timestream にデータを継続的に取り込むアプリケーションを実行します。

  5. こちらで説明されているように、手順に従って Amazon SageMaker 用の Amazon S3 バケットを作成します。

  6. 最新の boto3 がインストールされた Amazon SageMaker インスタンスを作成します。こちらで説明されている手順に加えて、以下の手順に従います。

    1. [ノートブックの作成] インスタンスページで、[追加設定] をクリックします。

    2. [ライフサイクル設定 – オプション] をクリックし、[新しいライフサイクル設定の作成] を選択します。

    3. [ライフサイクル設定の作成] ウィザードボックスで、次の操作を行います。

      1. 設定に対して任意の名前を入力します (例: on-start)。

      2. [ノートブックの開始] スクリプトで、スクリプトコンテンツを GitHub からコピーして貼り付けます。

      3. 貼り付けたスクリプトで、PACKAGE=scipyPACKAGE=boto3 に置き換えます。

  7. [設定の作成] をクリックします。

  8. AWS マネジメントコンソールの IAM サービスに移動し、ノートブックインスタンス用に新しく作成された SageMaker 実行ロールを見つけます。

  9. AmazonTimestreamFullAccess の IAM ポリシーを実行ロールにアタッチします。

    注記

    AmazonTimestreamFullAccess IAM ポリシーは特定のリソースに限定されず、本番環境での使用には適していません。本番稼働システムについては、特定のリソースへのアクセスを制限するポリシーの使用を検討してください。

  10. ノートブックインスタンスのステータスが [InService] の場合、[Jupyter を開く] を選択し、インスタンスの SageMaker ノートブックを起動します。

  11. [アップロード] ボタンを選択して、ファイル timestreamquery.pyTimestream_SageMaker_Demo.ipynb をノートブックにアップロードします。

  12. [] を選択するTimestream_SageMaker_Demo.ipynb

    注記

    [カーネルが見つかりません] というポップアップが表示された場合は、conda_python3 を選択し、[カーネルを設定] をクリックします。

  13. DB_NAMETABLE_NAMEbucket、および ENDPOINT を変更して、トレーニングモデルのデータベース名、テーブル名、S3 バケット名、リージョンと一致させます。

  14. 再生アイコンを選択して個々のセルを実行します。

  15. セル Leverage Timestream to find hosts with average CPU utilization across the fleet に達したら、出力が少なくとも 2 つのホスト名を返すことを確認します。

    注記

    出力のホスト名が 2 つ未満の場合、状況によっては、より多くのスレッドとホストスケールで Timestream にデータを取り込むサンプル Python アプリケーションを再実行する必要があります。

  16. セル Train a Random Cut Forest (RCF) model using the CPU utilization history に移動したら、トレーニングジョブのリソース要件に基づいて train_instance_type を変更します。

  17. セル Deploy the model for inference に移動したら、推論ジョブのリソース要件に基づいて instance_type を変更します。

    注記

    モデルのトレーニングには数分かかる場合があります。トレーニングが完了すると、セルの出力に Completed – Training job completed というメッセージが表示されます。

  18. セル Stop and delete the endpoint を実行してリソースをクリーンアップします。SageMaker コンソールからインスタンスを停止および削除することもできます。