コンソールでのバッチロードの使用 - Amazon Timestream

Amazon Timestream for LiveAnalytics に類似した機能をご希望の場合は Amazon Timestream for InfluxDB をご検討ください。リアルタイム分析に適した、シンプルなデータインジェストと 1 桁ミリ秒のクエリ応答時間を特徴としています。詳細については、こちらを参照してください。

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

コンソールでのバッチロードの使用

以下は、 AWS マネジメントコンソールでバッチロードを使用する手順です。サンプル CSV はサンプル CSV でダウンロードできます。

バッチロードへのアクセス

AWS マネジメントコンソールを使用してバッチロードにアクセスするには、次の手順に従います。

  1. Amazon Timestream コンソールを開きます。

  2. ナビゲーションペインで、[管理ツール][バッチロードタスク] の順に選択します。

  3. ここから、バッチロードタスクのリストを表示し、特定のタスクの詳細を確認できます。タスクを作成および再開することもできます。

バッチロードタスクを作成する

AWS マネジメントコンソールを使用してバッチロードタスクを作成するには、次の手順に従います。

  1. Amazon Timestream コンソールを開きます。

  2. ナビゲーションペインで、[管理ツール][バッチロードタスク] の順に選択します。

  3. [バッチロードタスクを作成] を選択します。

  4. [インポート先] で、次を選択します。

    必要に応じて、[新しいテーブルを作成] ボタンを使用して、このパネルからテーブルを追加できます。

  5. [データソース][データソースの S3 ロケーション] から、ソースデータが保存されている S3 バケットを選択します。S3 参照ボタンを使用して、アクティブな AWS アカウントがアクセスできる S3 リソースを表示するか、S3 ロケーション URL を入力します。データソースは同じリージョンに配置する必要があります。

  6. [ファイル形式の設定] (拡張可能セクション) では、デフォルト設定を使用して入力データを解析できます。[高度な設定] を選択することもできます。そこから [CSV 形式のパラメータ] を選択し、入力データを解析するパラメータを選択できます。これらのパラメータについては、「CSV 形式パラメータ」を参照してください。

  7. [データモデルマッピングを設定] から、データモデルを設定します。データモデルに関するその他のガイダンスについては、「バッチロードのデータモデルマッピング」を参照してください。

    • [データモデルマッピング] から [マッピング設定入力] を選択し、次のいずれかを選択します。

      • [ビジュアルビルダー] – データを視覚的にマッピングするには、[TargetMultiMeasureName] または [MeasureNameColumn] を選択します。次に、[ビジュアルビルダー] から列をマッピングします。

        ビジュアルビルダーは、単一の CSV ファイルがデータソースとして選択されたときに、データソースファイルからソース列ヘッダーを自動的に検出してロードします。属性とデータ型を選択してマッピングを作成します。

        ビジュアルビルダーの使用について詳しくは、「ビジュアルビルダーの使用」を参照してください。

      • [JSON エディタ] – データモデルを設定するための自由形式の JSON エディタ。Timestream for LiveAnalytics に精通しており、高度なデータモデルマッピングを構築する場合は、このオプションを選択します。

      • [S3 からの JSON ファイル] – S3 に保存した JSON モデルファイルを選択します。データモデルを既に設定していて、追加のバッチロードに再利用する場合は、このオプションを選択します。

  8. [エラーログレポート][エラーログの S3 ロケーション] から、エラーの報告に使用される S3 ロケーションを選択します。このレポートの使用方法については、「バッチロードエラーレポートの使用」を参照してください。

  9. [暗号化キータイプ] で、次のいずれかを選択します。

    • [Amazon S3-managed キー (SSE-S3)] – Amazon S3 が作成、管理、使用する暗号化キー。

    • AWS KMS key (SSE-KMS) – AWS Key Management Service () で保護された暗号化キーAWS KMS。

  10. [次へ] を選択します。

  11. [レビューして作成] ページで設定を確認し、必要に応じて編集します。

    注記

    タスクの作成後にバッチロードタスク設定を変更することはできません。タスクの完了時間は、インポートされるデータの量によって異なります。

  12. [バッチロードタスクを作成] を選択します。

バッチロードタスクの再開

「進行が停止しました」というステータス (引き続き再開可能) のバッチロードタスクを選択すると、タスクを再開するように求められます。これらのタスクの詳細を表示すると、[タスクを再開] ボタンを含むバナーもあります。再開可能なタスクには「再開期限」日が記載されています。その日付を過ぎると、タスクを再開することはできません。

ビジュアルビルダーの使用

ビジュアルビルダーを使用して、S3 バケットに保存されている 1 つ以上の CSV ファイルのソースデータ列を、Timestream for LiveAnalytics テーブルの送信先列にマッピングできます。

注記

ロールには、ファイルの SelectObjectContent 権限が必要です。この権限がない場合は、列を手動で追加および削除する必要があります。

ソース列の自動ロードモード

Timestream for LiveAnalytics では、単一のバケットのみを指定すると、ソース CSV ファイルを自動的にスキャンして列名を探すことができます。既存のマッピングがない場合は、[ソース列をインポート] を選択できます。

  1. [マッピング設定入力設定] から [ビジュアルビルダー] オプションを選択し、タイムスタンプの時間入力を設定します。Milliseconds がデフォルト設定です。

  2. ソースデータファイルにある列ヘッダーをインポートするには、[ソース列を読み込む] ボタンをクリックします。テーブルには、データソースファイルのソース列ヘッダー名が入力されます。

  3. 各ソース列の [ターゲットテーブルの列名][Timestream 属性タイプ][データ型] を選択します。

    これらの列と指定できる値の詳細については、「フィールドのマッピング」を参照してください。

  4. drag-to-fill 機能を使用して、一度に複数の列の値を設定します。

ソース列を手動で追加する

単一の CSV ではなくバケットまたは CSV プレフィックスを使用している場合は、[列マッピングを追加] ボタンと [列マッピングを削除] ボタンを使用して、ビジュアルエディタから列マッピングを追加および削除できます。マッピングをリセットするボタンもあります。

フィールドのマッピング

  • [ソース列名] – インポートするメジャーを表すソースファイル内の列の名前。Timestream for LiveAnalytics は、[ソース列をインポート] を使用するときに、この値を自動的に入力できます。

  • [ターゲットテーブルの列名] – ターゲットテーブルのメジャーの列名を示すオプションの入力。

  • [Timestream 属性タイプ]DIMENSION など、指定されたソース列内のデータの属性タイプ。

    • TIMESTAMP – メジャーが収集された日時を指定します。

    • MULTI – 複数のメジャーが表されます。

    • DIMENSION – 時系列メタデータ。

    • MEASURE_NAME – 単一メジャーレコードの場合、これがメジャー名です。

  • [データ型]BOOLEAN など、Timestream 列のタイプ。

    • BIGINT – 64 ビットの整数。

    • BOOLEAN – ロジックの 2 つの真理値である true と false。

    • DOUBLE – 64 ビットの可変精度数。

    • TIMESTAMP – UTC でナノ秒の精度時間を使用し、Unix エポックからの時間を追跡する時間内のインスタンス。