Amazon Rekognition Video と Amazon Kinesis のリソースを設定する - Amazon Rekognition

Amazon Rekognition Video と Amazon Kinesis のリソースを設定する

次の手順では、ストリーミングビデオの顔認識に使用する Kinesis ビデオストリームとその他のリソースをプロビジョニングするための手順を説明します。

前提条件

以下の手順を実行するには、AWS SDK for Java をインストールしている必要があります。詳細については、「Amazon Rekognition の開始方法」を参照してください。使用する AWS アカウントには、Amazon Rekognition API へのアクセス権限が必要です。詳細については、IAM ユーザーガイドの「Amazon Rekognition で定義されるアクション」を参照してください。

ビデオストリーム内の顔を認識するには (AWS SDK)
  1. まだの場合、Amazon Rekognition Video に Kinesis Video Streams と Kinesis Data Streams へのアクセスを許可するために IAM サービスロールを作成します。その ARN をメモします。詳細については、「AmazonRekognitionServiceRole を使用してストリームへのアクセス権を付与する」を参照してください。

  2. コレクションを作成し、使用したコレクション識別子をメモします。

  3. 手順 2 で作成したコレクションで、検索する顔にインデックスを付けます

  4. Kinesis ビデオストリームの作成 と、ストリームの Amazon リソースネーム (ARN) を記録します。

  5. Kinesis データストリームを作成する。ストリーム名の先頭に AmazonRekognition を追加し、ストリームの ARN をメモします。

これで、顔検索ストリームプロセッサを作成し、選択したストリームプロセッサ名を使用してストリームプロセッサを起動できます。

注記

ストリームプロセッサは、Kinesis ビデオストリームにメディアを取り込めることを確認した後に起動する必要があります。

Amazon Rekognition Video へのストリーミングビデオ

Amazon Rekognition Video にビデオをストリーミングするには、Amazon Kinesis Video Streams SDK を使用して、Kinesis ビデオストリームを作成し使用します。PutMedia オペレーションは、Amazon Rekognition Video が消費するビデオデータ フラグメント を Kinesis ビデオストリームに書き込みます。通常、各ビデオデータフラグメントは 2 ~ 10 秒間の長さで、自己完結型のビデオフレームのシーケンスを含みます。Amazon Rekognition Video は、3 つのタイプのフレーム (I、B、および P) を持つ H.264 エンコードされたビデオをサポートしています。詳細については、「フレーム間」を参照してください。フラグメントの最初のフレームは、I-frame でなければなりません。I-frame は、他のフレームから独立してデコードできます。

Kinesis ビデオストリームにビデオデータが到着すると、Kinesis Video Streams はフラグメントに一意の数値を割り当てます。例については、「PutMedia API の例」を参照してください。

  • Matroska (MKV) でエンコードされたソースからストリーミングする場合は、PutMedia オペレーションを使用して、作成した Kinesis ビデオストリームにソースビデオをストリーミングしてください。詳細については、「PutMedia API の例」を参照してください。

  • デバイスカメラからストリーミングする場合は、GStreamer プラグインを使用したストリーミング を参照してください。