Configuración de los recursos de Amazon Rekognition Video y Amazon Kinesis - Amazon Rekognition

Configuración de los recursos de Amazon Rekognition Video y Amazon Kinesis

Los siguientes procedimientos describen los pasos que debe seguir para aprovisionar la transmisión de vídeo de Kinesis y otros recursos que se utilizan para reconocer rostros en una transmisión de vídeo.

Requisitos previos

Para ejecutar este procedimiento, necesita tener AWS SDK para Java instalado. Para obtener más información, consulte Introducción a Amazon Rekognition. La Cuenta de AWS que utilice debe tener permisos de acceso al API de Amazon Rekognition. Para obtener más información, consulte Acciones definidas por Amazon Rekognition en la Guía del usuario de IAM.

Para reconocer rostros en una transmisión de vídeo (AWS SDK)
  1. Si no lo ha hecho aún, cree un rol de servicio de IAM para otorgar a Amazon Rekognition Video acceso a sus transmisiones de vídeo de Kinesis y sus flujos de datos de Kinesis. Anote el ARN. Para obtener más información, consulte Otorgar acceso a las transmisiones mediante AmazonRekognitionServiceRole.

  2. Cree una colección y anote el identificador de la colección que haya utilizado.

  3. Indexe los rostros que desee buscar en la colección que ha creado en el paso 2.

  4. Cree una transmisión de vídeo de Kinesis y anote el Nombre de recurso de Amazon (ARN) de la transmisión.

  5. Cree de un flujo de datos de Kinesis. Anexe al nombre de la transmisión AmazonRekognition y anote el ARN de la transmisión.

A continuación, puede crear el procesador de transmisión por búsqueda de rostros e iniciar el procesador de transmisión que haya elegido.

nota

Debe iniciar el procesador de transmisión solo después de comprobar que puede introducir contenido multimedia en la transmisión de vídeo de Kinesis.

Transmisión de vídeo a Amazon Rekognition Video

Para transmitir vídeo a Amazon Rekognition Video, utilice el SDK de Amazon Kinesis Video Streams para crear y utilizar una transmisión de vídeo de Kinesis. La operación PutMedia escribe fragmentos de datos de vídeo de Kinesis en una transmisión de vídeo que Amazon Rekognition Video consume. Cada fragmento de datos de vídeo suele tener una longitud de 2 a 10 segundos y contiene una secuencia de fotogramas de vídeo autónoma. Amazon Rekognition Video admite vídeos cifrados en H.264, que pueden tener tres tipos de fotogramas (I, B y P). Para obtener más información, consulte Inter Frame. El primer fotograma del fragmento debe ser un I-frame. Un I-frame se puede decodificar de forma independientes de cualquier otro fotograma.

A medida que los datos de vídeo llegan a transmisión de vídeo de Kinesis, Kinesis Video Streams asigna un número único al fragmento. Para ver un ejemplo, consulte PutMedia API Example.