

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Utilisation des vidéos streaming
<a name="streaming-video"></a>

**Note**  
Amazon Rekognition Streaming Video Analysis ne sera plus ouvert aux nouveaux clients à compter du 30 avril 2026. Si vous souhaitez utiliser Streaming Video Analysis, inscrivez-vous avant cette date. Les clients existants dont les comptes ont utilisé cette fonctionnalité au cours des 12 derniers mois peuvent continuer à utiliser le service normalement. Pour plus d'informations, voir Modification de la [disponibilité de Rekognition Streaming Video Analysis.](https://docs.aws.amazon.com/rekognition/latest/dg/rekognition-streaming-video-analysis-availability-change.html) 

Vous pouvez utiliser Vidéo Amazon Rekognition pour détecter et reconnaître des visages dans des vidéos diffusées en streaming. Vidéo Amazon Rekognition utilise Amazon Kinesis Video Streams pour recevoir et traiter un flux vidéo. Vous créez un processeur de flux avec des paramètres indiquant ce que le processeur de flux doit détecter dans le flux vidéo. Rekognition envoie les résultats de détection d’étiquettes issus d’événements vidéo diffusés en continu sous forme de notifications Amazon SNS et Amazon S3. Rekognition génère les résultats de recherche de visages dans un flux de données Kinesis.

Les processeurs de flux de recherche de visages utilisent `FaceSearchSettings` pour rechercher des visages dans une collection. Pour plus d’informations sur la mise en œuvre de processeurs de flux de recherche de visages pour analyser les visages dans le streaming vidéo, consultez [Recherche de visages dans une collection en vidéo streaming](collections-streaming.md).

Les processeurs de flux de détection d’étiquettes utilisent `ConnectedHomeSettings` pour rechercher des personnes, des packages et des animaux de compagnie dans des événements vidéo en streaming. Pour plus d’informations sur la mise en œuvre des processeurs de flux de détection d’étiquettes, consultez [Détection d’étiquettes dans des événements vidéo en streaming](streaming-video-detect-labels.md).

## Présentation des opérations du processeur de flux Vidéo Amazon Rekognition
<a name="using-rekognition-video-stream-processor"></a>

Pour démarrer l’analyse d’une vidéo en streaming, lancez un processeur de flux Vidéo Amazon Rekognition et une vidéo en streaming dans Vidéo Amazon Rekognition. Un processeur de flux Vidéo Amazon Rekognition vous permet de démarrer, d’arrêter et de gérer des processeurs de flux. Vous créez un processeur de flux en appelant [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html). Les paramètres de demande pour créer un processeur de flux de recherche de visages incluent les Amazon Resource Names (ARNs) pour le flux vidéo Kinesis, le flux de données Kinesis et l'identifiant de la collection utilisée pour reconnaître les visages dans la vidéo en streaming. Les paramètres de demande pour créer un processeur de flux de surveillance de la sécurité incluent les Amazon Resource Names (ARNs) pour le flux vidéo Kinesis et le sujet Amazon SNS, les types d'objets que vous souhaitez détecter dans le flux vidéo et les informations relatives à un compartiment Amazon S3 pour les résultats de sortie. Ils comprennent également le nom que vous définissez pour le processeur de flux.

Vous commencez le traitement d'une vidéo en appelant l'opération [StartStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartStreamProcessor.html). Pour obtenir des informations sur l'état d'un processeur de flux, appelez [DescribeStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeStreamProcessor.html). Les autres opérations que vous pouvez effectuer consistent [TagResource](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_TagResource.html)à étiqueter un processeur de flux et [DeleteStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteStreamProcessor.html)à supprimer un processeur de flux. Si vous utilisez un processeur de flux de recherche faciale, vous pouvez également l'utiliser [StopStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StopStreamProcessor.html)pour arrêter un processeur de flux. Pour obtenir une liste des processeurs de flux de votre compte, appelez [ListStreamProcessors](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ListStreamProcessors.html). 

Lorsque le processeur de flux commence à s’exécuter, vous diffusez la vidéo dans Vidéo Amazon Rekognition via le flux vidéo Kinesis que vous avez spécifié dans `CreateStreamProcessor`. Vous pouvez utiliser l'opération du [PutMedia](https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/API_dataplane_PutMedia.html)SDK Kinesis Video Streams pour diffuser de la vidéo dans le flux vidéo Kinesis. Pour un exemple, voir [Exemple PutMedia d'API](https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/examples-putmedia.html).

Pour plus d’informations sur la manière dont votre application peut utiliser les résultats d’analyse Vidéo Amazon Rekognition à partir d’un processeur de flux de recherche faciale, consultez [Lecture des résultats d’analyse de vidéo en streaming](streaming-video-kinesis-output.md).