Modèles TwelveLabs - Amazon Bedrock

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Modèles TwelveLabs

Cette section décrit les paramètres de demande et les champs de réponse pour les modèles TwelveLabs. Utilisez ces informations pour effectuer des appels d’inférence vers les modèles TwelveLabs. Le TwelveLabs Pegasus 1.2 modèle prend en charge InvokeModelles opérations et InvokeModelWithResponseStream(streaming). Les TwelveLabs Marengo Embed 3.0 modèles TwelveLabs Marengo Embed 2.7 et les StartAsyncInvokeopérations de support. Cette section inclut également des exemples de code qui montrent comment appeler les modèles TwelveLabs. Pour utiliser un modèle dans une opération d’inférence, vous avez besoin de l’ID du modèle. Pour obtenir l’ID du modèle, consultez Modèles de fondation pris en charge dans Amazon Bedrock.

TwelveLabs est l’un des principaux fournisseurs de modèles d’IA multimodaux spécialisés dans la compréhension et l’analyse vidéo. Leurs modèles avancés offrent des fonctionnalités sophistiquées de recherche vidéo, d'analyse et de génération de contenu grâce à des technologies de vision par state-of-the-art ordinateur et de traitement du langage naturel.

Amazon Bedrock propose trois TwelveLabs modèles :

  • TwelveLabs Pegasus 1.2fournit une compréhension et une analyse complètes des vidéos.

  • TwelveLabs Marengo Embed 2.7génère des intégrations de haute qualité pour le contenu vidéo, texte, audio et image.

  • TwelveLabs Marengo Embed 3.0est le dernier modèle d'intégration doté de performances et de fonctionnalités améliorées.

Ces modèles vous aident à créer des applications qui traitent, analysent et tirent des informations des données vidéo à grande échelle.

TwelveLabs Pegasus 1.2

Modèle multimodal qui offre des capacités complètes de compréhension et d’analyse vidéo, notamment la reconnaissance de contenu, la détection des scènes et la compréhension contextuelle. Ce modèle peut analyser le contenu vidéo et générer des descriptions textuelles, des informations et des réponses aux questions concernant la vidéo.

TwelveLabs Marengo Embed 2.7

Modèle de vectorisation multimodal qui génère des représentations vectorielles de haute qualité de contenu vidéo, texte, audio et image pour la recherche de similarités, le clustering et d’autres tâches de machine learning. Ce modèle prend en charge plusieurs modalités d’entrée et fournit des vectorisations spécialisées optimisées pour différents cas d’utilisation.

TwelveLabs Marengo Embed 3.0

Un modèle d'intégration multimodal amélioré qui étend les capacités de Marengo 2.7 avec la prise en charge de la modalité de saisie entrelacée de texte et d'image. Ce modèle génère des représentations vectorielles de haute qualité de contenu vidéo, texte, audio, image et texte-image entrelacé pour la recherche de similarités, le clustering et d'autres tâches d'apprentissage automatique.