Modèles TwelveLabs - Amazon Bedrock

Modèles TwelveLabs

Cette section décrit les paramètres de demande et les champs de réponse pour les modèles TwelveLabs. Utilisez ces informations pour effectuer des appels d’inférence vers les modèles TwelveLabs. Le modèle TwelveLabs Pegasus 1.2 prend en charge les opérations InvokeModel et InvokeModelWithResponseStream (streaming), tandis que le modèle TwelveLabs Marengo Embed 2.7 prend en charge les opérations StartAsyncInvoke. Cette section inclut également des exemples de code qui montrent comment appeler les modèles TwelveLabs. Pour utiliser un modèle dans une opération d’inférence, vous avez besoin de l’ID du modèle. Pour obtenir l’ID du modèle, consultez Modèles de fondation pris en charge dans Amazon Bedrock.

TwelveLabs est l’un des principaux fournisseurs de modèles d’IA multimodaux spécialisés dans la compréhension et l’analyse vidéo. Leurs modèles avancés offrent des fonctionnalités sophistiquées de recherche vidéo, d’analyse et de génération de contenu grâce à des technologies de pointe de vision par ordinateur et de traitement du langage naturel. Amazon Bedrock propose désormais deux modèles TwelveLabs : TwelveLabs Pegasus 1.2, qui fournit une compréhension et une analyse complètes des vidéos et TwelveLabs Marengo Embed 2.7, qui génère des vectorisations de haute qualité pour le contenu vidéo, texte, audio et image. Ces modèles permettent aux développeurs de créer des applications capables de traiter, d’analyser et d’obtenir des informations intelligentes à partir de données vidéo à grande échelle.

TwelveLabs Pegasus 1.2

Modèle multimodal qui offre des capacités complètes de compréhension et d’analyse vidéo, notamment la reconnaissance de contenu, la détection des scènes et la compréhension contextuelle. Ce modèle peut analyser le contenu vidéo et générer des descriptions textuelles, des informations et des réponses aux questions concernant la vidéo.

TwelveLabs Marengo Embed 2.7

Modèle de vectorisation multimodal qui génère des représentations vectorielles de haute qualité de contenu vidéo, texte, audio et image pour la recherche de similarités, le clustering et d’autres tâches de machine learning. Ce modèle prend en charge plusieurs modalités d’entrée et fournit des vectorisations spécialisées optimisées pour différents cas d’utilisation.