Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
TwelveLabsmodèles
Cette section décrit les paramètres de demande et les champs de réponse pour les TwelveLabs modèles. Utilisez ces informations pour effectuer des appels d'inférence aux TwelveLabs modèles. Le TwelveLabs Pegasus 1.2 modèle prend en charge les opérations InvokeModelet InvokeModelWithResponseStream(streaming), tandis que le TwelveLabs Marengo Embed 2.7 modèle prend en charge les StartAsyncInvokeopérations. Cette section inclut également des exemples de code qui montrent comment appeler TwelveLabs des modèles. Pour utiliser un modèle dans une opération d'inférence, vous avez besoin de son identifiant. Pour obtenir l'ID du modèle, voirModèles de fondation pris en charge dans Amazon Bedrock.
TwelveLabsest l'un des principaux fournisseurs de modèles d'IA multimodaux spécialisés dans la compréhension et l'analyse vidéo. Leurs modèles avancés offrent des fonctionnalités sophistiquées de recherche vidéo, d'analyse et de génération de contenu grâce à des technologies de vision par state-of-the-art ordinateur et de traitement du langage naturel. Amazon Bedrock propose désormais deux TwelveLabs modèles : TwelveLabs Pegasus 1.2 qui fournit une compréhension et une analyse complètes des vidéosTwelveLabs Marengo Embed 2.7, et qui génère des intégrations de haute qualité pour le contenu vidéo, texte, audio et image. Ces modèles permettent aux développeurs de créer des applications capables de traiter, d'analyser et d'obtenir des informations intelligentes à partir de données vidéo à grande échelle.
TwelveLabs Pegasus 1.2
Modèle multimodal qui fournit des fonctionnalités complètes de compréhension et d'analyse vidéo, notamment la reconnaissance de contenu, la détection de scènes et la compréhension contextuelle. Le modèle peut analyser le contenu vidéo et générer des descriptions textuelles, des informations et des réponses aux questions concernant la vidéo.
TwelveLabs Marengo Embed 2.7
Modèle d'intégration multimodal qui génère des représentations vectorielles de haute qualité de contenu vidéo, texte, audio et image pour la recherche de similarités, le clustering et d'autres tâches d'apprentissage automatique. Le modèle prend en charge plusieurs modalités de saisie et fournit des intégrations spécialisées optimisées pour différents cas d'utilisation.
Le tableau suivant répertorie les TwelveLabs modèles disponibles sur Amazon Bedrock.
Nom du modèle | ID du modèle | Modalité de saisie | Modalité de sortie | Description |
---|---|---|---|---|
TwelveLabs Pegasus 1.2 | twelvelabs.pegasus-1-2-v 1:0 | Vidéo | Texte | Modèle multimodal qui fournit des fonctionnalités complètes de compréhension et d'analyse vidéo, notamment la reconnaissance de contenu, la détection de scènes et la compréhension contextuelle. |
TwelveLabs Marengo Embed 2.7 | twelvelabs.marengo-embed-2-7-v 1:0 | Vidéo, texte, audio, image | Intégrations | Modèle d'intégration multimodal qui génère des représentations vectorielles de haute qualité de contenu vidéo, texte, audio et image pour la recherche de similarités, le clustering et d'autres tâches d'apprentissage automatique. |