Modelos de TwelveLabs - Amazon Bedrock

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Modelos de TwelveLabs

En esta sección se describen los parámetros de solicitud y los campos de respuesta de los modelos de TwelveLabs. Utilice esta información para realizar llamadas de inferencia a los modelos de TwelveLabs. El TwelveLabs Pegasus 1.2 modelo admite InvokeModeloperaciones InvokeModelWithResponseStream(de transmisión). Los TwelveLabs Marengo Embed 3.0 modelos TwelveLabs Marengo Embed 2.7 y apoyan StartAsyncInvokelas operaciones. En esta sección también se incluyen ejemplos de código que muestran cómo llamar a los modelos de TwelveLabs. Para utilizar un modelo en una operación de inferencia, necesitará el ID del modelo. Para obtener el ID del modelo, consulte Modelos fundacionales compatibles en Amazon Bedrock.

TwelveLabs es un proveedor líder de modelos de IA multimodales especializado en la comprensión y el análisis de vídeo. Sus modelos avanzados permiten sofisticadas capacidades de búsqueda de vídeo, análisis y generación de contenido mediante tecnologías de visión state-of-the-art artificial y procesamiento del lenguaje natural.

Amazon Bedrock ofrece tres TwelveLabs modelos:

  • TwelveLabs Pegasus 1.2proporciona una comprensión y un análisis exhaustivos del vídeo.

  • TwelveLabs Marengo Embed 2.7genera incrustaciones de alta calidad para contenido de vídeo, texto, audio e imágenes.

  • TwelveLabs Marengo Embed 3.0es el último modelo de incrustación con prestaciones y prestaciones mejoradas.

Estos modelos le ayudan a crear aplicaciones que procesan, analizan y obtienen información a partir de datos de vídeo a escala.

TwelveLabs Pegasus 1.2

Un modelo multimodal que proporciona capacidades integrales de comprensión y análisis de vídeo, incluido el reconocimiento de contenido, la detección de escenas y la comprensión del contexto. El modelo puede analizar el contenido de vídeo y generar descripciones textuales, información y respuestas a preguntas sobre el vídeo.

TwelveLabs Marengo Embed 2.7

Un modelo de incrustación multimodal que genera representaciones vectoriales de alta calidad del contenido de vídeo, texto, audio e imágenes para la búsqueda de similitudes, la agrupación en clústeres y otras tareas de machine learning. El modelo admite varias modalidades de entrada y proporciona incrustaciones especializadas optimizadas para diferentes casos de uso.

TwelveLabs Marengo Embed 3.0

Un modelo de incrustación multimodal mejorado que amplía las capacidades de Marengo 2.7 al admitir la modalidad de entrada intercalada de texto e imagen. Este modelo genera representaciones vectoriales de alta calidad de contenido de vídeo, texto, audio, imágenes y texto-imagen intercaladas para la búsqueda de similitudes, la agrupación en clústeres y otras tareas de aprendizaje automático.