

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# TwelveLabs 模型
<a name="model-parameters-twelvelabs"></a>

本部分介绍 TwelveLabs 模型的请求参数和响应字段。使用这些信息，您可以对 TwelveLabs 模型进行推理调用。该TwelveLabs Pegasus 1.2模型支持[InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)和 [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html)（流式传输）操作。TwelveLabs Marengo Embed 2.7和TwelveLabs Marengo Embed 3.0模型支持[StartAsyncInvoke](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_StartAsyncInvoke.html)操作。此部分还包括展示了如何调用 TwelveLabs 模型的代码示例。要在推理操作中使用模型，您需要相关模型的模型 ID。要获取模型 ID，请参阅 [Amazon Bedrock 中支持的根基模型](models-supported.md)。

TwelveLabs 是一家领先的多模态 AI 模型提供商，专注于视频理解和分析领域。他们的高级模型通过 state-of-the-art计算机视觉和自然语言处理技术实现复杂的视频搜索、分析和内容生成功能。

Amazon Bedrock 提供三种TwelveLabs型号：
+ TwelveLabs Pegasus 1.2提供全面的视频理解和分析。
+ TwelveLabs Marengo Embed 2.7为视频、文本、音频和图像内容生成高质量的嵌入内容。
+ TwelveLabs Marengo Embed 3.0是最新的嵌入模型，具有增强的性能和功能。

这些模型可帮助您构建能够大规模处理、分析视频数据并从中获取见解的应用程序。

**TwelveLabs Pegasus 1.2**

一种具备全面视频理解与分析能力的多模态模型，涵盖了内容识别、场景检测及上下文理解领域。该模型能够分析视频内容，并生成关于视频的文本描述、见解及问题解答。

**TwelveLabs Marengo Embed 2.7**

一种多模态嵌入模型，可针对视频、文本、音频及图像内容生成高质量的向量表示，适用于相似性搜索、聚类及其他机器学习任务。该模型支持多种输入模态，并提供已针对不同的使用案例优化的专用嵌入。

**TwelveLabs Marengo Embed 3.0**

一种增强的多模态嵌入模型，它扩展了 Marengo 2.7 的功能，支持文本和图像交错输入模式。该模型生成视频、文本、音频、图像和交错文本图像内容的高质量矢量表示形式，用于相似度搜索、聚类和其他机器学习任务。

**Topics**
+ [TwelveLabs Pegasus 1.2](model-parameters-pegasus.md)
+ [TwelveLabs Marengo Embed 2.7](model-parameters-marengo.md)
+ [TwelveLabs Marengo Embed 3.0](model-parameters-marengo-3.md)