TwelveLabs 模型 - Amazon Bedrock

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

TwelveLabs 模型

本節說明 TwelveLabs 模型的請求參數和回應欄位。使用此資訊對TwelveLabs模型進行推論呼叫。TwelveLabs Pegasus 1.2 模型支援 InvokeModelInvokeModelWithResponseStream (串流) 操作,而TwelveLabs Marengo Embed 2.7模型支援 StartAsyncInvoke 操作。本節也包含示範如何呼叫TwelveLabs模型的程式碼範例。若要在推論操作中使用模型,您需要模型的模型 ID。若要取得模型 ID,請參閱 Amazon Bedrock 中支援的基礎模型

TwelveLabs 是多模型 AI 模型的領導供應商,專注於影片理解和分析。其進階模型透過state-of-the-art電腦視覺和自然語言處理技術,實現複雜的影片搜尋、分析和內容產生功能。Amazon Bedrock 現在提供兩種TwelveLabs模型:TwelveLabs Pegasus 1.2,可提供全面的影片理解和分析,以及 TwelveLabs Marengo Embed 2.7,可產生影片、文字、音訊和影像內容的高品質內嵌。這些模型可讓開發人員建置應用程式,以智慧方式處理、分析和衍生大規模影片資料的洞見。

TwelveLabs Pegasus 1.2

一種多模式模型,可提供全面的影片理解和分析功能,包括內容辨識、場景偵測和情境理解。模型可以分析影片內容,並產生影片相關問題的文字描述、洞見和答案。

TwelveLabs Marengo Embed 2.7

一種多模式內嵌模型,可產生視訊、文字、音訊和影像內容的高品質向量表示法,用於相似性搜尋、叢集和其他機器學習任務。此模型支援多種輸入模式,並提供針對不同使用案例最佳化的專用內嵌。

下表列出 Amazon Bedrock 中可用的TwelveLabs模型。

TwelveLabs 模型
模型名稱 模型 ID 輸入模式 輸出模式 描述
TwelveLabs Pegasus 1.2 twelvelabs.pegasus-1-2-v1:0 影片 文字 一種多模式模型,可提供全面的影片理解和分析功能,包括內容辨識、場景偵測和情境理解。
TwelveLabs Marengo Embed 2.7 twelvelabs.marengo-embed-2-7-v1:0 影片、文字、音訊、影像 內嵌項目 一種多模式內嵌模型,可產生視訊、文字、音訊和影像內容的高品質向量表示法,用於相似性搜尋、叢集和其他機器學習任務。