TwelveLabs 模型 - Amazon Bedrock

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

TwelveLabs 模型

本節說明 TwelveLabs 模型的請求參數和回應欄位。使用此資訊對 TwelveLabs 模型進行推論呼叫。此TwelveLabs Pegasus 1.2模型支援 InvokeModelInvokeModelWithResponseStream (串流) 操作。TwelveLabs Marengo Embed 2.7 和 TwelveLabs Marengo Embed 3.0模型支援 StartAsyncInvoke 操作。本節也包含程式碼範例,示範如何呼叫 TwelveLabs 模型。若要在推論操作中使用模型,您需要模型的模型 ID。若要取得模型 ID,請參閱Amazon Bedrock 中支援的基礎模型

TwelveLabs 是領先的多模態 AI 模型供應商,專注於影片理解和分析。其進階模型透過先進的電腦視覺和自然語言處理技術,實現複雜的影片搜尋、分析和內容產生功能。

Amazon Bedrock 提供三種TwelveLabs模型:

  • TwelveLabs Pegasus 1.2 提供全面的影片理解和分析。

  • TwelveLabs Marengo Embed 2.7 為影片、文字、音訊和影像內容產生高品質的內嵌。

  • TwelveLabs Marengo Embed 3.0 是最新的內嵌模型,具有增強的效能和功能。

這些模型可協助您建置應用程式,以大規模處理、分析和衍生影片資料的洞見。

TwelveLabs Pegasus 1.2

一種多模態模型,可提供全方位的影片理解和分析功能,包括內容辨識、場景偵測和情境理解。此模型會分析影片內容,並產生有關影片問題的文字描述、洞察和答案。

TwelveLabs Marengo Embed 2.7

一種多模態嵌入模型,可產生影片、文字、音訊和影像內容的高品質向量表示法,用於相似性搜尋、叢集和其他機器學習任務。此模型支援多種輸入模態,並提供針對不同使用案例最佳化的專門嵌入。

TwelveLabs Marengo Embed 3.0

增強型多模態內嵌模型,透過支援文字和影像交錯輸入模式來擴展 Marengo 2.7 的功能。此模型會產生視訊、文字、音訊、影像和交錯文字影像內容的高品質向量表示法,以進行相似性搜尋、叢集和其他機器學習任務。