本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
TwelveLabs Marengo Embed 2.7
此 TwelveLabs Marengo Embed 2.7 模型會從影片、文字、音訊或影像輸入產生嵌入。這些嵌入可用於相似性搜尋、叢集和其他機器學習任務。
供應商 — TwelveLabs
模型 ID — twelvelabs.marengo-embed-2-7-v1:0
此 TwelveLabs Marengo Embed 2.7 模型支援下表中的 Amazon Bedrock 執行時期操作。
-
如需不同 API 方法使用案例的詳細資訊,請參閱 了解不同模型推論方法的使用案例。
-
如需關於模型類型的詳細資訊,請參閱 Amazon Bedrock 中的推論運作方式。
-
如需模型 IDs 的清單,以及查看 中TwelveLabs Marengo Embed 2.7支援的模型和AWS區域,請在 的表格中搜尋模型Amazon Bedrock 中支援的基礎模型。
-
如需推論設定檔 ID 的完整清單,請參閱 推論設定檔支援的區域和模型。推論設定檔 ID 是以 AWS區域為基礎。
-
注意
使用 InvokeModel 產生搜尋查詢的嵌入。使用 StartAsyncInvoke 大規模產生資產的嵌入。
輸入有下列配額:
| 輸入模式 | 上限 |
|---|---|
| 文字 | 77 個字符 |
| 影像 | 5 MB |
| 影片 (S3) | 2 GB |
| 音訊 (S3) | 2 GB |
注意
如果您使用 base64 編碼定義音訊或視訊內嵌,請確定請求內文承載不超過 Amazon Bedrock 25 MB 模型調用配額。
主題
TwelveLabs Marengo Embed 2.7 請求參數
當您提出請求時,指定模型特定輸入所在的欄位取決於 API 操作:
-
InvokeModel – 在請求
body中。 -
StartAsyncInvoke – 在請求內文的
modelInput欄位中。
模型輸入的格式取決於輸入模式:
如需輸入參數的詳細資訊,請展開下列各節:
嵌入的模式。
類型:字串
必要:是
-
有效值:
video|text|audio|image
要嵌入的文字。
類型:字串
必要:是 (適用於相容輸入類型)
-
相容輸入類型:文字
指定平台如何截斷文字。
類型:字串
必要:否
有效值:
-
end– 截斷文字的結尾。 -
none– 如果文字超過限制,則傳回錯誤
-
預設值: 結尾
-
相容輸入類型:文字
包含媒體來源的相關資訊。
類型:物件
必要:是 (如果相容類型)
-
相容輸入類型:影像、影片、音訊
請求內文中 mediaSource 物件的格式取決於媒體是定義為 Base64-encoded 字串還是 S3 位置。
-
Base64-encoded字串
{ "mediaSource": { "base64String": "base64-encoded string" } }-
base64String– 媒體的 Base64 編碼字串。
-
-
S3 位置 – 指定 S3 URI 和儲存貯體擁有者。
{ "s3Location": { "uri": "string", "bucketOwner": "string" } }-
uri– 包含媒體的 S3 URI。 -
bucketOwner– S3 儲存貯體擁有者AWS的帳戶 ID。
-
指定要擷取的嵌入類型。
類型:清單
必要:否
清單成員的有效值:
-
visual-text– 針對文字搜尋最佳化的視覺化嵌入。 -
visual-image– 針對影像搜尋最佳化的視覺化嵌入。 -
audio– 影片中音訊的嵌入。
-
預設值:["visual-text", "visual-image", "audio"]
-
相容輸入類型:影片、音訊
剪輯中處理應開始的時間點,以秒為單位。
類型:Double
必要:否
最小值:0
預設值:0
-
相容輸入類型:影片、音訊
以秒為單位的時間,從 startSec 時間點開始計數,在此時間之後處理應停止。
類型:Double
必要:否
有效值:0 - 媒體持續時間
預設值:媒體持續時間
-
相容輸入類型:影片、音訊
範例:
-
startSec:5
-
lengthSec:20
-
結果:剪輯會從 0:05 處理至 0:25 (5 秒 + 20 秒)。
模型應產生其嵌入之每個剪輯的持續時間。
類型:Double
必要:否
值參數:2 - 10。必須大於或等於
minClipSec。預設值:視媒體類型而定:
-
影片:動態除以鏡頭邊界偵測。
-
音訊:與區段平均分割,盡可能接近 10 秒。
範例:
-
50 秒剪輯分為 5 個 10 秒區段。
-
16 秒剪輯分為 2 個 8 秒區段。
-
-
-
相容輸入類型:影片、音訊
注意:必須大於或等於
minClipSec。
設定每個剪輯的最小值,以秒為單位。
類型:整數
必要:否
值參數:範圍:1-5
預設值:4
-
相容輸入類型:影片
注意:必須小於或等於
useFixedLengthSec。
TwelveLabs Marengo Embed 2.7 回應
輸出嵌入和相關聯中繼資料的位置取決於調用方法:
-
InvokeModel – 在回應內文中。
-
StartAsyncInvoke – 當非同步調用任務完成後,在
s3OutputDataConfig中定義的 S3 儲存貯體中。
如果有多個嵌入向量,則輸出會是物件清單,每個物件皆包含向量及其相關聯的中繼資料。
輸出嵌入向量的格式如下:
{ "embedding": ["string"], "embeddingOption": "visual-text" | "visual-image" | "audio", "startSec":double, "endsec":double}
如需回應參數的詳細資訊,請展開下列各節:
輸入的嵌入向量表示法。
類型:雙精度浮點數清單
嵌入的類型。
類型:字串
可能的值:
-
visual-text– 針對文字搜尋最佳化的視覺化嵌入。 -
visual-image– 針對影像搜尋最佳化的視覺化嵌入。 -
audio– 影片中音訊的嵌入。
-
-
相容輸入類型:影片
剪輯的開始位移。
類型:Double
-
相容輸入類型:影片、音訊
剪輯的結束位移,以秒為單位。
類型:Double
-
相容輸入類型:影片、音訊
TwelveLabs Marengo Embed 2.7 程式碼範例
本節說明如何使用 Python 搭配不同的輸入類型使用 TwelveLabs Marengo Embed 2.7 模型。這些範例示範如何定義模型特定的輸入和執行模型調用。
注意
InvokeModel 僅支援文字和影像輸入。對於視訊和音訊輸入,請使用 StartAsyncInvoke。
請依照下列步驟將您的程式碼放在一起:
1. 定義模型特定的輸入
根據輸入類型定義模型特定的輸入:
2. 使用模型輸入執行模型調用
然後,新增對應至所選模型調用方法的程式碼片段。