埋め込みリクエストとレスポンススキーマを完了する
同期スキーマを完了する
{ "schemaVersion": "nova-multimodal-embed-v1", "taskType": "SINGLE_EMBEDDING", "singleEmbeddingParams": { "embeddingPurpose": "GENERIC_INDEX" | "GENERIC_RETRIEVAL" | "TEXT_RETRIEVAL" | "IMAGE_RETRIEVAL" | "VIDEO_RETRIEVAL" | "DOCUMENT_RETRIEVAL" | "AUDIO_RETRIEVAL" | "CLASSIFICATION" | "CLUSTERING", "embeddingDimension": 256 | 384 | 1024 | 3072, "text": { "truncationMode": "START" | "END" | "NONE", "value": string, "source": SourceObject, }, "image": { "detailLevel": "STANDARD_IMAGE" | "DOCUMENT_IMAGE", "format": "png" | "jpeg" | "gif" | "webp", "source": SourceObject }, "audio": { "format": "mp3" | "wav" | "ogg", "source": SourceObject }, "video": { "format": "mp4" | "mov" | "mkv" | "webm" | "flv" | "mpeg" | "mpg" | "wmv" | "3gp", "source": SourceObject, "embeddingMode": "AUDIO_VIDEO_COMBINED" | "AUDIO_VIDEO_SEPARATE" } } }
次のリストには、リクエストのすべてのパラメータが含まれます。
-
schemaVersion(オプション) - マルチモーダル埋め込みモデルリクエストのスキーマバージョンタイプ: 文字列
使用できる値:「nova-multimodal-embed-v1」
デフォルト:「nova-multimodal-embed-v1」
-
taskType(必須) - 入力コンテンツに対して実行する埋め込みオペレーションのタイプを指定します。single_embeddingは、モデル入力ごとに 1 つの埋め込みを生成することを指します。segmented_embeddingは、まずユーザー仕様ごとにモデル入力をセグメント化し、次にセグメントごとに 1 つの埋め込みを生成することを指します。タイプ: 文字列
使用できる値: 同期呼び出しには「SINGLE_EMBEDDING」である必要があります。
-
singleEmbeddingParams(必須)-
embeddingPurpose(必須) - Nova Multimodal Embeddings を使用すると、目的のアプリケーションに応じて埋め込みを最適化できます。例としては、MM-RAG、画像および動画検索用のデジタルアセット管理、マルチモーダルコンテンツの類似性比較、インテリジェントドキュメント処理用のドキュメント分類などがあります。embeddingPurposeを使用すると、埋め込みユースケースを指定できます。以下のユースケースに応じて、正しい値を選択します。-
検索と取得: RAG や検索などのユースケースを埋め込むには、2 つの主要なステップがあります。1 つ目はコンテンツの埋め込みを生成してインデックスを作成するステップ、2 つ目は検索中にインデックスから最も関連性の高いコンテンツを取得するステップです。検索と取得のユースケースを使用する場合は、次の値を使用します。
-
インデックス作成:
「GENERIC_INDEX」 - ベクトルデータストアのインデックスとして使用するために最適化された埋め込みを作成します。この値は、インデックスを作成するモダリティに関係なく使用する必要があります。
-
検索/取得: 取得するコンテンツのタイプに応じて埋め込みを最適化します。
「TEXT_RETRIEVAL」 - テキスト埋め込みのみを含むリポジトリを検索するために最適化された埋め込みを作成します。
「IMAGE_RETRIEVAL」 - 「STANDARD_IMAGE」detailLevel で作成されたイメージ埋め込みのみを含むリポジトリを検索するために最適化された埋め込みを作成します。
「VIDEO_RETRIEVAL」 - 「AUDIO_VIDEO_COMBINED」埋め込みモードで作成された動画埋め込みまたは埋め込みのみを含むリポジトリを検索するために最適化された埋め込みを作成します。
「DOCUMENT_RETRIEVAL」 - 「DOCUMENT_IMAGE」detailLevel で作成されたドキュメントイメージの埋め込みのみを含むリポジトリを検索するために最適化された埋め込みを作成します。
「AUDIO_RETRIEVAL」 - オーディオ埋め込みのみを含むリポジトリを検索するために最適化された埋め込みを作成します。
「GENERIC_RETRIEVAL」 - 混合モダリティ埋め込みを含むリポジトリを検索するために最適化された埋め込みを作成します。
-
例: ユーザーがテキストクエリを使用してイメージを取得するイメージ検索アプリでは、イメージに基づいて埋め込みインデックスを作成する時に
embeddingPurpose = generic_indexを使用し、イメージの取得に使用されるクエリの埋め込みを作成する時にembeddingPurpose = image_retrievalを使用します。
-
「CLASSIFICATION」 - 分類を実行するために最適化された埋め込みを作成します。
「CLUSTERING」 - クラスタリング用に最適化された埋め込みを作成します。
-
-
embeddingDimension(オプション) - 生成するベクトルのサイズ。タイプ: int
使用できる値: 256 | 384 | 1024 | 3072
デフォルト: 3072
-
text(オプション) - テキストコンテンツを表します。テキスト、画像、動画、オーディオのいずれかが完全に存在している必要があります。-
truncationMode(必須) - トークン化されたバージョンのテキストがモデルでサポートされている最大値を超えた場合に、テキストのどの部分を切り捨てるかを指定します。タイプ: 文字列
許可される値:
「START」 - 必要に応じてテキストの先頭から文字を省略します。
「END」 - 必要に応じてテキストの末尾から文字を省略します。
「NONE」 - テキストの長さがモデルの最大トークン制限を超えた場合、失敗します。
-
value(オプション。値またはソースを指定する必要があります) - 埋め込みを作成するテキスト値。タイプ: 文字列
最大長: 8192 文字。
-
source(オプション。値またはソースを指定する必要があります) - S3 に保存されているテキストファイルへの参照。SourceObject のバイトオプションは、テキスト入力には適用されないことに注意してください。リクエストの一部としてテキストをインラインで渡すには、代わりに値パラメータを使用します。タイプ: SourceObject (「共通オブジェクト」セクションを参照)
-
-
image(オプション) - イメージコンテンツを表します。テキスト、画像、動画、オーディオのいずれかが完全に存在している必要があります。-
detailLevel(オプション) - テキストをより適切に解釈するために、より低い画像解像度を使用して「STANDARD_IMAGE」で、および、より高い解像度の画像を使用して「DOCUMENT_IMAGE」で画像を処理する場合の解像度を調整します。タイプ: 文字列
使用できる値: 「STANDARD_IMAGE」|「DOCUMENT_IMAGE」
デフォルト: 「STANDARD_IMAGE」
-
format(必須)タイプ: 文字列
使用できる値:「png」|「jpeg」|「gif」|「webp」
-
source(必須) - イメージコンテンツソース。タイプ: SourceObject (「共通オブジェクト」セクションを参照)
-
-
audio(オプション) - オーディオコンテンツを表します。テキスト、画像、動画、オーディオのいずれかが完全に存在している必要があります。-
format(必須)タイプ: 文字列
使用できる値:「mp3」|「wav」|「ogg」
-
source(必須) - オーディオコンテンツソース。タイプ: SourceObject (「共通オブジェクト」セクションを参照)
最大オーディオ再生時間: 30 秒
-
-
video(オプション) - 動画コンテンツを表します。テキスト、画像、動画、オーディオのいずれかが完全に存在している必要があります。-
format(必須)タイプ: 文字列
使用できる値:「mp4」|「mov」|「mkv」|「webm」|「flv」|「mpeg」|「mpg」|「wmv」|「3gp」
-
source(必須) - 動画コンテンツソース。タイプ: SourceObject (「共通オブジェクト」セクションを参照)
最大動画再生時間: 30 秒
-
embeddingMode(必須)タイプ: 文字列
値:「AUDIO_VIDEO_COMBINED」|「AUDIO_VIDEO_SEPARATE」
「AUDIO_VIDEO_COMBINED」 - 音声コンテンツとビジュアルコンテンツの両方を組み合わせた単一の埋め込みを生成します。
「AUDIO_VIDEO_SEPARATE」 - 2 つの埋め込みを生成します。1 つは音声コンテンツ用、もう 1 つはビジュアルコンテンツ用です。
-
-
InvokeModel レスポンス本文
InvokeModel が成功した結果を返すと、レスポンスの本文は次の構造になります。
{ "embeddings": [ { "embeddingType": "TEXT" | "IMAGE" | "VIDEO" | "AUDIO" | "AUDIO_VIDEO_COMBINED", "embedding": number[], "truncatedCharLength": int // Only included if text input was truncated } ] }
次のリストには、レスポンスのすべてのパラメータが含まれます。
-
embeddings(必須) - ほとんどのリクエストでは、この配列には 1 つの埋め込みが含まれます。「AUDIO_VIDEO_SEPARATE」embeddingMode が選択された動画リクエストの場合、この配列には 2 つの埋め込みが含まれます。1 つは動画コンテンツ用、もう 1 つはオーディオコンテンツ用です。-
タイプ: 次のプロパティを持つ埋め込みの配列
-
embeddingType(必須) - 作成された埋め込みのタイプを報告します。タイプ: 文字列
使用できる値:「TEXT」|「IMAGE」|「VIDEO」|「AUDIO」|「AUDIO_VIDEO_COMBINED」
-
embedding(必須) - 埋め込みベクトル。タイプ: 数値[]
-
truncatedCharLength(オプション) - テキスト埋め込みリクエストにのみ適用されます。入力テキストのトークン化されたバージョンがモデルの制限を超えた場合に返されます。値は、埋め込みを生成する前にテキストが切り捨てられた文字を示します。タイプ: int
-
-
非同期スキーマを完了する
Amazon Bedrock ランタイム API 関数 StartAsyncInvoke、GetAsyncInvoke、ListAsyncInvokes を使用して、非同期で埋め込みを生成できます。Nova Embeddings を使用して、30 秒を超えるテキストや動画、オーディオの長い文章などの長いコンテンツをセグメント化する場合は、非同期 API を使用する必要があります。
StartAsyncInvoke を呼び出す時は、modelId、outputDataConfig、および modelInput パラメータを指定する必要があります。
response = bedrock_runtime.start_async_invoke( modelId="amazon.nova-2-multimodal-embeddings-v1:0", outputDataConfig=Data Config, modelInput=Model Input)
outputDataConfig は、生成された出力を保存する S3 バケットを指定します。この変数の構造は次のとおりです。
{ "s3OutputDataConfig": { "s3Uri": "s3://your-s3-bucket" } }
s3Uri は、レプリケート先バケットの S3 URI です。その他のオプションパラメータについては、StartAsyncInvoke のドキュメントを参照してください。
modelInput パラメータには次の構造が使用されます。
{ "schemaVersion": "nova-multimodal-embed-v1", "taskType": "SEGMENTED_EMBEDDING", "segmentedEmbeddingParams": { "embeddingPurpose": "GENERIC_INDEX" | "GENERIC_RETRIEVAL" | "TEXT_RETRIEVAL" | "IMAGE_RETRIEVAL" | "VIDEO_RETRIEVAL" | "DOCUMENT_RETRIEVAL" | "AUDIO_RETRIEVAL" | "CLASSIFICATION" | "CLUSTERING", "embeddingDimension": 256 | 384 | 1024 | 3072, "text": { "truncationMode": "START" | "END" | "NONE", "value": string, "source": { "s3Location": { "uri": "s3://Your S3 Object" } }, "segmentationConfig": { "maxLengthChars": int } }, "image": { "format": "png" | "jpeg" | "gif" | "webp", "source": SourceObject, "detailLevel": "STANDARD_IMAGE" | "DOCUMENT_IMAGE" }, "audio": { "format": "mp3" | "wav" | "ogg", "source": SourceObject, "segmentationConfig": { "durationSeconds": int } }, "video": { "format": "mp4" | "mov" | "mkv" | "webm" | "flv" | "mpeg" | "mpg" | "wmv" | "3gp", "source": SourceObject, "embeddingMode": "AUDIO_VIDEO_COMBINED" | "AUDIO_VIDEO_SEPARATE", "segmentationConfig": { "durationSeconds": int } } } }
次のリストには、リクエストのすべてのパラメータが含まれます。
-
schemaVersion(オプション) - マルチモーダル埋め込みモデルリクエストのスキーマバージョンタイプ: 文字列
使用できる値:「nova-multimodal-embed-v1」
デフォルト:「nova-multimodal-embed-v1」
-
taskType(必須) - 入力コンテンツに対して実行する埋め込みオペレーションのタイプを指定します。single_embeddingは、モデル入力ごとに 1 つの埋め込みを生成することを指します。segmented_embeddingは、まずユーザー仕様ごとにモデル入力をセグメント化し、次にセグメントごとに 1 つの埋め込みを生成することを指します。タイプ: 文字列
使用できる値: 非同期呼び出しでは「SEGMENTED_EMBEDDING」である必要があります。
-
segmentedEmbeddingParams(必須)-
embeddingPurpose(必須) - Nova Multimodal Embeddings を使用すると、目的のアプリケーションに応じて埋め込みを最適化できます。例としては、MM-RAG、画像および動画検索用のデジタルアセット管理、マルチモーダルコンテンツの類似性比較、インテリジェントドキュメント処理用のドキュメント分類などがあります。embeddingPurposeを使用すると、埋め込みユースケースを指定できます。以下のユースケースに応じて、正しい値を選択します。-
検索と取得: RAG や検索などのユースケースを埋め込むには、2 つの主要なステップがあります。1 つ目はコンテンツの埋め込みを生成してインデックスを作成するステップ、2 つ目は検索中にインデックスから最も関連性の高いコンテンツを取得するステップです。検索と取得のユースケースを使用する場合は、次の値を使用します。
-
インデックス作成:
「GENERIC_INDEX」 - ベクトルデータストアのインデックスとして使用するために最適化された埋め込みを作成します。この値は、インデックスを作成するモダリティに関係なく使用する必要があります。
-
検索/取得: 取得するコンテンツのタイプに応じて埋め込みを最適化します。
「TEXT_RETRIEVAL」 - テキスト埋め込みのみを含むリポジトリを検索するために最適化された埋め込みを作成します。
「IMAGE_RETRIEVAL」 - 「STANDARD_IMAGE」detailLevel で作成されたイメージ埋め込みのみを含むリポジトリを検索するために最適化された埋め込みを作成します。
「VIDEO_RETRIEVAL」 - 「AUDIO_VIDEO_COMBINED」埋め込みモードで作成された動画埋め込みまたは埋め込みのみを含むリポジトリを検索するために最適化された埋め込みを作成します。
「DOCUMENT_RETRIEVAL」 - 「DOCUMENT_IMAGE」detailLevel で作成されたドキュメントイメージの埋め込みのみを含むリポジトリを検索するために最適化された埋め込みを作成します。
「AUDIO_RETRIEVAL」 - オーディオ埋め込みのみを含むリポジトリを検索するために最適化された埋め込みを作成します。
「GENERIC_RETRIEVAL」 - 混合モダリティ埋め込みを含むリポジトリを検索するために最適化された埋め込みを作成します。
-
例: ユーザーがテキストクエリを使用してイメージを取得するイメージ検索アプリでは、イメージに基づいて埋め込みインデックスを作成する時に
embeddingPurpose = generic_indexを使用し、イメージの取得に使用されるクエリの埋め込みを作成する時にembeddingPurpose = image_retrievalを使用します。
-
「CLASSIFICATION」 - 分類を実行するために最適化された埋め込みを作成します。
「CLUSTERING」 - クラスタリング用に最適化された埋め込みを作成します。
-
-
embeddingDimension(オプション) - 生成するベクトルのサイズ。タイプ: int
使用できる値: 256 | 384 | 1024 | 3072
デフォルト: 3072
-
text(オプション) - テキストコンテンツを表します。テキスト、画像、動画、オーディオのいずれかが完全に存在している必要があります。-
truncationMode(必須) - トークン化されたバージョンのテキストがモデルでサポートされている最大値を超えた場合に、テキストのどの部分を切り捨てるかを指定します。タイプ: 文字列
許可される値:
「START」 - 必要に応じてテキストの先頭から文字を省略します。
「END」 - 必要に応じてテキストの末尾から文字を省略します。
「NONE」 - テキストの長さがモデルの最大トークン制限を超えた場合、失敗します。
-
value(オプション。値またはソースを指定する必要があります) - 埋め込みを作成するテキスト値。タイプ: 文字列
最大長: 8192 文字。
-
source(オプション。値またはソースを指定する必要があります) - S3 に保存されているテキストファイルへの参照。SourceObject のバイトオプションは、テキスト入力には適用されないことに注意してください。リクエストの一部としてテキストをインラインで渡すには、代わりに値パラメータを使用します。 -
segmentationConfig(必須) - テキストコンテンツを複数の埋め込みにセグメント化する方法を制御します。-
maxLengthChars(オプション) - 各セグメントで許可される最大長。モデルは単語の境界でのみセグメント化を試みます。タイプ: int
有効な範囲: 800~50,000
デフォルト: 32,000
-
-
-
image(オプション) - イメージコンテンツを表します。テキスト、画像、動画、オーディオのいずれかが完全に存在している必要があります。-
format(必須)タイプ: 文字列
使用できる値:「png」|「jpeg」|「gif」|「webp」
-
source(必須) - イメージコンテンツソース。タイプ: SourceObject (「共通オブジェクト」セクションを参照)
-
detailLevel(オプション) - テキストをより適切に解釈するために、より低い画像解像度を使用して「STANDARD_IMAGE」で、および、より高い解像度の画像を使用して「DOCUMENT_IMAGE」で画像を処理する場合の解像度を調整します。タイプ: 文字列
使用できる値: 「STANDARD_IMAGE」|「DOCUMENT_IMAGE」
デフォルト: 「STANDARD_IMAGE」
-
-
audio(オプション) - オーディオコンテンツを表します。テキスト、画像、動画、オーディオのいずれかが完全に存在している必要があります。-
format(必須)タイプ: 文字列
使用できる値:「mp3」|「wav」|「ogg」
-
source(必須) - オーディオコンテンツソース。タイプ: SourceObject (「共通オブジェクト」セクションを参照)
-
segmentationConfig(必須) - オーディオコンテンツを複数の埋め込みにセグメント化する方法を制御します。-
durationSeconds(オプション) - 各セグメントに使用するオーディオの最大時間 (秒単位)。タイプ: int
有効な範囲: 1~30
デフォルト: 5
-
-
-
video(オプション) - 動画コンテンツを表します。テキスト、画像、動画、オーディオのいずれかが完全に存在している必要があります。-
format(必須)タイプ: 文字列
使用できる値:「mp4」|「mov」|「mkv」|「webm」|「flv」|「mpeg」|「mpg」|「wmv」|「3gp」
-
source(必須) - 動画コンテンツソース。タイプ: SourceObject (「共通オブジェクト」セクションを参照)
-
embeddingMode(必須)タイプ: 文字列
値:「AUDIO_VIDEO_COMBINED」|「AUDIO_VIDEO_SEPARATE」
「AUDIO_VIDEO_COMBINED」 - 音声コンテンツとビジュアルコンテンツの両方を組み合わせた 1 つの埋め込みをセグメントごとに生成します。
「AUDIO_VIDEO_SEPARATE」 - セグメントごとに 2 つの埋め込みを生成します。1 つはオーディオコンテンツ用、もう 1 つは動画コンテンツ用です。
-
segmentationConfig(必須) - 動画コンテンツを複数の埋め込みにセグメント化する方法を制御します。-
durationSeconds(オプション) - 各セグメントに使用する動画の最大時間 (秒単位)。タイプ: int
有効な範囲: 1~30
デフォルト: 5
-
-
-
StartAsyncInvoke レスポンス
StartAsyncInvoke への呼び出しからのレスポンスは、次の構造になります。invocationArn を使用して、GetAsyncInvoke 関数を使用して非同期ジョブのステータスをクエリできます。
{ "invocationArn": "arn:aws:bedrock:us-east-1:xxxxxxxxxxxx:async-invoke/lvmxrnjf5mo3", }
非同期出力
非同期埋め込みの生成が完了すると、出力アーティファクトは出力先として指定した S3 バケットに書き込まれます。このファイルは次の構造になります。
amzn-s3-demo-bucket/job-id/ segmented-embedding-result.json embedding-audio.jsonl embedding-image.json embedding-text.jsonl embedding-video.jsonl manifest.json
segmented-embedding-result.json には、全体的なジョブ結果と、モダリティごとの実際の埋め込みを含む対応する jsonl ファイルへの参照が含まれます。以下は、ファイルの切り捨てられた例です。
{ "sourceFileUri": string, "embeddingDimension": 256 | 384 | 1024 | 3072, "embeddingResults": [ { "embeddingType": "TEXT" | "IMAGE" | "VIDEO" | "AUDIO" | "AUDIO_VIDEO_COMBINED", "status": "SUCCESS" | "FAILURE" | "PARTIAL_SUCCESS", "failureReason": string, // Granular error codes "message": string, // Human-readbale failure message "outputFileUri": string // S3 URI to a "embedding-modality.jsonl" file } ... ] }
embedding- は、各モダリティの埋め込み出力を含む jsonl ファイルになります。jsonl ファイルの各行は、次のスキーマに従います。modality.json
{ "embedding": number[], // The generated embedding vector "segmentMetadata": { "segmentIndex": number, "segmentStartCharPosition": number, // Included for text only "segmentEndCharPosition": number, // Included for text only "truncatedCharLength": number, // Included only when text gets truncated "segmentStartSeconds": number, // Included for audio/video only "segmentEndSeconds": number // Included for audio/video only }, "status": "SUCCESS" | "FAILURE", "failureReason": string, // Granular error codes "message": string // Human-readable failure message }
次のリストには、レスポンスのすべてのパラメータが含まれています。テキスト文字またはオーディオ/動画時間の場合、開始時刻と終了時刻はすべてゼロベースです。さらに、すべての終了テキスト位置またはオーディオ/動画の時間値が含まれます。
-
embedding(必須) — 埋め込みベクトル。-
タイプ: 数値
-
-
segmentMetadata— セグメントのメタデータ。-
segmentIndex— リクエストで指定された配列内のセグメントのインデックス。 -
segmentStartCharPosition— テキストのみ。セグメント内の埋め込みコンテンツの開始 (包含) 文字の位置。 -
segmentEndCharPosition— テキストのみ。セグメント内の埋め込みコンテンツの終了文字 (排他的) の位置。 -
truncatedCharLength(オプション) — トークン化された入力テキストのバージョンがモデルの制限を超えた場合に返されます。値は、埋め込みを生成する前にテキストが切り捨てられた文字を示します。-
タイプ: 整数
-
-
segmentStartSeconds— オーディオ/動画のみ。セグメント内の埋め込みコンテンツの開始時刻の位置。 -
segmentEndSeconds— オーディオ/動画のみ。セグメント内の埋め込みコンテンツの終了時刻の位置。
-
-
status— セグメントのステータス。 -
failureReason— セグメントの障害の詳細な理由。-
RAI_VIOLATION_INPUT_TEXT_DEFLECTION— 入力テキストが RAI ポリシーに違反しています。 -
RAI_VIOLATION_INPUT_IMAGE_DEFLECTION— 入力イメージが RAI ポリシーに違反しています。 -
INVALID_CONTENT— 無効な入力。 -
RATE_LIMIT_EXCEEDED— サービスの可用性がないため、埋め込みリクエストはスロットリングされます。 -
INTERNAL_SERVER_EXCEPTION— 問題が発生しました。
-
-
message— 関連する失敗メッセージ。
Nova Embeddings のファイル制限
同期オペレーションは、S3 入力とインラインチャンクの両方を受け入れることができます。非同期オペレーションは S3 入力のみを受け入れることができます。
埋め込みを非同期的に生成する場合は、ファイルが適切な数のセグメントに分割されていることを確認する必要があります。テキスト埋め込みの場合、1900 個を超えるセグメントを持つことはできません。オーディオと動画の埋め込みの場合、1434 セグメントを超えることはできません。
|
ファイルタイプ |
サイズ制限。 |
|---|---|
|
(インライン) すべてのファイルタイプ |
25MB |
|
(S3) テキスト |
1MB、50,000 文字 |
|
(S3) イメージ |
50MB |
|
(S3) 動画 |
30秒、100MB |
|
(S3) オーディオ |
30秒、100MB |
注記
25MB のインラインファイル制限は、Base64 埋め込みの後です。これにより、ファイルサイズが約 33% 増加します。
|
ファイルタイプ |
サイズ制限。 |
|---|---|
|
(S3) テキスト |
634MB |
|
(S3) イメージ |
50MB |
|
(S3) 動画 |
2GB、2 時間 |
|
(S3) オーディオ |
1GB、2 時間 |
|
モダリティ |
ファイルタイプ |
|---|---|
|
イメージ形式 |
PNG、JPEG、WEBP、GIF |
|
オーディオ形式 |
MP3、WAV、OGG |
|
動画形式 |
MP4、MOV、MKV、WEBM、FLV、MPEG、MPG、WMV、3GP |