Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
TwelveLabs Marengo Embed 2.7
Das Modell TwelveLabs Marengo Embed 2.7 generiert Einbettungen aus Video-, Text-, Audio- oder Bildeingaben. Diese Einbettungen können für die Ähnlichkeitssuche, Clustering und andere Machine-Learning-Aufgaben verwendet werden.
Anbieter – TwelveLabs
Model ID: – twelvelabs.marengo-embed-2-7-v1:0
Das Modell TwelveLabs Marengo Embed 2.7 unterstützt die Laufzeitoperationen von Amazon Bedrock in der folgenden Tabelle.
-
Weitere Informationen zu den Anwendungsfällen für verschiedene API-Methoden finden Sie unter Hier erfahren Sie mehr über Anwendungsfälle für verschiedene Modellinferenzmethoden.
-
Weitere Informationen zu den Modelltypen finden Sie unter So funktioniert Inferenz in Amazon Bedrock.
-
Eine Modellliste IDs sowie die Modelle und AWS Regionen, die TwelveLabs Marengo Embed 2.7 unterstützt werden, finden Sie in der Tabelle unterUnterstützte Basismodelle in Amazon Bedrock.
-
Eine vollständige Liste der Inferenzprofile finden Sie IDs unterUnterstützte Regionen und Modelle für Inferenzprofile. Die ID des Inferenzprofils basiert auf der AWS Region.
-
| API-Operation | Unterstützte Modelltypen | Eingabemodalitäten | Ausgabemodalitäten |
|---|---|---|---|
|
InvokeModel |
Inferenzprofile |
Text Image |
Einbettung |
| StartAsyncInvoke | Basismodelle |
Video Audio Image Text |
Einbettung |
Anmerkung
Verwenden Sie InvokeModel, um Einbettungen für Suchabfragen zu generieren. Verwenden Sie StartAsyncInvoke, um Einbettungen für Assets in großem Umfang zu generieren.
Die folgenden Kontingente gelten für die Eingabe:
| Eingabemodalität | Maximum |
|---|---|
| Text | 77 Token |
| Image | 5 MB |
| Video (S3) | 2 GB |
| Audio (S3) | 2 GB |
Anmerkung
Wenn Sie Audio oder Video inline mithilfe der base64-Kodierung definieren, stellen Sie sicher, dass die Nutzdaten des Anforderungstexts das Amazon-Bedrock-Modellaufrufkontingent von 25 MB nicht überschreitet.
Themen
Anforderungsparameter von TwelveLabs Marengo Embed 2.7
Wenn Sie eine Anforderung stellen, hängt das Feld, in dem die modellspezifische Eingabe angegeben wird, von der API-Operation ab:
-
InvokeModel— In der Anfrage
body. -
StartAsyncInvoke— Im
modelInputFeld des Hauptteils der Anfrage.
Das Format der Modelleingabe hängt von der Eingabemodalität ab:
Erweitern Sie die folgenden Abschnitte, um ausführliche Informationen zu den Eingabeparametern zu erhalten:
Modalität für die Einbettung
Typ: Zeichenfolge
Erforderlich: Ja
-
Zulässige Werte:
video|text|audio|image
Text, der eingebettet werden soll
Typ: Zeichenfolge
Erforderlich: Ja (für kompatible Eingabetypen)
-
Kompatible Eingabetypen: Text
Gibt an, wie die Plattform Text kürzt
Typ: Zeichenfolge
Required: No
Zulässige Werte:
-
end– Kürzt das Textende -
none– Gibt einen Fehler zurück, wenn der Text das Limit überschreitet
-
Standardwert: Ende
-
Kompatible Eingabetypen: Text
Enthält Informationen zur Medienquelle
Typ: Objekt
Erforderlich: Ja (falls kompatibler Typ)
-
Kompatible Eingabetypen: Bild, Video, Audio
Das Format des mediaSource-Objekts im Anforderungstext hängt davon ab, ob das Medium als Base64-kodierte Zeichenfolge oder als S3-Speicherort definiert ist.
-
Base64-kodierte Zeichenfolge
{ "mediaSource": { "base64String": "base64-encoded string" } }-
base64String– Die Base64-kodierte Zeichenfolge für das Medium
-
-
S3-Standort — Geben Sie den S3-URI und den Bucket-Besitzer an.
{ "s3Location": { "uri": "string", "bucketOwner": "string" } }-
uri– Der S3-URI, der das Medium enthält -
bucketOwner— Die AWS Konto-ID des S3-Bucket-Besitzers.
-
Gibt an, welche Arten von Einbettungen abgerufen werden sollen.
Typ: Liste
Required: No
Gültige Werte für Listenmitglieder:
-
visual-text– Visuelle Einbettungen, die für die Textsuche optimiert sind -
visual-image– Visuelle Einbettungen, die für die Bildsuche optimiert sind -
audio– Einbettungen des Audios in das Video
-
Standardwert: [„visual-text“, „visual-image“, „audio"]
-
Kompatible Eingabetypen: Video, Audio
Der Zeitpunkt in Sekunden des Clips, zu dem die Verarbeitung beginnen soll
Type: Double
Required: No
Mindestwert 0
Standardwert: 0
-
Kompatible Eingabetypen: Video, Audio
Die Zeit in Sekunden, gerechnet ab dem startSec-Zeitpunkt, nach dem die Verarbeitung beendet werden soll
Type: Double
Required: No
Gültige Werte: 0 – Dauer des Mediums
Standardwert: Dauer des Mediums
-
Kompatible Eingabetypen: Video, Audio
Beispiel:
-
startSec: 5
-
lengthSec: 20
-
Ergebnis: Der Clip wird von 0:05 bis 0:25 (5 Sekunden + 20 Sekunden) verarbeitet.
Die Dauer jedes Clips, für den das Modell eine Einbettung generieren soll
Type: Double
Required: No
Wertparameter: 2–10. Der Wert muss gleich oder größer als
minClipSecsein.Standardwert: Hängt vom Medientyp ab:
-
Video: Dynamisch aufgeteilt durch Erkennung von Schussgrenzen.
-
Audio: Gleichmäßig aufgeteilt mit Segmenten, die so nah wie möglich an 10 Sekunden heranreichen.
Beispiele:
-
Ein 50-Sekunden-Clip ist in 5 10-Sekunden-Segmente unterteilt.
-
Ein 16-Sekunden-Clip ist in 2 8-Sekunden-Segmente unterteilt.
-
-
-
Kompatible Eingabetypen: – Video, Audio
Hinweis: Der Wert muss gleich oder größer als
minClipSecsein.
Legt für jeden Clip einen Mindestwert in Sekunden fest
Typ: int
Required: No
Wertparameter: Wertebereich: 1–5
Standardwert: 4
-
Kompatible Eingabetypen: Video
Hinweis: Der Wert muss gleich oder kleiner als
useFixedLengthSecsein.
TwelveLabs Marengo Embed 2.7-Antwort
Der Speicherort der Ausgabeeinbettungen und der zugehörigen Metadaten hängt von der Aufrufmethode ab:
-
InvokeModel— Im Antworttext.
-
StartAsyncInvoke— Im S3-Bucket, der in definiert ist
s3OutputDataConfig, nachdem der asynchrone Aufruf-Job abgeschlossen ist.
Wenn es mehrere Einbettungsvektoren gibt, besteht die Ausgabe aus einer Liste von Objekten, die jeweils einen Vektor und die zugehörigen Metadaten enthalten.
Das Format des Einbettungsvektors der Ausgabe lautet wie folgt:
{ "embedding": ["string"], "embeddingOption": "visual-text" | "visual-image" | "audio", "startSec":double, "endsec":double}
Erweitern Sie die folgenden Abschnitte, um ausführliche Informationen zu den Antwortparametern zu erhalten:
Darstellung des Einbettungsvektors der Eingabe
Typ: Liste von Double-Werten
Die Art der Einbettungen
Typ: Zeichenfolge
Mögliche Werte:
-
visual-text– Visuelle Einbettungen, die für die Textsuche optimiert sind -
visual-image– Visuelle Einbettungen, die für die Bildsuche optimiert sind -
audio– Einbettungen des Audios in das Video
-
-
Kompatible Eingabetypen: Video
Der Startversatz des Clips
Type: Double
-
Kompatible Eingabetypen: Video, Audio
Der Endversatz des Clips in Sekunden
Type: Double
-
Kompatible Eingabetypen: Video, Audio
TwelveLabs Marengo Embed 2.7-Codebeispiele
In diesem Abschnitt wird gezeigt, wie Sie das Modell TwelveLabs Marengo Embed 2.7 mit verschiedenen Eingabetypen mithilfe von Python verwenden. Die Beispiele zeigen, wie modellspezifische Eingaben definiert und Modellaufrufe ausgeführt werden.
Anmerkung
InvokeModel unterstützt nur Text- und Bildeingaben. Verwenden Sie für die Video- und Audioeingabe StartAsyncInvoke.
Stellen Sie Ihren Code in den folgenden Schritten zusammen:
1. Definieren der modellspezifische Eingabe
Definieren Sie die modellspezifische Eingabe abhängig von Ihrem Eingabetyp:
2. Ausführen des Modellaufrufs mithilfe der Modelleingabe
Fügen Sie dann den Codeausschnitt hinzu, der der Methode Ihrer Wahl für den Modellaufruf entspricht.