TwelveLabsModelle - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

TwelveLabsModelle

In diesem Abschnitt werden die Anforderungsparameter und Antwortfelder für TwelveLabs Modelle beschrieben. Verwenden Sie diese Informationen, um Inferenzanforderungen an TwelveLabs Modelle zu stellen. Das TwelveLabs Pegasus 1.2 Modell unterstützt InvokeModelund InvokeModelWithResponseStream(Streaming-) Operationen, während das TwelveLabs Marengo Embed 2.7 Modell StartAsyncInvokeOperationen unterstützt. Dieser Abschnitt enthält auch Codebeispiele, die zeigen, wie TwelveLabs Modelle aufgerufen werden. Um ein Modell in einer Inferenzoperation zu verwenden, benötigen Sie die Modell-ID für das Modell. Informationen zum Abrufen der Modell-ID finden Sie unterUnterstützte Basismodelle in Amazon Bedrock.

TwelveLabsist ein führender Anbieter multimodaler KI-Modelle, der sich auf das Verständnis und die Analyse von Videos spezialisiert hat. Ihre fortschrittlichen Modelle ermöglichen ausgefeilte Funktionen für die Videosuche, -analyse und -generierung mithilfe von state-of-the-art Computervision und natürlicher Sprachverarbeitung. Amazon Bedrock bietet jetzt zwei TwelveLabs Modelle an:TwelveLabs Pegasus 1.2, das ein umfassendes Verständnis und eine umfassende Analyse von Videos bietet und TwelveLabs Marengo Embed 2.7 das hochwertige Einbettungen für Video-, Text-, Audio- und Bildinhalte generiert. Diese Modelle ermöglichen es Entwicklern, Anwendungen zu entwickeln, die Videodaten intelligent verarbeiten, analysieren und Erkenntnisse aus ihnen in großem Maßstab ableiten können.

TwelveLabs Pegasus 1.2

Ein multimodales Modell, das umfassende Funktionen zum Verständnis und zur Analyse von Videos bietet, einschließlich Inhaltserkennung, Szenenerkennung und kontextuellem Verständnis. Das Modell kann Videoinhalte analysieren und Textbeschreibungen, Erkenntnisse und Antworten auf Fragen zum Video generieren.

TwelveLabs Marengo Embed 2.7

Ein multimodales Einbettungsmodell, das hochwertige Vektordarstellungen von Video-, Text-, Audio- und Bildinhalten für die Ähnlichkeitssuche, Clustering und andere Aufgaben des maschinellen Lernens generiert. Das Modell unterstützt mehrere Eingabemodalitäten und bietet spezielle Einbettungen, die für verschiedene Anwendungsfälle optimiert sind.

In der folgenden Tabelle sind die in Amazon Bedrock verfügbaren TwelveLabs Modelle aufgeführt.

TwelveLabsModelle
Modellname Modell-ID Eingabemodalität Ausgabemodalität Beschreibung
TwelveLabs Pegasus 1.2 twelvelabs.pegasus-1-2-v 1:0 Video Text Ein multimodales Modell, das umfassende Funktionen zum Verständnis und zur Analyse von Videos bietet, einschließlich Inhaltserkennung, Szenenerkennung und kontextuellem Verständnis.
TwelveLabs Marengo Embed 2.7 twelvelabs.marengo-embed-2-7-v 1:0 Video, Text, Audio, Bild Einbettungen Ein multimodales Einbettungsmodell, das hochwertige Vektordarstellungen von Video-, Text-, Audio- und Bildinhalten für die Ähnlichkeitssuche, Clustering und andere Aufgaben des maschinellen Lernens generiert.