Modelle von TwelveLabs - Amazon Bedrock

Modelle von TwelveLabs

In diesem Abschnitt werden die Anforderungsparameter und Antwortfelder für Modelle von TwelveLabs beschrieben. Verwenden Sie diese Informationen, um Inferenzaufrufen an TwelveLabs-Modelle zu senden. Das Modell TwelveLabs Pegasus 1.2 unterstützt die (Streaming-) Operationen InvokeModel und InvokeModelWithResponseStream, wohingegen das Modell TwelveLabs Marengo Embed 2.7 StartAsyncInvoke-Operationen unterstützt. Dieser Abschnitt enthält auch Codebeispiele, die zeigen, wie TwelveLabs-Modelle aufgerufen werden. Sie benötigen die Modell-ID für das Modell, um ein Modell in einer Inferenzoperation verwenden zu können. Informationen zum Abrufen der Modell-ID finden Sie unter Unterstützte Basismodelle in Amazon Bedrock.

TwelveLabs ist ein führender Anbieter multimodaler KI-Modelle, der sich auf das Verständnis und die Analyse von Videos spezialisiert hat. Seine fortschrittlichen Modelle ermöglichen ausgefeilte Funktionen für die Videosuche, -analyse und -generierung mithilfe modernster Technologienaus den Bereichen Computer Vision und natürliche Sprachverarbeitung. Amazon Bedrock bietet jetzt zwei TwelveLabs-Modelle an: TwelveLabs Pegasus 1.2, das ein umfassendes Verständnis und eine umfassende Analyse von Videos bietet, und TwelveLabs Marengo Embed 2.7, das hochwertige Einbettungen für Video-, Text-, Audio- und Bildinhalte generiert. Diese Modelle ermöglichen es Entwicklern, Anwendungen zu entwickeln, die Videodaten intelligent verarbeiten, analysieren und Erkenntnisse aus den Daten in großem Maßstab ableiten können.

TwelveLabs Pegasus 1.2

Ein multimodales Modell, das umfassende Funktionen zum Verständnis und zur Analyse von Videos bietet, einschließlich Inhaltserkennung, Szenenerkennung und kontextuellem Verständnis. Das Modell kann Videoinhalte analysieren und Textbeschreibungen, Einblicke und Antworten auf Fragen zum Video generieren.

TwelveLabs Marengo Embed 2.7

Ein multimodales Einbettungsmodell, das hochwertige Vektordarstellungen von Video-, Text-, Audio- und Bildinhalten für die Ähnlichkeitssuche, Clustering und andere Machine-Learning-Aufgaben generiert. Das Modell unterstützt mehrere Eingabemodalitäten und bietet spezielle Einbettungen, die für verschiedene Anwendungsfälle optimiert sind.