Modelle von TwelveLabs - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Modelle von TwelveLabs

In diesem Abschnitt werden die Anforderungsparameter und Antwortfelder für Modelle von TwelveLabs beschrieben. Verwenden Sie diese Informationen, um Inferenzaufrufen an TwelveLabs-Modelle zu senden. Das TwelveLabs Pegasus 1.2 Modell unterstützt InvokeModelund InvokeModelWithResponseStream(Streaming-) Operationen. Die TwelveLabs Marengo Embed 3.0 Modelle TwelveLabs Marengo Embed 2.7 und unterstützen StartAsyncInvokeOperationen. Dieser Abschnitt enthält auch Codebeispiele, die zeigen, wie TwelveLabs-Modelle aufgerufen werden. Sie benötigen die Modell-ID für das Modell, um ein Modell in einer Inferenzoperation verwenden zu können. Informationen zum Abrufen der Modell-ID finden Sie unter Unterstützte Basismodelle in Amazon Bedrock.

TwelveLabs ist ein führender Anbieter multimodaler KI-Modelle, der sich auf das Verständnis und die Analyse von Videos spezialisiert hat. Ihre fortschrittlichen Modelle ermöglichen mithilfe von state-of-the-art Computervision und natürlicher Sprachverarbeitung ausgefeilte Funktionen für die Videosuche, -analyse und -generierung.

Amazon Bedrock bietet drei TwelveLabs Modelle an:

  • TwelveLabs Pegasus 1.2bietet ein umfassendes Verständnis und eine umfassende Analyse von Videos.

  • TwelveLabs Marengo Embed 2.7generiert hochwertige Einbettungen für Video-, Text-, Audio- und Bildinhalte.

  • TwelveLabs Marengo Embed 3.0ist das neueste Einbettungsmodell mit verbesserter Leistung und erweiterten Funktionen.

Diese Modelle helfen Ihnen bei der Entwicklung von Anwendungen, die Videodaten in großem Maßstab verarbeiten, analysieren und Erkenntnisse daraus ableiten.

TwelveLabs Pegasus 1.2

Ein multimodales Modell, das umfassende Funktionen zum Verständnis und zur Analyse von Videos bietet, einschließlich Inhaltserkennung, Szenenerkennung und kontextuellem Verständnis. Das Modell kann Videoinhalte analysieren und Textbeschreibungen, Einblicke und Antworten auf Fragen zum Video generieren.

TwelveLabs Marengo Embed 2.7

Ein multimodales Einbettungsmodell, das hochwertige Vektordarstellungen von Video-, Text-, Audio- und Bildinhalten für die Ähnlichkeitssuche, Clustering und andere Machine-Learning-Aufgaben generiert. Das Modell unterstützt mehrere Eingabemodalitäten und bietet spezielle Einbettungen, die für verschiedene Anwendungsfälle optimiert sind.

TwelveLabs Marengo Embed 3.0

Ein verbessertes multimodales Einbettungsmodell, das die Funktionen von Marengo 2.7 um die Unterstützung der verschachtelten Text- und Bildeingabemodalität erweitert. Dieses Modell generiert hochwertige Vektordarstellungen von Video-, Text-, Audio-, Bild- und verschachtelten Text-Bild-Inhalten für die Ähnlichkeitssuche, Clustering und andere Aufgaben des maschinellen Lernens.