Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Modelli TwelveLabs
In questa sezione vengono descritti i parametri di richiesta e i campi di risposta per i modelli TwelveLabs. Utilizzare queste informazioni per effettuare chiamate di inferenza ai modelli TwelveLabs. Il TwelveLabs Pegasus 1.2 modello supporta operazioni InvokeModele InvokeModelWithResponseStream(streaming). I TwelveLabs Marengo Embed 3.0 modelli TwelveLabs Marengo Embed 2.7 e supportano StartAsyncInvokele operazioni. Questa sezione include anche esempi di codice che mostrano come chiamare i modelli TwelveLabs. Per utilizzare un modello in un’operazione di inferenza, è necessario l’ID modello per il modello. Per ottenere l’ID modello, consulta Modelli di fondazione supportati in Amazon Bedrock.
TwelveLabs è un provider leader di modelli di IA multimodali specializzato nella comprensione e nell’analisi dei video. I loro modelli avanzati consentono sofisticate funzionalità di ricerca, analisi e generazione di contenuti video attraverso tecnologie di visione state-of-the-art artificiale e di elaborazione del linguaggio naturale.
Amazon Bedrock offre tre TwelveLabs modelli:
TwelveLabs Pegasus 1.2fornisce una comprensione e un'analisi video complete.
TwelveLabs Marengo Embed 2.7genera incorporamenti di alta qualità per contenuti video, di testo, audio e immagini.
TwelveLabs Marengo Embed 3.0è il modello di incorporamento più recente con prestazioni e funzionalità avanzate.
Questi modelli consentono di creare applicazioni in grado di elaborare, analizzare e ricavare informazioni dai dati video su larga scala.
TwelveLabs Pegasus 1.2
Un modello multimodale che offre funzionalità complete di comprensione e analisi dei video, tra cui il riconoscimento dei contenuti, il rilevamento delle scene e la comprensione contestuale. Il modello può analizzare i contenuti video e generare descrizioni testuali, approfondimenti e risposte a domande sul video.
TwelveLabs Marengo Embed 2.7
Un modello di embedding multimodale che genera rappresentazioni vettoriali di alta qualità di contenuti video, testo, audio e immagini per la ricerca di similarità, il clustering e altre attività di machine learning. Il modello supporta diverse modalità di input e fornisce embedding specializzati ottimizzati per diversi casi d’uso.
TwelveLabs Marengo Embed 3.0
Un modello di incorporamento multimodale avanzato che estende le funzionalità di Marengo 2.7 con il supporto per la modalità di immissione interlacciata di testo e immagini. Questo modello genera rappresentazioni vettoriali di alta qualità di contenuti video, testo, audio, immagini e testo e immagini interlacciati per la ricerca di similarità, il clustering e altre attività di apprendimento automatico.