Modelos da TwelveLabs - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Modelos da TwelveLabs

Esta seção descreve os parâmetros de solicitação e os campos de resposta dos modelos da TwelveLabs. Use essas informações para fazer chamadas de inferência para modelos da TwelveLabs. O TwelveLabs Pegasus 1.2 modelo suporta InvokeModeloperações InvokeModelWithResponseStream(de streaming). Os TwelveLabs Marengo Embed 3.0 modelos TwelveLabs Marengo Embed 2.7 e suportam StartAsyncInvokeas operações. Esta seção também inclui exemplos de código que mostram como chamar modelos da TwelveLabs. Para usar um modelo em uma operação de inferência, o ID do modelo é necessário. Para obter o ID do modelo, consulte Modelos de base compatíveis no Amazon Bedrock.

A TwelveLabs é uma fornecedora líder de modelos de IA multimodais especializada em compreensão e análise de vídeo. Seus modelos avançados permitem recursos sofisticados de pesquisa, análise e geração de conteúdo de vídeo por meio de tecnologias de visão state-of-the-art computacional e processamento de linguagem natural.

O Amazon Bedrock oferece três TwelveLabs modelos:

  • TwelveLabs Pegasus 1.2fornece compreensão e análise abrangentes de vídeo.

  • TwelveLabs Marengo Embed 2.7gera incorporações de alta qualidade para conteúdo de vídeo, texto, áudio e imagem.

  • TwelveLabs Marengo Embed 3.0é o modelo de incorporação mais recente com desempenho e recursos aprimorados.

Esses modelos ajudam você a criar aplicativos que processam, analisam e obtêm insights de dados de vídeo em grande escala.

TwelveLabs Pegasus 1.2

Um modelo multimodal que fornece recursos abrangentes de compreensão e análise de vídeo, como reconhecimento de conteúdo, detecção de cenas e compreensão contextual. O modelo pode analisar conteúdo de vídeo e gerar descrições textuais, insights e respostas a perguntas feitas ao vídeo.

TwelveLabs Marengo Embed 2.7

Um modelo de incorporação multimodal que gera representações vetoriais de alta qualidade de conteúdo de vídeo, texto, áudio e imagem para pesquisa por similaridade, agrupamento e outras tarefas de machine learning. O modelo aceita várias modalidades de entrada e oferece incorporações especializadas otimizadas para diferentes casos de uso.

TwelveLabs Marengo Embed 3.0

Um modelo de incorporação multimodal aprimorado que amplia os recursos do Marengo 2.7 com suporte para a modalidade de entrada intercalada de texto e imagem. Esse modelo gera representações vetoriais de alta qualidade de vídeo, texto, áudio, imagem e conteúdo de texto-imagem intercalado para pesquisa por similaridade, agrupamento e outras tarefas de aprendizado de máquina.