View a markdown version of this page

Compatibilidade de API - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Compatibilidade de API

O Amazon Bedrock oferece suporte a três famílias de tempo de execução APIs, cada uma projetada para diferentes padrões de integração e casos de uso.

Família Invoke: InvokeModel lida com chamadas síncronas de resposta única. InvokeModelWithResponseStreamretorna respostas como um fluxo em tempo real. InvokeModelWithBidirectionalStreampermite streaming full-duplex para aplicativos interativos. AsyncInvokeenvia solicitações de longa duração de forma assíncrona, armazenando a saída no Amazon S3.

Família Converse: Converse fornece uma interface unificada e independente de modelo para conversas síncronas de vários turnos. ConverseStreamoferece a mesma experiência com a saída de streaming.

Família compatível com OpenAI: ChatCompletions implementa a interface OpenAI Chat Completions, permitindo que as integrações existentes baseadas em OpenAI sejam executadas no Bedrock com o mínimo de alterações. Responses A API implementa a interface do OpenAI Responses, oferecendo suporte a interações dinâmicas e dinâmicas com o uso de ferramentas integradas e o gerenciamento do histórico de conversas.

Agora, veremos a lista de APIs suportados por cada modelo.

AI21

Nome do modelo Invocar Converse Conclusões de bate-papo Respostas
Jamba 1.5 Large* Yes Yes No No
Jamba 1.5 Mini* Yes Yes No No

Amazon

Anthropic

Cohere

Nome do modelo Invocar Converse Conclusões de bate-papo Respostas
Comando R* Yes Yes No No
Command R+* Yes Yes No No
Embed em inglês Yes No No No
Embed multilíngue Yes No No No
Incorporar v4 Yes No No No
Rerank 3.5 Yes No No No

DeepSeek

Nome do modelo Invocar Converse Conclusões de bate-papo Respostas
DeepSeek V3.2* Yes Yes Yes No
DeepSeek-R1* Yes Yes No No
DeepSeek-V3.1* Yes Yes Yes No

Google

Nome do modelo Invocar Converse Conclusões de bate-papo Respostas
Gemma 3 12B IT* Yes Yes Yes No
Gemma 3 27B PT* Yes Yes Yes No
Gemma 3 4B IT* Yes Yes Yes No

Meta

MiniMax

Nome do modelo Invocar Converse Conclusões de bate-papo Respostas
MiniMax M2* Yes Yes Yes No
MiniMax M2.1* Yes Yes Yes No
MiniMax M2,5* Yes Yes Yes No

Mistral

Moonshot

Nome do modelo Invocar Converse Conclusões de bate-papo Respostas
Kimi K2 Pensando* Yes Yes No No
Kimi K2.5* Yes Yes Yes No

NVIDIA

Nome do modelo Invocar Converse Conclusões de bate-papo Respostas
NVIDIA Nemotron Nano 9B v2* Yes Yes Yes No
NVIDIA Nemotron Nano 12B v2 VL BF16* Yes Yes Yes No
Nemotron Nano 3 30B* Yes Yes Yes No
NVIDIA Nemotron 3 Super 120B* Yes Yes Yes No

OpenAI

Nome do modelo Invocar Converse Conclusões de bate-papo Respostas
GPT OSS Safeguard 120B* Yes Yes Yes Yes
GPT OSS Safeguard 20B* Yes Yes Yes Yes
gpt-oss-120b* Yes Yes Yes Yes
gpt-oss-20b* Yes Yes Yes Yes

Qwen

Estabilidade

TwelveLabs

Nome do modelo Invocar Converse Conclusões de bate-papo Respostas
Marengo Embed 3.0 Yes No No No
Marengo Embed v2.7 No No No No
Pegasus v1.2 Yes No No No

Gravador

Nome do modelo Invocar Converse Conclusões de bate-papo Respostas
Palmyra Vision 7B Yes Yes Yes No
Palmyra X4* Yes Yes No No
Palmyra X5* Yes Yes No No

Z.AI

Nome do modelo Invocar Converse Conclusões de bate-papo Respostas
GLM 4,7* Yes Yes Yes No
GLM 4.7 Flash* Yes Yes Yes No
GLM 5* Yes Yes Yes No
nota

* Suporte de streaming: modelos marcados com um asterisco (*) também são compatíveisInvokeModelWithResponseStream, o que retorna respostas como uma transmissão em tempo real.

Modelos de suporte StartAsyncInvoke

StartAsyncInvoke é uma API Amazon Bedrock Runtime que permite que os chamadores enviem uma solicitação de invocação de modelo e recebam imediatamente de volta um InvocationARN sem esperar que o modelo termine o processamento. O trabalho é executado em segundo plano e a saída é gravada em um bucket S3 especificado pelo chamador depois de concluída. Os chamadores podem então pesquisar o status do trabalho usando o acompanhante e. GetAsyncInvoke ListAsyncInvokes APIs O padrão foi criado especificamente para cargas de trabalho que envolvem entradas grandes ou insensíveis à latência, especialmente vídeo, áudio e geração de incorporação em massa, onde manter uma conexão síncrona aberta seria impraticável.

Em termos de quais modelos o suportam, os seguintes modelos suportam StartAsyncInvoke:

  • TwelveLabs Marengo Embed 2.7 (twelvelabs.marengo-embed-2-7-v 1:0) — necessário para entrada de vídeo e áudio; só lida com texto e imagem InvokeModel

  • TwelveLabs Marengo Embed 3.0 (twelvelabs.marengo-embed-3-0-v 1:0) — mesmo padrão; é necessário assíncrono para escala video/audio

  • Amazon Nova Reel (amazonas). nova-reel-v1:0 e v 1:1) — a geração de vídeo é exclusivamente assíncrona; a saída chega ao S3

  • Amazon Nova Multimodal Embeddings (amazon.nova-2- multimodal-embeddings-v 1:0) — a sincronização é necessária para entradas de vídeo maiores que 25 MB codificadas em base64; a sincronização está disponível para entradas de texto, imagem e documentos

InvokeModelWithBidirectionalStream

InvokeModelWithBidirectionalStreamé uma API Amazon Bedrock Runtime que estabelece um canal full-duplex persistente entre o chamador e o modelo, permitindo que os dados de áudio fluam em ambas as direções simultaneamente e continuamente. Ao contrário do padrão InvokeModel ou mesmo InvokeModelWithResponseStream APIs, que segue um request-then-response padrão, essa API mantém a conexão aberta durante uma sessão para que o modelo possa processar o áudio recebido à medida que ele chega e transmitir a fala gerada quase em tempo real, sem esperar que uma declaração completa termine. A interação é estruturada em três fases: inicialização da sessão (em que o cliente envia eventos de configuração para configurar o fluxo), streaming de áudio (em que o áudio capturado é codificado e enviado como um fluxo contínuo de eventos) e streaming de resposta (em que o modelo retorna simultaneamente transcrições de texto da fala do usuário e saída de áudio sintetizada). InvokeModelWithBidirectionalStreamnão pode ser usado com as chaves de API do Amazon Bedrock e requer autenticação padrão baseada em credenciais da AWS, refletindo seu ciclo de vida de sessão mais complexo em comparação com outras operações do Bedrock Runtime.

Os modelos a seguir oferecem suporte a essa API:

  • Família Amazon Nova Sonic: Ambas amazonas. nova-sonic-v1:0 e amazon.nova-2-sonic-v 1:0 o usam como seu único caminho de invocação, já que a speech-to-speech arquitetura requer fundamentalmente um canal bidirecional ativo que nem a Converse podem fornecer. InvokeModel