As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Compatibilidade de API
O Amazon Bedrock oferece suporte a três famílias de tempo de execução APIs, cada uma projetada para diferentes padrões de integração e casos de uso.
Família Invoke: InvokeModel lida com chamadas síncronas de resposta única. InvokeModelWithResponseStreamretorna respostas como um fluxo em tempo real. InvokeModelWithBidirectionalStreampermite streaming full-duplex para aplicativos interativos. AsyncInvokeenvia solicitações de longa duração de forma assíncrona, armazenando a saída no Amazon S3.
Família Converse: Converse fornece uma interface unificada e independente de modelo para conversas síncronas de vários turnos. ConverseStreamoferece a mesma experiência com a saída de streaming.
Família compatível com OpenAI: ChatCompletions implementa a interface OpenAI Chat Completions, permitindo que as integrações existentes baseadas em OpenAI sejam executadas no Bedrock com o mínimo de alterações. Responses A API implementa a interface do OpenAI Responses, oferecendo suporte a interações dinâmicas e dinâmicas com o uso de ferramentas integradas e o gerenciamento do histórico de conversas.
Agora, veremos a lista de APIs suportados por cada modelo.
AI21
| Nome do modelo | Invocar | Converse | Conclusões de bate-papo | Respostas |
|---|---|---|---|---|
| Jamba 1.5 Large* |
|
|
|
|
| Jamba 1.5 Mini* |
|
|
|
|
Amazon
| Nome do modelo | Invocar | Converse | Conclusões de bate-papo | Respostas |
|---|---|---|---|---|
| Incorporações multimodais do Amazon Nova |
|
|
|
|
| Nova 2 Lite* |
|
|
|
|
| Nova 2 Sonic |
|
|
|
|
| Nova Canvas |
|
|
|
|
| Nova Lite* |
|
|
|
|
| Nova Micro* |
|
|
|
|
| Nova Premier* |
|
|
|
|
| Nova Pro* |
|
|
|
|
| Nova Reel |
|
|
|
|
| Nova Sonic* |
|
|
|
|
| Incorporador do Titan G1 - Text |
|
|
|
|
| Gerador de Imagens do Titan G1 v2 |
|
|
|
|
| Incorporador Multimodal do Titan G1 |
|
|
|
|
| Incorporador de Texto do Titan v2 |
|
|
|
|
| Texto Titan grande |
|
|
|
|
Anthropic
| Nome do modelo | Invocar | Converse | Conclusões de bate-papo | Respostas |
|---|---|---|---|---|
| Claude 3 Haiku* |
|
|
|
|
| Claude 3.5 Haiku* |
|
|
|
|
| Claude Haiku 4.5* |
|
|
|
|
| Claude Opus 4.1* |
|
|
|
|
| Claude Opus 4.5* |
|
|
|
|
| Claude Opus 4.6* |
|
|
|
|
| Claude Sonnet 4* |
|
|
|
|
| Claude Sonnet 4.5* |
|
|
|
|
| Claude Sonnet 4.6* |
|
|
|
|
Cohere
| Nome do modelo | Invocar | Converse | Conclusões de bate-papo | Respostas |
|---|---|---|---|---|
| Comando R* |
|
|
|
|
| Command R+* |
|
|
|
|
| Embed em inglês |
|
|
|
|
| Embed multilíngue |
|
|
|
|
| Incorporar v4 |
|
|
|
|
| Rerank 3.5 |
|
|
|
|
DeepSeek
| Nome do modelo | Invocar | Converse | Conclusões de bate-papo | Respostas |
|---|---|---|---|---|
| DeepSeek V3.2* |
|
|
|
|
| DeepSeek-R1* |
|
|
|
|
| DeepSeek-V3.1* |
|
|
|
|
| Nome do modelo | Invocar | Converse | Conclusões de bate-papo | Respostas |
|---|---|---|---|---|
| Gemma 3 12B IT* |
|
|
|
|
| Gemma 3 27B PT* |
|
|
|
|
| Gemma 3 4B IT* |
|
|
|
|
Meta
| Nome do modelo | Invocar | Converse | Conclusões de bate-papo | Respostas |
|---|---|---|---|---|
| Llama 3 70B Instruct* |
|
|
|
|
| Llama 3 8B Instruct* |
|
|
|
|
| Llama 3.1 405B Instruct |
|
|
|
|
| Llama 3.1 70B Instruct* |
|
|
|
|
| Llama 3.1 8B Instruct* |
|
|
|
|
| Instrução Llama 3.2 11B* |
|
|
|
|
| Instrução Llama 3.2 1B* |
|
|
|
|
| Instrução Llama 3.2 3B* |
|
|
|
|
| Llama 3.2 90B Instruct* |
|
|
|
|
| Llama 3.3 70B Instruct* |
|
|
|
|
| Llama 4 Maverick 17B Instruct* |
|
|
|
|
| Llama 4 Scout 17B Instruct* |
|
|
|
|
MiniMax
| Nome do modelo | Invocar | Converse | Conclusões de bate-papo | Respostas |
|---|---|---|---|---|
| MiniMax M2* |
|
|
|
|
| MiniMax M2.1* |
|
|
|
|
| MiniMax M2,5* |
|
|
|
|
Mistral
| Nome do modelo | Invocar | Converse | Conclusões de bate-papo | Respostas |
|---|---|---|---|---|
| Devstral 2 123B* |
|
|
|
|
| Magistral Small 2509* |
|
|
|
|
| Ministerial 14B 3.0* |
|
|
|
|
| Ministerial 3 8B* |
|
|
|
|
| Ministerial 3B* |
|
|
|
|
| Mistral 7B Instruct* |
|
|
|
|
| Mistral Grande* |
|
|
|
|
| Mistral Large 3* |
|
|
|
|
| Mistral pequeno* |
|
|
|
|
| Mixtral 8x7B Instruct* |
|
|
|
|
| Pixtral Large* |
|
|
|
|
| Voxtral Mini 3B 2507* |
|
|
|
|
| Voxtral Small 24B 2507* |
|
|
|
|
Moonshot
| Nome do modelo | Invocar | Converse | Conclusões de bate-papo | Respostas |
|---|---|---|---|---|
| Kimi K2 Pensando* |
|
|
|
|
| Kimi K2.5* |
|
|
|
|
NVIDIA
| Nome do modelo | Invocar | Converse | Conclusões de bate-papo | Respostas |
|---|---|---|---|---|
| NVIDIA Nemotron Nano 9B v2* |
|
|
|
|
| NVIDIA Nemotron Nano 12B v2 VL BF16* |
|
|
|
|
| Nemotron Nano 3 30B* |
|
|
|
|
| NVIDIA Nemotron 3 Super 120B* |
|
|
|
|
OpenAI
| Nome do modelo | Invocar | Converse | Conclusões de bate-papo | Respostas |
|---|---|---|---|---|
| GPT OSS Safeguard 120B* |
|
|
|
|
| GPT OSS Safeguard 20B* |
|
|
|
|
| gpt-oss-120b* |
|
|
|
|
| gpt-oss-20b* |
|
|
|
|
Qwen
| Nome do modelo | Invocar | Converse | Conclusões de bate-papo | Respostas |
|---|---|---|---|---|
| Qen3 235B A2B 2507* |
|
|
|
|
| Qwen3 32B* |
|
|
|
|
| Instrução do codificador Qwen3 480B A35B* |
|
|
|
|
| Codificador Qwen3 Next* |
|
|
|
|
| Qwen3 Next 80B A3B* |
|
|
|
|
| Qwen3 VL 235B A22B* |
|
|
|
|
| Codificador Qwen3-30B-A3B Instruct* |
|
|
|
|
Estabilidade
TwelveLabs
| Nome do modelo | Invocar | Converse | Conclusões de bate-papo | Respostas |
|---|---|---|---|---|
| Marengo Embed 3.0 |
|
|
|
|
| Marengo Embed v2.7 |
|
|
|
|
| Pegasus v1.2 |
|
|
|
|
Gravador
| Nome do modelo | Invocar | Converse | Conclusões de bate-papo | Respostas |
|---|---|---|---|---|
| Palmyra Vision 7B |
|
|
|
|
| Palmyra X4* |
|
|
|
|
| Palmyra X5* |
|
|
|
|
Z.AI
| Nome do modelo | Invocar | Converse | Conclusões de bate-papo | Respostas |
|---|---|---|---|---|
| GLM 4,7* |
|
|
|
|
| GLM 4.7 Flash* |
|
|
|
|
| GLM 5* |
|
|
|
|
nota
* Suporte de streaming: modelos marcados com um asterisco (*) também são compatíveisInvokeModelWithResponseStream, o que retorna respostas como uma transmissão em tempo real.
Modelos de suporte StartAsyncInvoke
StartAsyncInvoke é uma API Amazon Bedrock Runtime que permite que os chamadores enviem uma solicitação de invocação de modelo e recebam imediatamente de volta um InvocationARN sem esperar que o modelo termine o processamento. O trabalho é executado em segundo plano e a saída é gravada em um bucket S3 especificado pelo chamador depois de concluída. Os chamadores podem então pesquisar o status do trabalho usando o acompanhante e. GetAsyncInvoke ListAsyncInvokes APIs O padrão foi criado especificamente para cargas de trabalho que envolvem entradas grandes ou insensíveis à latência, especialmente vídeo, áudio e geração de incorporação em massa, onde manter uma conexão síncrona aberta seria impraticável.
Em termos de quais modelos o suportam, os seguintes modelos suportam StartAsyncInvoke:
-
TwelveLabs Marengo Embed 2.7 (twelvelabs.marengo-embed-2-7-v 1:0) — necessário para entrada de vídeo e áudio; só lida com texto e imagem InvokeModel
-
TwelveLabs Marengo Embed 3.0 (twelvelabs.marengo-embed-3-0-v 1:0) — mesmo padrão; é necessário assíncrono para escala video/audio
-
Amazon Nova Reel (amazonas). nova-reel-v1:0 e v 1:1) — a geração de vídeo é exclusivamente assíncrona; a saída chega ao S3
-
Amazon Nova Multimodal Embeddings (amazon.nova-2- multimodal-embeddings-v 1:0) — a sincronização é necessária para entradas de vídeo maiores que 25 MB codificadas em base64; a sincronização está disponível para entradas de texto, imagem e documentos
InvokeModelWithBidirectionalStream
InvokeModelWithBidirectionalStreamé uma API Amazon Bedrock Runtime que estabelece um canal full-duplex persistente entre o chamador e o modelo, permitindo que os dados de áudio fluam em ambas as direções simultaneamente e continuamente. Ao contrário do padrão InvokeModel ou mesmo InvokeModelWithResponseStream APIs, que segue um request-then-response padrão, essa API mantém a conexão aberta durante uma sessão para que o modelo possa processar o áudio recebido à medida que ele chega e transmitir a fala gerada quase em tempo real, sem esperar que uma declaração completa termine. A interação é estruturada em três fases: inicialização da sessão (em que o cliente envia eventos de configuração para configurar o fluxo), streaming de áudio (em que o áudio capturado é codificado e enviado como um fluxo contínuo de eventos) e streaming de resposta (em que o modelo retorna simultaneamente transcrições de texto da fala do usuário e saída de áudio sintetizada). InvokeModelWithBidirectionalStreamnão pode ser usado com as chaves de API do Amazon Bedrock e requer autenticação padrão baseada em credenciais da AWS, refletindo seu ciclo de vida de sessão mais complexo em comparação com outras operações do Bedrock Runtime.
Os modelos a seguir oferecem suporte a essa API:
-
Família Amazon Nova Sonic: Ambas amazonas. nova-sonic-v1:0 e amazon.nova-2-sonic-v 1:0 o usam como seu único caminho de invocação, já que a speech-to-speech arquitetura requer fundamentalmente um canal bidirecional ativo que nem a Converse podem fornecer. InvokeModel