View a markdown version of this page

Compatibilità con le API - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Compatibilità con le API

Amazon Bedrock supporta tre famiglie di runtime APIs, ognuna progettata per modelli di integrazione e casi d'uso diversi.

Famiglia Invoke: InvokeModel gestisce chiamate sincrone a risposta singola. InvokeModelWithResponseStreamrestituisce le risposte come flusso in tempo reale. InvokeModelWithBidirectionalStreamabilita lo streaming full duplex per applicazioni interattive. AsyncInvokeinvia richieste di lunga durata in modo asincrono, archiviando l'output su Amazon S3.

Famiglia Converse: Converse fornisce un'interfaccia unificata e indipendente dal modello per conversazioni sincrone a più turni. ConverseStreamoffre la stessa esperienza con l'output in streaming.

Famiglia compatibile con OpenAI: ChatCompletions implementa l'interfaccia OpenAI Chat Completions, abilitando le integrazioni esistenti basate su OpenAI di funzionare su Bedrock con modifiche minime. Responses L'API implementa l'interfaccia OpenAI Responses, che supporta interazioni statiche e agentiche con utilizzo di strumenti integrati e gestione della cronologia delle conversazioni.

Vedremo ora l'elenco di quelli supportati da ciascun modello. APIs

AI21

Nome modello Invoke Converse Completamenti della chat Risposte
Jamba 1.5 Large* Yes Yes No No
Jamba 1.5 Mini* Yes Yes No No

Amazon

Anthropic

Cohere

Nome modello Invoke Converse Completamenti della chat Risposte
Comando R* Yes Yes No No
Comando R* Yes Yes No No
Embed English Yes No No No
Embed Multilingual Yes No No No
Incorpora v4 Yes No No No
Rerank 3.5 Yes No No No

DeepSeek

Nome modello Invoke Converse Completamenti della chat Risposte
DeepSeek V3.2* Yes Yes Yes No
DeepSeek-R1* Yes Yes No No
DeepSeek-V3.1* Yes Yes Yes No

Google

Nome modello Invoke Converse Completamenti della chat Risposte
Gemma 3 12B IT* Yes Yes Yes No
Gemma 3 27B PT* Yes Yes Yes No
Gemma 3 4B IT* Yes Yes Yes No

Meta

MiniMax

Nome modello Invoke Converse Completamenti della chat Risposte
MiniMax M2* Yes Yes Yes No
MiniMax M2.1* Yes Yes Yes No
MiniMax M2,5* Yes Yes Yes No

Mistral

Moonshot

Nome modello Invoke Converse Completamenti della chat Risposte
Il pensiero di Kimi K2* Yes Yes No No
Kimi K2.5* Yes Yes Yes No

NVIDIA

Nome modello Invoke Converse Completamenti della chat Risposte
NVIDIA Nemotron Nano 9B v2* Yes Yes Yes No
NVIDIA Nemotron Nano 12B v2 VL BF16* Yes Yes Yes No
Nemotron Nano 3 30B* Yes Yes Yes No
NVIDIA Nemotron 3 Super 120B* Yes Yes Yes No

OpenAI

Nome modello Invoke Converse Completamenti della chat Risposte
GPT OSS Safeguard 120B* Yes Yes Yes Yes
GPT OSS Safeguard 20B* Yes Yes Yes Yes
gpt-oss-120b* Yes Yes Yes Yes
gpt-oss-20b* Yes Yes Yes Yes

Qwen

Stabilità

TwelveLabs

Nome modello Invoke Converse Completamenti della chat Risposte
Marengo Embed 3.0 Yes No No No
Marengo Embed v2.7 No No No No
Pegasus versione 1.2 Yes No No No

Istanza di scrittura

Nome modello Invoke Converse Completamenti della chat Risposte
Palmyra Vision 7B Yes Yes Yes No
Palmyra X4* Yes Yes No No
Palmyra X5* Yes Yes No No

Z.AI

Nome modello Invoke Converse Completamenti della chat Risposte
GLAM 4.7* Yes Yes Yes No
GLM 4.7 Flash* Yes Yes Yes No
GLM 5* Yes Yes Yes No
Nota

* Supporto streaming: supporta anche i modelli contrassegnati da un asterisco (*)InvokeModelWithResponseStream, che restituisce le risposte come streaming in tempo reale.

Modelli che supportano StartAsyncInvoke

StartAsyncInvoke è un'API Amazon Bedrock Runtime che consente ai chiamanti di inviare una richiesta di invocazione del modello e ricevere immediatamente un InvocationARN senza attendere che il modello finisca l'elaborazione. Il processo viene eseguito in background e, una volta completato, l'output viene scritto in un bucket S3 specificato dal chiamante. I chiamanti possono quindi verificare lo stato del lavoro utilizzando il programma complementare e. GetAsyncInvoke ListAsyncInvokes APIs Il modello è stato creato appositamente per carichi di lavoro che coinvolgono ingressi di grandi dimensioni o non sensibili alla latenza, in particolare video, audio e generazione di incorporamenti di massa, in cui non sarebbe pratico mantenere una connessione sincrona aperta.

In termini di modelli che lo supportano, sono supportati i seguenti modelli: StartAsyncInvoke

  • TwelveLabs Marengo Embed 2.7 (twelvelabs.marengo-embed-2-7-v 1:0): richiesto per l'input video e audio; gestisce solo testo e immagini InvokeModel

  • TwelveLabs Marengo Embed 3.0 (twelvelabs.marengo-embed-3-0-v 1:0): stesso pattern; async richiesto per uso su larga scala video/audio

  • Amazon Nova Reel (amazon. nova-reel-v1:0 e v 1:1): la generazione di video è esclusivamente asincrona; l'output arriva in S3

  • Amazon Nova Multimodal Embeddings (amazon.nova-2- multimodal-embeddings-v 1:0): l'asincrono è necessario per gli ingressi video di dimensioni superiori a 25 MB con codifica base64; la sincronizzazione è disponibile per gli input di testo, immagini e documenti

InvokeModelWithBidirectionalStream

InvokeModelWithBidirectionalStreamè un'API Amazon Bedrock Runtime che stabilisce un canale full duplex persistente tra il chiamante e il modello, permettendo ai dati audio di fluire in entrambe le direzioni contemporaneamente e continuamente. A differenza delle versioni standard InvokeModel o even InvokeModelWithResponseStream APIs, che seguono uno request-then-response schema, questa API mantiene la connessione aperta per tutta la durata di una sessione in modo che il modello possa elaborare l'audio in entrata non appena arriva e trasmettere in streaming il parlato generato quasi in tempo reale, senza attendere il termine dell'enunciato completo. L'interazione è strutturata in tre fasi: inizializzazione della sessione (in cui il client invia eventi di configurazione per configurare lo stream), streaming audio (in cui l'audio acquisito viene codificato e inviato come flusso di eventi continuo) e streaming di risposta (in cui il modello restituisce contemporaneamente trascrizioni di testo del discorso dell'utente e dell'output audio sintetizzato). InvokeModelWithBidirectionalStreamnon può essere utilizzato con le chiavi API di Amazon Bedrock e richiede l'autenticazione standard basata su credenziali AWS, che riflette il suo ciclo di vita della sessione più complesso rispetto ad altre operazioni di Bedrock Runtime.

I seguenti modelli supportano questa API:

  • Famiglia Amazon Nova Sonic: entrambi Amazon. nova-sonic-v1:0 e amazon.nova-2-sonic-v 1:0 lo usano come unico percorso di invocazione, poiché l' speech-to-speecharchitettura richiede fondamentalmente un canale bidirezionale live che né Converse sono in grado di fornire. InvokeModel