Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Compatibilità con le API
Amazon Bedrock supporta tre famiglie di runtime APIs, ognuna progettata per modelli di integrazione e casi d'uso diversi.
Famiglia Invoke: InvokeModel gestisce chiamate sincrone a risposta singola. InvokeModelWithResponseStreamrestituisce le risposte come flusso in tempo reale. InvokeModelWithBidirectionalStreamabilita lo streaming full duplex per applicazioni interattive. AsyncInvokeinvia richieste di lunga durata in modo asincrono, archiviando l'output su Amazon S3.
Famiglia Converse: Converse fornisce un'interfaccia unificata e indipendente dal modello per conversazioni sincrone a più turni. ConverseStreamoffre la stessa esperienza con l'output in streaming.
Famiglia compatibile con OpenAI: ChatCompletions implementa l'interfaccia OpenAI Chat Completions, abilitando le integrazioni esistenti basate su OpenAI di funzionare su Bedrock con modifiche minime. Responses L'API implementa l'interfaccia OpenAI Responses, che supporta interazioni statiche e agentiche con utilizzo di strumenti integrati e gestione della cronologia delle conversazioni.
Vedremo ora l'elenco di quelli supportati da ciascun modello. APIs
AI21
| Nome modello | Invoke | Converse | Completamenti della chat | Risposte |
|---|---|---|---|---|
| Jamba 1.5 Large* |
|
|
|
|
| Jamba 1.5 Mini* |
|
|
|
|
Amazon
| Nome modello | Invoke | Converse | Completamenti della chat | Risposte |
|---|---|---|---|---|
| Incorporamenti multimodali Amazon Nova |
|
|
|
|
| Nova 2 Lite* |
|
|
|
|
| Nova 2 Sonic |
|
|
|
|
| Nova Canvas |
|
|
|
|
| Nova Lite* |
|
|
|
|
| Nova Micro* |
|
|
|
|
| Nova Premier* |
|
|
|
|
| Nova Pro* |
|
|
|
|
| Nova Reel |
|
|
|
|
| Nova Sonic* |
|
|
|
|
| Titan Embeddings G1 - Text |
|
|
|
|
| Titan Image Generator G1 v2 |
|
|
|
|
| Titan Multimodal Embeddings G1 |
|
|
|
|
| Titan Text Embeddings V2 |
|
|
|
|
| Testo Titan grande |
|
|
|
|
Anthropic
| Nome modello | Invoke | Converse | Completamenti della chat | Risposte |
|---|---|---|---|---|
| Claude 3 Haiku* |
|
|
|
|
| Claude 3.5 Haiku* |
|
|
|
|
| Claude Haiku 4.5* |
|
|
|
|
| Claude Opus 4.1* |
|
|
|
|
| Claude Opus 4.5* |
|
|
|
|
| Claude Opus 4.6* |
|
|
|
|
| Claude Sonnet 4* |
|
|
|
|
| Claude Sonnet 4.5* |
|
|
|
|
| Claude Sonnet 4.6* |
|
|
|
|
Cohere
| Nome modello | Invoke | Converse | Completamenti della chat | Risposte |
|---|---|---|---|---|
| Comando R* |
|
|
|
|
| Comando R* |
|
|
|
|
| Embed English |
|
|
|
|
| Embed Multilingual |
|
|
|
|
| Incorpora v4 |
|
|
|
|
| Rerank 3.5 |
|
|
|
|
DeepSeek
| Nome modello | Invoke | Converse | Completamenti della chat | Risposte |
|---|---|---|---|---|
| DeepSeek V3.2* |
|
|
|
|
| DeepSeek-R1* |
|
|
|
|
| DeepSeek-V3.1* |
|
|
|
|
| Nome modello | Invoke | Converse | Completamenti della chat | Risposte |
|---|---|---|---|---|
| Gemma 3 12B IT* |
|
|
|
|
| Gemma 3 27B PT* |
|
|
|
|
| Gemma 3 4B IT* |
|
|
|
|
Meta
| Nome modello | Invoke | Converse | Completamenti della chat | Risposte |
|---|---|---|---|---|
| Llama 3 70B Instruct* |
|
|
|
|
| Llama 3 8B Instruct* |
|
|
|
|
| Llama 3.1 405B Instruct |
|
|
|
|
| Llama 3.1 70B Instruct* |
|
|
|
|
| Llama 3.1 8B Instruct* |
|
|
|
|
| Llama 3.2 11B Instruct* |
|
|
|
|
| Llama 3.2 1B Instruct* |
|
|
|
|
| Llama 3.2 3B Instruct* |
|
|
|
|
| Llama 3.2 90B Instruct* |
|
|
|
|
| Llama 3.3 70B Instruct* |
|
|
|
|
| Llama 4 Maverick 17B Instruct* |
|
|
|
|
| Llama 4 Scout 17B Instruct* |
|
|
|
|
MiniMax
| Nome modello | Invoke | Converse | Completamenti della chat | Risposte |
|---|---|---|---|---|
| MiniMax M2* |
|
|
|
|
| MiniMax M2.1* |
|
|
|
|
| MiniMax M2,5* |
|
|
|
|
Mistral
| Nome modello | Invoke | Converse | Completamenti della chat | Risposte |
|---|---|---|---|---|
| Devstral 2 123B* |
|
|
|
|
| Magistral Small 2509* |
|
|
|
|
| Ministry 14B 3.0* |
|
|
|
|
| Ministry 3 8B* |
|
|
|
|
| Ministro 3B* |
|
|
|
|
| Mistral 7B Instruct* |
|
|
|
|
| Mistral Grande* |
|
|
|
|
| Mistral Large 3* |
|
|
|
|
| Mistral Small* |
|
|
|
|
| Mixtral 8x7B Instruct* |
|
|
|
|
| Pixtral Large* |
|
|
|
|
| Voxtral Mini 3B 2507* |
|
|
|
|
| Voxtral Small 24B 2507* |
|
|
|
|
Moonshot
| Nome modello | Invoke | Converse | Completamenti della chat | Risposte |
|---|---|---|---|---|
| Il pensiero di Kimi K2* |
|
|
|
|
| Kimi K2.5* |
|
|
|
|
NVIDIA
| Nome modello | Invoke | Converse | Completamenti della chat | Risposte |
|---|---|---|---|---|
| NVIDIA Nemotron Nano 9B v2* |
|
|
|
|
| NVIDIA Nemotron Nano 12B v2 VL BF16* |
|
|
|
|
| Nemotron Nano 3 30B* |
|
|
|
|
| NVIDIA Nemotron 3 Super 120B* |
|
|
|
|
OpenAI
| Nome modello | Invoke | Converse | Completamenti della chat | Risposte |
|---|---|---|---|---|
| GPT OSS Safeguard 120B* |
|
|
|
|
| GPT OSS Safeguard 20B* |
|
|
|
|
| gpt-oss-120b* |
|
|
|
|
| gpt-oss-20b* |
|
|
|
|
Qwen
| Nome modello | Invoke | Converse | Completamenti della chat | Risposte |
|---|---|---|---|---|
| Qwen3 235 B A2B 2507* |
|
|
|
|
| Qwen3 32B* |
|
|
|
|
| Istruzioni Qwen3 Coder 480B A35B* |
|
|
|
|
| Qwen3 Coder Next* |
|
|
|
|
| Qwen3 Next 80B A3B* |
|
|
|
|
| Qwen3 VL 235B A22B* |
|
|
|
|
| Qwen3-Coder-30B-A3B-Istruzione* |
|
|
|
|
Stabilità
TwelveLabs
| Nome modello | Invoke | Converse | Completamenti della chat | Risposte |
|---|---|---|---|---|
| Marengo Embed 3.0 |
|
|
|
|
| Marengo Embed v2.7 |
|
|
|
|
| Pegasus versione 1.2 |
|
|
|
|
Istanza di scrittura
| Nome modello | Invoke | Converse | Completamenti della chat | Risposte |
|---|---|---|---|---|
| Palmyra Vision 7B |
|
|
|
|
| Palmyra X4* |
|
|
|
|
| Palmyra X5* |
|
|
|
|
Z.AI
| Nome modello | Invoke | Converse | Completamenti della chat | Risposte |
|---|---|---|---|---|
| GLAM 4.7* |
|
|
|
|
| GLM 4.7 Flash* |
|
|
|
|
| GLM 5* |
|
|
|
|
Nota
* Supporto streaming: supporta anche i modelli contrassegnati da un asterisco (*)InvokeModelWithResponseStream, che restituisce le risposte come streaming in tempo reale.
Modelli che supportano StartAsyncInvoke
StartAsyncInvoke è un'API Amazon Bedrock Runtime che consente ai chiamanti di inviare una richiesta di invocazione del modello e ricevere immediatamente un InvocationARN senza attendere che il modello finisca l'elaborazione. Il processo viene eseguito in background e, una volta completato, l'output viene scritto in un bucket S3 specificato dal chiamante. I chiamanti possono quindi verificare lo stato del lavoro utilizzando il programma complementare e. GetAsyncInvoke ListAsyncInvokes APIs Il modello è stato creato appositamente per carichi di lavoro che coinvolgono ingressi di grandi dimensioni o non sensibili alla latenza, in particolare video, audio e generazione di incorporamenti di massa, in cui non sarebbe pratico mantenere una connessione sincrona aperta.
In termini di modelli che lo supportano, sono supportati i seguenti modelli: StartAsyncInvoke
-
TwelveLabs Marengo Embed 2.7 (twelvelabs.marengo-embed-2-7-v 1:0): richiesto per l'input video e audio; gestisce solo testo e immagini InvokeModel
-
TwelveLabs Marengo Embed 3.0 (twelvelabs.marengo-embed-3-0-v 1:0): stesso pattern; async richiesto per uso su larga scala video/audio
-
Amazon Nova Reel (amazon. nova-reel-v1:0 e v 1:1): la generazione di video è esclusivamente asincrona; l'output arriva in S3
-
Amazon Nova Multimodal Embeddings (amazon.nova-2- multimodal-embeddings-v 1:0): l'asincrono è necessario per gli ingressi video di dimensioni superiori a 25 MB con codifica base64; la sincronizzazione è disponibile per gli input di testo, immagini e documenti
InvokeModelWithBidirectionalStream
InvokeModelWithBidirectionalStreamè un'API Amazon Bedrock Runtime che stabilisce un canale full duplex persistente tra il chiamante e il modello, permettendo ai dati audio di fluire in entrambe le direzioni contemporaneamente e continuamente. A differenza delle versioni standard InvokeModel o even InvokeModelWithResponseStream APIs, che seguono uno request-then-response schema, questa API mantiene la connessione aperta per tutta la durata di una sessione in modo che il modello possa elaborare l'audio in entrata non appena arriva e trasmettere in streaming il parlato generato quasi in tempo reale, senza attendere il termine dell'enunciato completo. L'interazione è strutturata in tre fasi: inizializzazione della sessione (in cui il client invia eventi di configurazione per configurare lo stream), streaming audio (in cui l'audio acquisito viene codificato e inviato come flusso di eventi continuo) e streaming di risposta (in cui il modello restituisce contemporaneamente trascrizioni di testo del discorso dell'utente e dell'output audio sintetizzato). InvokeModelWithBidirectionalStreamnon può essere utilizzato con le chiavi API di Amazon Bedrock e richiede l'autenticazione standard basata su credenziali AWS, che riflette il suo ciclo di vita della sessione più complesso rispetto ad altre operazioni di Bedrock Runtime.
I seguenti modelli supportano questa API:
-
Famiglia Amazon Nova Sonic: entrambi Amazon. nova-sonic-v1:0 e amazon.nova-2-sonic-v 1:0 lo usano come unico percorso di invocazione, poiché l' speech-to-speecharchitettura richiede fondamentalmente un canale bidirezionale live che né Converse sono in grado di fornire. InvokeModel