Endpoint e quote di Amazon Bedrock - AWS Riferimento generale

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Endpoint e quote di Amazon Bedrock

Per connetterti a livello di codice a un AWS servizio, usi un endpoint. AWS i servizi offrono i seguenti tipi di endpoint in alcune o tutte le AWS regioni supportate dal servizio: IPv4 endpoint, endpoint dual-stack ed endpoint FIPS. Alcuni servizi forniscono endpoint globali. Per ulteriori informazioni, consulta AWS endpoint di servizio.

Le quote di servizio, note anche come limiti, sono il numero massimo di risorse o operazioni di servizio per l'account AWS . Per ulteriori informazioni, consulta AWS quote di servizio.

Di seguito sono descritti gli endpoint del servizio e le quote di servizio per questo servizio.

Endpoint del servizio Amazon Bedrock

Piano di controllo Amazon Bedrock APIs

La tabella seguente fornisce un elenco di endpoint specifici della regione supportati da Amazon Bedrock per la gestione, l'addestramento e la distribuzione dei modelli. Usa questi endpoint per le operazioni dell'API Amazon Bedrock.

Nome della regione Regione Endpoint Protocollo
US East (Ohio) us-east-2

bedrock.us-east-2.amazonaws.com

bedrock-fips.us-east-2.amazonaws.com

HTTPS

HTTPS

US East (N. Virginia) us-east-1

bedrock.us-east-1.amazonaws.com

bedrock-fips.us-east-1.amazonaws.com

HTTPS

HTTPS

US West (Oregon) us-west-2

bedrock.us-west-2.amazonaws.com

bedrock-fips.us-west-2.amazonaws.com

HTTPS

HTTPS

Asia Pacific (Hyderabad) ap-south-2 bedrock.ap-south-2.amazonaws.com HTTPS
Asia Pacifico (Mumbai) ap-south-1 bedrock.ap-south-1.amazonaws.com HTTPS
Asia Pacifico (Osaka-Locale) ap-northeast-3 bedrock.ap-northeast-3.amazonaws.com HTTPS
Asia Pacifico (Seoul) ap-northeast-2 bedrock.ap-northeast-2.amazonaws.com HTTPS
Asia Pacifico (Singapore) ap-southeast-1 bedrock.ap-southeast-1.amazonaws.com HTTPS
Asia Pacific (Sydney) ap-southeast-2 bedrock.ap-southeast-2.amazonaws.com HTTPS
Asia Pacifico (Tokyo) ap-northeast-1 bedrock.ap-northeast-1.amazonaws.com HTTPS
Canada (Centrale) ca-central-1

bedrock.ca-central-1.amazonaws.com

bedrock-fips.ca-central-1.amazonaws.com

HTTPS

HTTPS

Europa (Francoforte) eu-central-1 bedrock.eu-central-1.amazonaws.com HTTPS
Europa (Irlanda) eu-west-1 bedrock.eu-west-1.amazonaws.com HTTPS
Europa (Londra) eu-west-2 bedrock.eu-west-2.amazonaws.com HTTPS
Europa (Milano) eu-south-1 bedrock.eu-south-1.amazonaws.com HTTPS
Europa (Parigi) eu-west-3 bedrock.eu-west-3.amazonaws.com HTTPS
Europa (Spagna) eu-south-2 bedrock.eu-south-2.amazonaws.com HTTPS
Europa (Stoccolma) eu-north-1 bedrock.eu-north-1.amazonaws.com HTTPS
Europa (Zurigo) eu-central-2 bedrock.eu-central-2.amazonaws.com HTTPS
Sud America (São Paulo) sa-east-1 bedrock.sa-east-1.amazonaws.com HTTPS
AWS GovCloud (Stati Uniti orientali) us-gov-east-1

bedrock.us-gov-east-1.amazonaws.com

bedrock-fips.us-gov-east-1.amazonaws.com

HTTPS

HTTPS

AWS GovCloud (Stati Uniti occidentali) us-gov-west-1

bedrock.us-gov-west-1.amazonaws.com

bedrock-fips.us-gov-west-1.amazonaws.com

HTTPS

HTTPS

Runtime di Amazon Bedrock APIs

La tabella seguente fornisce un elenco di endpoint specifici della regione supportati da Amazon Bedrock per effettuare richieste di inferenza per modelli ospitati in Amazon Bedrock. Usa questi endpoint per le operazioni dell'API Amazon Bedrock Runtime.

Nome della regione Regione Endpoint Protocollo
US East (Ohio) us-east-2

bedrock-runtime.us-east-2.amazonaws.com

bedrock-runtime-fips.us-east-2.amazonaws.com

HTTPS

HTTPS

US East (N. Virginia) us-east-1

bedrock-runtime.us-east-1.amazonaws.com

bedrock-runtime-fips.us-east-1.amazonaws.com

HTTPS

HTTPS

US West (Oregon) us-west-2

bedrock-runtime.us-west-2.amazonaws.com

bedrock-runtime-fips.us-west-2.amazonaws.com

HTTPS

HTTPS

Asia Pacific (Hyderabad) ap-south-2 bedrock-runtime.ap-south-2.amazonaws.com HTTPS
Asia Pacifico (Mumbai) ap-south-1 bedrock-runtime.ap-south-1.amazonaws.com HTTPS
Asia Pacifico (Osaka-Locale) ap-northeast-3 bedrock-runtime.ap-northeast-3.amazonaws.com HTTPS
Asia Pacifico (Seoul) ap-northeast-2 bedrock-runtime.ap-northeast-2.amazonaws.com HTTPS
Asia Pacifico (Singapore) ap-southeast-1 bedrock-runtime.ap-southeast-1.amazonaws.com HTTPS
Asia Pacific (Sydney) ap-southeast-2 bedrock-runtime.ap-southeast-2.amazonaws.com HTTPS
Asia Pacifico (Tokyo) ap-northeast-1 bedrock-runtime.ap-northeast-1.amazonaws.com HTTPS
Canada (Centrale) ca-central-1

bedrock-runtime.ca-central-1.amazonaws.com

bedrock-runtime-fips.ca-central-1.amazonaws.com

HTTPS

HTTPS

Europa (Francoforte) eu-central-1 bedrock-runtime.eu-central-1.amazonaws.com HTTPS
Europa (Irlanda) eu-west-1 bedrock-runtime.eu-west-1.amazonaws.com HTTPS
Europa (Londra) eu-west-2 bedrock-runtime.eu-west-2.amazonaws.com HTTPS
Europa (Milano) eu-south-1 bedrock-runtime.eu-south-1.amazonaws.com HTTPS
Europa (Parigi) eu-west-3 bedrock-runtime.eu-west-3.amazonaws.com HTTPS
Europa (Spagna) eu-south-2 bedrock-runtime.eu-south-2.amazonaws.com HTTPS
Europa (Stoccolma) eu-north-1 bedrock-runtime.eu-north-1.amazonaws.com HTTPS
Europa (Zurigo) eu-central-2 bedrock-runtime.eu-central-2.amazonaws.com HTTPS
Sud America (São Paulo) sa-east-1 bedrock-runtime.sa-east-1.amazonaws.com HTTPS
AWS GovCloud (Stati Uniti orientali) us-gov-east-1

bedrock-runtime.us-gov-east-1.amazonaws.com

bedrock-runtime-fips.us-gov-east-1.amazonaws.com

HTTPS

HTTPS

AWS GovCloud (Stati Uniti occidentali) us-gov-west-1

bedrock-runtime.us-gov-west-1.amazonaws.com

bedrock-runtime-fips.us-gov-west-1.amazonaws.com

HTTPS

HTTPS

Agenti per Amazon Bedrock build-time APIs

La tabella seguente fornisce un elenco di endpoint specifici della regione supportati da Agents for Amazon Bedrock per la creazione e la gestione di agenti e knowledge base. Usa questi endpoint per le operazioni dell'API Agents for Amazon Bedrock.

Nome della regione Regione Endpoint Protocollo
US East (N. Virginia) us-east-1 bedrock-agent.us-east-1.amazonaws.com HTTPS
bedrock-agent-fips.us-east-1.amazonaws.com HTTPS
US West (Oregon) us-west-2 bedrock-agent.us-west-2.amazonaws.com HTTPS
bedrock-agent-fips.us-west-2.amazonaws.com HTTPS
Asia Pacific (Singapore) ap-southeast-1 bedrock-agent.ap-southeast-1.amazonaws.com HTTPS
Asia Pacific (Sydney) ap-southeast-2 bedrock-agent.ap-southeast-2.amazonaws.com HTTPS
Asia Pacifico (Tokyo) ap-northeast-1 bedrock-agent.ap-northeast-1.amazonaws.com HTTPS
Canada (Central) ca-central-1 bedrock-agent.ca-central-1.amazonaws.com HTTPS
Europe (Frankfurt) eu-central-1 bedrock-agent.eu-central-1.amazonaws.com HTTPS
Europa (Irlanda) eu-west-1 bedrock-agent.eu-west-1.amazonaws.com HTTPS
Europe (London) eu-west-2 bedrock-agent.eu-west-2.amazonaws.com HTTPS
Europe (Paris) eu-west-3 bedrock-agent.eu-west-3.amazonaws.com HTTPS
Asia Pacific (Mumbai) ap-south-1 bedrock-agent.ap-south-1.amazonaws.com HTTPS
Sud America (São Paulo) sa-east-1 bedrock-agent.sa-east-1.amazonaws.com HTTPS

Agenti per il runtime di Amazon Bedrock APIs

La tabella seguente fornisce un elenco di endpoint specifici della regione supportati da Agents for Amazon Bedrock per richiamare agenti e interrogare le knowledge base. Usa questi endpoint per le operazioni dell'API Agents for Amazon Bedrock Runtime.

Nome della regione Regione Endpoint Protocollo
US East (N. Virginia) us-east-1 bedrock-agent-runtime.us-east-1.amazonaws.com HTTPS
bedrock-agent-runtime-fips.us-east-1.amazonaws.com HTTPS
US West (Oregon) us-west-2 bedrock-agent-runtime.us-west-2.amazonaws.com HTTPS
bedrock-agent-runtime-fips.us-west-2.amazonaws.com HTTPS
Asia Pacific (Singapore) ap-southeast-1 bedrock-agent-runtime.ap-southeast-1.amazonaws.com HTTPS
Asia Pacific (Sydney) ap-southeast-2 bedrock-agent-runtime.ap-sutheast-2.amazonaws.com HTTPS
Asia Pacifico (Tokyo) ap-northeast-1 bedrock-agent-runtime.ap-northeast-1.amazonaws.com HTTPS
Canada (Central) ca-central-1 bedrock-agent-runtime.ca-central-1.amazonaws.com HTTPS
Europe (Frankfurt) eu-central-1 bedrock-agent-runtime.eu-central-1.amazonaws.com HTTPS
Europe (Paris) eu-west-3 bedrock-agent-runtime.eu-west-3.amazonaws.com HTTPS
Europa (Irlanda) eu-west-1 bedrock-agent-runtime.eu-west-1.amazonaws.com HTTPS
Europe (London) eu-west-2 bedrock-agent-runtime.eu-west-2.amazonaws.com HTTPS
Asia Pacific (Mumbai) ap-south-1 bedrock-agent-runtime.ap-south-1.amazonaws.com HTTPS
Sud America (São Paulo) sa-east-1 bedrock-agent-runtime.sa-east-1.amazonaws.com HTTPS

Automazione dei dati Amazon Bedrock APIs

La tabella seguente fornisce un elenco di endpoint specifici della regione supportati da Data Automation for Amazon Bedrock. Gli endpoint che utilizzano la parola runtime richiamano blueprint e progetti per estrarre informazioni dai file. Usa questi endpoint per le operazioni dell'API Amazon Bedrock Data Automation Runtime. Gli endpoint esterni runtime vengono utilizzati per creare blueprint e progetti per fornire indicazioni sull'estrazione. Usa questi endpoint per le operazioni Buildtime dell'API Amazon Bedrock Data Automation

Nome della regione Regione Endpoint Protocollo
US East (N. Virginia) us-east-1

bedrock-data-automation.us-east-1.amazonaws.com

bedrock-data-automation-runtime.us-east-1.amazonaws.com

bedrock-data-automation-fips.us-east-1.amazonaws.com

bedrock-data-automation-runtime-fips.us-east-1.amazonaws.com

HTTPS

HTTPS

HTTPS

HTTPS

US West (Oregon) us-west-2

bedrock-data-automation.us-west-2.amazonaws.com

bedrock-data-automation-runtime.us-west-2.amazonaws.com

bedrock-data-automation-fips.us-west-2.amazonaws.com

bedrock-data-automation-runtime-fips.us-west-2.amazonaws.com

HTTPS

HTTPS

HTTPS

HTTPS

Quote di servizio Amazon Bedrock

Suggerimento

Poiché Amazon Bedrock ha un numero elevato di quote, ti consigliamo di visualizzare le quote di servizio utilizzando la console anziché utilizzare la tabella seguente. Aprire le quote Amazon Bedrock. Usa il campo di ricerca per trovare quote specifiche. Usa l'icona a forma di ingranaggio per controllare quante quote vengono visualizzate su una pagina.

Nome Predefinita Adattabile Descrizione
(Data Automation) (Console) Dimensione massima del file del documento (MB) Ogni Regione supportata: 200 No La dimensione massima del file per la console
(Data Automation) (Console) Numero massimo di pagine per file di documento Ogni regione supportata: 20 No Il numero massimo di pagine per documento nella console
(Data Automation) CreateBlueprint : numero massimo di progetti per account Ogni regione supportata: 350 Il numero massimo di progetti per account
(Data Automation) CreateBlueprintVersion : numero massimo di versioni di Blueprint per Blueprint Ogni regione supportata: 10 Il numero massimo di versioni per blueprint
(Automazione dei dati) Descrizione e lunghezza dei campi (caratteri) Ogni regione supportata: 300 No La lunghezza massima della descrizione per i campi in caratteri
(Data Automation) InvokeDataAutomationAsync - Audio - Numero massimo di lavori simultanei Ogni regione supportata: 20 Il numero massimo di lavori aperti di Invoke Data Automation Async per gli audio
(Data Automation) InvokeDataAutomationAsync - Documento - Numero massimo di lavori simultanei Ogni regione supportata: 25 Il numero massimo di lavori aperti di Invoke Data Automation Async per i documenti
(Data Automation) InvokeDataAutomationAsync - Immagine - Numero massimo di lavori simultanei Ogni regione supportata: 20 Il numero massimo di lavori aperti di Invoke Data Automation Async per le immagini
(Data Automation) InvokeDataAutomationAsync : numero massimo di lavori aperti Ogni regione supportata: 1.800 No Il numero massimo di lavori aperti di Invoke Data Automation Async per le immagini
(Data Automation) InvokeDataAutomationAsync - Video - Numero massimo di lavori simultanei Ogni regione supportata: 20 Il numero massimo di offerte di lavoro aperte di Invoke Data Automation Async per i video
(Data Automation) Frequenza di campionamento audio massima (Hz) Ogni regione supportata: 48.000 No La frequenza di campionamento audio massima
(Automazione dei dati) Numero massimo di progetti per progetto (audio) Ogni regione supportata: 1 No Il numero massimo di progetti per progetti audio
(Automazione dei dati) Numero massimo di progetti per progetto (documenti) Ogni regione supportata: 40 No Il numero massimo di progetti per progetto per i documenti
(Automazione dei dati) Numero massimo di progetti per progetto (immagini) Ogni regione supportata: 1 No Il numero massimo di progetti per le immagini per progetto
(Automazione dei dati) Numero massimo di progetti per progetto (video) Ogni regione supportata: 1 No Il numero massimo di progetti per progetto per i video
(Automazione dei dati) Dimensione massima del blueprint JSON (caratteri) Ogni regione supportata: 100.000 No La dimensione massima di JSON in caratteri
(Automazione dei dati) Livelli massimi di gerarchia dei campi Ogni regione supportata: 1 No Il livello numerico massimo della gerarchia dei campi
(Automazione dei dati) Numero massimo di pagine per documento Ogni regione supportata: 3.000 No Il numero massimo di pagine per documento
(Automazione dei dati) Risoluzione massima Ogni regione supportata: 8.000 No La risoluzione massima per le immagini
(Automazione dei dati) Dimensione massima del file audio (MB) Ogni regione supportata: 2.048 No La dimensione massima del file audio
(Automazione dei dati) Durata massima dell'audio (minuti) Ogni regione supportata: 240 No La lunghezza massima dell'audio in minuti
(Automazione dei dati) Dimensione massima del file del documento (MB) Ogni regione supportata: 500 No La dimensione massima del file
(Data Automation) Dimensione massima del file di immagine (MB) Ogni Regione supportata: 5 No La dimensione massima del file per le immagini
(Automazione dei dati) Numero massimo di blueprint per richiesta Start Inference (audio) Ogni regione supportata: 1 No Il numero massimo di blueprint in linea nella richiesta di inferenza Start
(Automazione dei dati) Numero massimo di progetti per richiesta Start Inference (documenti) Ogni regione supportata: 10 No Il numero massimo di blueprint in linea nella richiesta di inferenza Start
(Automazione dei dati) Numero massimo di progetti per richiesta Start Inference (immagini) Ogni regione supportata: 1 No Il numero massimo di blueprint in linea nella richiesta di inferenza Start
(Automazione dei dati) Numero massimo di progetti per richiesta Start Inference (video) Ogni regione supportata: 1 No Il numero massimo di blueprint in linea nella richiesta di inferenza Start
(Automazione dei dati) Numero massimo di campi dell'elenco per Blueprint Ogni regione supportata: 15 No Il numero massimo di campi di elenco per Blueprint
(Automazione dei dati) Dimensione massima del file video (MB) Ogni regione supportata: 10.240 No La dimensione massima del file per i video
(Automazione dei dati) Durata massima del video (minuti) Ogni regione supportata: 240 No La lunghezza massima dei video in minuti
(Automazione dei dati) Frequenza di campionamento audio minima (Hz) Ogni regione supportata: 8.000 No Frequenza di campionamento audio minima
(Automazione dei dati) Lunghezza audio minima (millisecondi) Ogni regione supportata: 500 No La lunghezza minima dell'audio in millisecondi
(Valutazione) Numero di lavori simultanei di valutazione automatica del modello Ogni regione supportata: 20 No Il numero massimo di lavori di valutazione automatica del modello che è possibile specificare contemporaneamente in questo account nella regione corrente.
(Valutazione) Numero di lavori simultanei di valutazione dei modelli che utilizzano lavoratori umani Ogni regione supportata: 10 No Il numero massimo di lavori di valutazione dei modelli che utilizzano lavoratori umani è possibile specificare contemporaneamente in questo account nella regione corrente.
(Valutazione) Numero di metriche personalizzate Ogni regione supportata: 10 No Il numero massimo di metriche personalizzate che è possibile specificare in un processo di valutazione del modello che utilizza lavoratori umani.
(Valutazione) Numero di set di dati prompt personalizzati in un processo di valutazione di modelli basato sull'uomo Ogni regione supportata: 1 No Il numero massimo di set di dati di prompt personalizzati che è possibile specificare in un processo di valutazione di modelli basato sull'uomo in questo account nella regione corrente.
(Valutazione) Numero di set di dati per processo Ogni Regione supportata: 5 No Il numero massimo di set di dati che è possibile specificare in un processo di valutazione automatizzato del modello. Ciò include set di dati prompt personalizzati e integrati.
(Valutazione) Numero di lavori di valutazione Ogni regione supportata: 5.000 No Il numero massimo di lavori di valutazione del modello che è possibile creare in questo account nella regione corrente.
(Valutazione) Numero di metriche per set di dati Ogni regione supportata: 3 No Il numero massimo di metriche che è possibile specificare per set di dati in un processo di valutazione automatizzato del modello. Ciò include metriche personalizzate e integrate.
(Valutazione) Numero di modelli in un processo di valutazione dei modelli che utilizza lavoratori umani Ogni regione supportata: 2 No Il numero massimo di modelli che è possibile specificare in un processo di valutazione dei modelli che utilizza lavoratori umani.
(Valutazione) Numero di modelli nel processo di valutazione automatizzata dei modelli Ogni regione supportata: 1 No Il numero massimo di modelli che è possibile specificare in un processo di valutazione automatizzato del modello.
(Valutazione) Numero di prompt in un set di dati di prompt personalizzato Ogni regione supportata: 1.000 No Il numero massimo di prompt che un set di dati di prompt personalizzato può contenere.
(Valutazione) Dimensione del prompt Ogni regione supportata: 4 No La dimensione massima (in KB) di un singolo prompt in un set di dati di prompt personalizzato.
(Valutazione) Tempo di lavoro per i lavoratori Ogni regione supportata: 30 No Durata massima (in giorni) di tempo a disposizione di un lavoratore per completare le attività.
(Flussi) Nodi agente per flusso Ogni regione supportata: 20 No Il numero massimo di nodi agente.
(Flussi) Nodi di raccolta per flusso Ogni regione supportata: 1 No Il numero massimo di nodi del raccoglitore.
(Flussi) Condiziona i nodi per flusso Ogni Regione supportata: 5 No Il numero massimo di nodi di condizione.
(Flussi) Condizioni per nodo di condizione Ogni Regione supportata: 5 No Il numero massimo di condizioni per nodo di condizione.
(Flows) CreateFlow richieste al secondo Ogni regione supportata: 2 No Il numero massimo di CreateFlow richieste al secondo.
(Flows) CreateFlowAlias richieste al secondo Ogni regione supportata: 2 No Il numero massimo di CreateFlowAlias richieste al secondo.
(Flows) CreateFlowVersion richieste al secondo Ogni regione supportata: 2 No Il numero massimo di CreateFlowVersion richieste al secondo.
(Flows) DeleteFlow richieste al secondo Ogni regione supportata: 2 No Il numero massimo di DeleteFlow richieste al secondo.
(Flows) DeleteFlowAlias richieste al secondo Ogni regione supportata: 2 No Il numero massimo di DeleteFlowAlias richieste al secondo.
(Flows) DeleteFlowVersion richieste al secondo Ogni regione supportata: 2 No Il numero massimo di DeleteFlowVersion richieste al secondo.
(Flussi) Alias di flusso per flusso Ogni regione supportata: 10 No Il numero massimo di alias di flusso.
(Flows) Esecuzioni di flusso per account Ogni regione supportata: 1.000 Il numero massimo di esecuzioni di flusso per account.
(Flows) Versioni di Flow per flusso Ogni regione supportata: 10 No Il numero massimo di versioni di flusso.
(Flussi) Flussi per account Ogni regione supportata: 100 Il numero massimo di flussi per account.
(Flows) GetFlow richieste al secondo Ogni regione supportata: 10 No Il numero massimo di GetFlow richieste al secondo.
(Flows) GetFlowAlias richieste al secondo Ogni regione supportata: 10 No Il numero massimo di GetFlowAlias richieste al secondo.
(Flows) GetFlowVersion richieste al secondo Ogni regione supportata: 10 No Il numero massimo di GetFlowVersion richieste al secondo.
(Flussi) Nodi di codice in linea per flusso Ogni Regione supportata: 5 No Il numero massimo di nodi di codice in linea per flusso.
(Flussi) Nodi di input per flusso Ogni regione supportata: 1 No Il numero massimo di nodi di input del flusso.
(Flussi) Nodi iteratori per flusso Ogni regione supportata: 1 No Il numero massimo di nodi iteratori.
(Flussi) Nodi della Knowledge base per flusso Ogni regione supportata: 20 No Il numero massimo di nodi della knowledge base.
(Flussi) Nodi di funzione Lambda per flusso Ogni regione supportata: 20 No Il numero massimo di nodi di funzione Lambda.
(Flussi) Nodi Lex per flusso Ogni Regione supportata: 5 No Il numero massimo di nodi Lex.
(Flows) ListFlowAliases richieste al secondo Ogni regione supportata: 10 No Il numero massimo di ListFlowAliases richieste al secondo.
(Flows) ListFlowVersions richieste al secondo Ogni regione supportata: 10 No Il numero massimo di ListFlowVersions richieste al secondo.
(Flows) ListFlows richieste al secondo Ogni regione supportata: 10 No Il numero massimo di ListFlows richieste al secondo.
(Flussi) Nodi di output per flusso Ogni regione supportata: 20 No Il numero massimo di nodi di uscita del flusso.
(Flows) PrepareFlow richieste al secondo Ogni regione supportata: 2 No Il numero massimo di PrepareFlow richieste al secondo.
(Flussi) Nodi di prompt per flusso Ogni regione supportata: 20 Il numero massimo di nodi di prompt.
(Flussi) Nodi di recupero S3 per flusso Ogni regione supportata: 10 No Il numero massimo di nodi di recupero S3.
(Flussi) Nodi di storage S3 per flusso Ogni regione supportata: 10 No Il numero massimo di nodi di storage S3.
(Flussi) Nodi totali per flusso Ogni regione supportata: 40 No Il numero massimo di nodi in un flusso.
(Flows) UpdateFlow richieste al secondo Ogni regione supportata: 2 No Il numero massimo di UpdateFlow richieste al secondo.
(Flows) UpdateFlowAlias richieste al secondo Ogni regione supportata: 2 No Il numero massimo di UpdateFlowAlias richieste al secondo.
(Flows) ValidateFlowDefinition richieste al secondo Ogni regione supportata: 2 No Il numero massimo di ValidateFlowDefinition richieste al secondo.
(Guardrails) Lunghezza della query di base contestuale in unità di testo Ogni regione supportata: 1 No La lunghezza massima, in unità di testo, della query per il grounding contestuale
(Guardrails) Lunghezza della risposta di base contestuale in unità di testo Ogni Regione supportata: 5 No La lunghezza massima, in unità di testo, della risposta per il grounding contestuale
(Guardrails) Lunghezza della sorgente di messa a terra contestuale in unità di testo

us-east-1: 100

us-west-2: 100

Ogni altra regione supportata: 50

No La lunghezza massima, in unità di testo, della sorgente di messa a terra per la messa a terra contestuale
(Guardrails) Frasi di esempio per argomento Ogni Regione supportata: 5 No Il numero massimo di esempi di argomenti che possono essere inclusi per argomento
(Guardrails) Guardrails per account Ogni regione supportata: 100 No Il numero massimo di guardrail in un account
(Guardrails) Unità di testo della politica di filtraggio ApplyGuardrail dei contenuti su richiesta al secondo

us-east-1: 200

us-west-2: 200

Ogni altra regione supportata: 25

Il numero massimo di unità di testo che possono essere elaborate per le politiche di filtro dei contenuti al secondo
(Guardrails) Unità di testo della politica On-demand ApplyGuardrail Denied topic al secondo

us-east-1:50

us-west-2:50

Ogni altra regione supportata: 25

Il numero massimo di unità di testo che possono essere elaborate per le politiche relative agli argomenti negati al secondo
(Guardrails) Le informazioni ApplyGuardrail sensibili su richiesta filtrano le unità di testo delle politiche di filtro al secondo

us-east-1: 200

us-west-2: 200

Ogni altra regione supportata: 25

Il numero massimo di unità di testo che possono essere elaborate per le politiche di filtro delle informazioni sensibili al secondo
(Guardrails) Unità di testo delle politiche di filtraggio di ApplyGuardrail Word su richiesta al secondo

us-east-1: 200

us-west-2: 200

Ogni altra regione supportata: 25

Il numero massimo di unità di testo che possono essere elaborate per i criteri di filtro di Word al secondo
(Guardrails) Unità di testo delle politiche di base ApplyGuardrail contestuale su richiesta al secondo Ogni regione supportata: 106 Il numero massimo di unità di testo che possono essere elaborate per le politiche di base contestuali al secondo
(Guardrails) Richieste su richiesta al secondo ApplyGuardrail

us-east-1:50

us-west-2:50

Ogni altra regione supportata: 25

Il numero massimo di chiamate ApplyGuardrail API consentite al secondo
(Guardrails) Entità Regex nel filtro delle informazioni sensibili Ogni regione supportata: 10 No Il numero massimo di espressioni regolari del filtro guardrail che possono essere incluse in una politica di informazioni sensibili
(Guardrails) Lunghezza Regex in caratteri Ogni regione supportata: 500 No La lunghezza massima, in caratteri, di un filtro guardrail regex
(Guardrails) Argomenti per guardrail Ogni regione supportata: 30 No Il numero massimo di argomenti che possono essere definiti tra le politiche tematiche di guardrail
(Guardrails) Versioni per guardrail Ogni regione supportata: 20 No Il numero massimo di versioni che un guardrail può avere
(Guardrails) Lunghezza delle parole in caratteri Ogni regione supportata: 100 No La lunghezza massima di una parola, in caratteri, in un elenco di parole bloccate
(Guardrails) Politica parole per parola Ogni regione supportata: 10.000 No Il numero massimo di parole che possono essere incluse in un elenco di parole bloccate
(Basi di conoscenza) Concorrenti IngestKnowledgeBaseDocuments e DeleteKnowledgeBaseDocuments richieste per account Ogni regione supportata: 10 No Il numero massimo IngestKnowledgeBaseDocuments di DeleteKnowledgeBaseDocuments richieste che possono essere eseguite contemporaneamente in un account.
(Basi di conoscenza) Lavori di inserimento simultanei per account Ogni Regione supportata: 5 No Il numero massimo di processi di inserimento che possono essere eseguiti contemporaneamente in un account.
(Knowledge Base) Lavori di inserimento simultanei per fonte di dati Ogni regione supportata: 1 No Il numero massimo di processi di inserimento che possono essere eseguiti contemporaneamente per un'origine dati.
(Basi di conoscenza) Lavori di inserimento simultanei per base di conoscenza Ogni regione supportata: 1 No Il numero massimo di processi di inserimento che possono essere eseguiti contemporaneamente per una knowledge base.
(Knowledge Base) CreateDataSource richieste al secondo Ogni regione supportata: 2 No Il numero massimo di richieste CreateDataSource API al secondo.
(Knowledge Base) CreateKnowledgeBase richieste al secondo Ogni regione supportata: 2 No Il numero massimo di richieste CreateKnowledgeBase API al secondo.
(Basi di conoscenza) Fonti di dati per base di conoscenza Ogni Regione supportata: 5 No Il numero massimo di fonti di dati per base di conoscenza.
(Knowledge Base) DeleteDataSource richieste al secondo Ogni regione supportata: 2 No Il numero massimo di richieste DeleteDataSource API al secondo.
(Knowledge Base) DeleteKnowledgeBase richieste al secondo Ogni regione supportata: 2 No Il numero massimo di richieste DeleteKnowledgeBase API al secondo.
(Knowledge Base) DeleteKnowledgeBaseDocuments richieste al secondo Ogni Regione supportata: 5 No Il numero massimo di richieste DeleteKnowledgeBaseDocuments API al secondo.
(Knowledge Base) File da aggiungere o aggiornare per processo di inserimento Ogni regione supportata: 5.000.000 No Il numero massimo di file nuovi e aggiornati che possono essere importati per processo di ingestione.
(Knowledge Base) File da eliminare per processo di ingestione Ogni regione supportata: 5.000.000 No Il numero massimo di file che possono essere eliminati per processo di ingestione.
(Knowledge Base) File da importare per processo. IngestKnowledgeBaseDocuments Ogni regione supportata: 25 No Il numero massimo di documenti che possono essere ingeriti per richiesta. IngestKnowledgeBaseDocuments
(Knowledge Base) GenerateQuery richieste al secondo Ogni regione supportata: 2 No Il numero massimo di richieste GenerateQuery API al secondo.
(Knowledge Base) GetDataSource richieste al secondo Ogni regione supportata: 10 No Il numero massimo di richieste GetDataSource API al secondo.
(Knowledge Base) GetIngestionJob richieste al secondo Ogni regione supportata: 10 No Il numero massimo di richieste GetIngestionJob API al secondo.
(Knowledge Base) GetKnowledgeBase richieste al secondo Ogni regione supportata: 10 No Il numero massimo di richieste GetKnowledgeBase API al secondo.
(Knowledge Base) GetKnowledgeBaseDocuments richieste al secondo Ogni Regione supportata: 5 No Il numero massimo di richieste GetKnowledgeBaseDocuments API al secondo.
(Knowledge Base) IngestKnowledgeBaseDocuments richieste al secondo Ogni Regione supportata: 5 No Il numero massimo di richieste IngestKnowledgeBaseDocuments API al secondo.
(Knowledge Base) IngestKnowledgeBaseDocuments dimensione totale del payload Ogni regione supportata: 6 No La dimensione massima (in MB) del payload totale in una IngestKnowledgeBaseDocuments richiesta.
(Knowledge Base) Dimensione del file del processo di importazione Ogni Regione supportata: 50 No La dimensione massima (in MB) di un file in un processo di importazione.
(Knowledge Base) Dimensioni del lavoro di importazione Ogni regione supportata: 100 No La dimensione massima (in GB) di un processo di importazione.
(Basi di conoscenza) Basi di conoscenza per account Ogni regione supportata: 100 No Il numero massimo di basi di conoscenza per account.
(Knowledge Base) ListDataSources richieste al secondo Ogni regione supportata: 10 No Il numero massimo di richieste ListDataSources API al secondo.
(Knowledge Base) ListIngestionJobs richieste al secondo Ogni regione supportata: 10 No Il numero massimo di richieste ListIngestionJobs API al secondo.
(Knowledge Base) ListKnowledgeBaseDocuments richieste al secondo Ogni Regione supportata: 5 No Il numero massimo di richieste ListKnowledgeBaseDocuments API al secondo.
(Knowledge Base) ListKnowledgeBases richieste al secondo Ogni regione supportata: 10 No Il numero massimo di richieste ListKnowledgeBases API al secondo.
(Knowledge Base) Numero massimo di file per il parser BDA Ogni regione supportata: 1.000 No Il numero massimo di file che possono essere utilizzati con Amazon Bedrock Data Automation come parser.
(Knowledge Base) Numero massimo di file per Foundation Models come parser Ogni regione supportata: 1.000 No Il numero massimo di file che possono essere utilizzati con Foundation Models come parser.
(Knowledge Base) Esegui una nuova classificazione delle richieste al secondo Ogni regione supportata: 10 No Il numero massimo di richieste API Rerank al secondo.
(Knowledge Base) Recupera le richieste al secondo Ogni regione supportata: 20 No Il numero massimo di richieste API Retrieve al secondo.
(Knowledge Base) RetrieveAndGenerate richieste al secondo Ogni regione supportata: 20 No Il numero massimo di richieste RetrieveAndGenerate API al secondo.
(Knowledge Base) RetrieveAndGenerateStream richieste al secondo Ogni regione supportata: 20 No Il numero massimo di richieste RetrieveAndGenerateStream API al secondo.
(Knowledge Base) StartIngestionJob richieste al secondo Ogni regione supportata: 0,1 No Il numero massimo di richieste StartIngestionJob API al secondo.
(Knowledge Base) UpdateDataSource richieste al secondo Ogni regione supportata: 2 No Il numero massimo di richieste UpdateDataSource API al secondo.
(Knowledge Base) UpdateKnowledgeBase richieste al secondo Ogni regione supportata: 2 No Il numero massimo di richieste UpdateKnowledgeBase API al secondo.
(Knowledge Base) Dimensione della query dell'utente Ogni regione supportata: 1.000 No La dimensione massima (in caratteri) di una query utente.
(Personalizzazione del modello) Modelli personalizzati per account Ogni regione supportata: 100 Il numero massimo di modelli personalizzati in un account.
(Personalizzazione del modello) Dimensione massima del file di input per i lavori di personalizzazione della distillazione Ogni regione supportata: 2 GB No La dimensione massima del file di input per i lavori di personalizzazione della distillazione.
(Personalizzazione del modello) Lunghezza massima della linea per i lavori di personalizzazione della distillazione Ogni regione supportata: 16 KB No La lunghezza massima della riga nel file di input per i lavori di personalizzazione della distillazione.
(Personalizzazione del modello) Numero massimo di richieste per i lavori di personalizzazione della distillazione Ogni regione supportata: 15.000 No Il numero massimo di prompt richiesti per i lavori di personalizzazione della distillazione.
(Personalizzazione del modello) Lunghezza massima del contesto di ottimizzazione del modello studentesco per i lavori di personalizzazione della distillazione di Amazon Nova Micro V1 Ogni regione supportata: 32.000 No La lunghezza massima del contesto di ottimizzazione del modello studentesco per i lavori di personalizzazione della distillazione di Amazon Nova Micro V1.
(Personalizzazione del modello) Lunghezza massima del contesto di ottimizzazione del modello studentesco per i lavori di personalizzazione della distillazione di Amazon Nova V1 Ogni regione supportata: 32.000 No La lunghezza massima del contesto di ottimizzazione del modello studentesco per i lavori di personalizzazione della distillazione di Amazon Nova V1.
(Personalizzazione del modello) Lunghezza massima del contesto di ottimizzazione del modello studentesco per i lavori di personalizzazione della distillazione Anthropic Claude 3 haiku 20240307 V1 Ogni regione supportata: 32.000 No La durata massima del contesto di ottimizzazione del modello studentesco per i lavori di personalizzazione della distillazione Anthropic Claude 3 haiku 20240307 V1.
(Personalizzazione del modello) Lunghezza massima del contesto di ottimizzazione del modello studentesco per i lavori di personalizzazione della distillazione Llama 3.1 70B Instruct V1 Ogni regione supportata: 16.000 No La lunghezza massima del contesto di regolazione fine del modello studentesco per i lavori di personalizzazione della distillazione di Llama 3.1 70B Instruct V1.
(Personalizzazione del modello) Lunghezza massima del contesto di ottimizzazione del modello studentesco per i lavori di personalizzazione della distillazione Llama 3.1 8B Instruct V1 Ogni regione supportata: 32.000 No La lunghezza massima del contesto di ottimizzazione del modello studentesco per i lavori di personalizzazione della distillazione di Llama 3.1 8B Instruct V1.
(Personalizzazione del modello) Numero minimo di richieste per i lavori di personalizzazione della distillazione Ogni regione supportata: 100 No Il numero minimo di prompt richiesti per i lavori di personalizzazione della distillazione.
(Personalizzazione del modello) Lavori di personalizzazione pianificati Ogni regione supportata: 2 No Il numero massimo di lavori di personalizzazione pianificati.
(Personalizzazione del modello) Somma dei record di formazione e convalida per un processo di ottimizzazione di Amazon Nova Lite Ogni regione supportata: 20.000 Il numero massimo combinato di record di formazione e convalida consentito per un processo di fine-tuning di Amazon Nova Lite.
(Personalizzazione del modello) Somma dei record di formazione e convalida per un processo di ottimizzazione di Amazon Nova Micro Ogni regione supportata: 20.000 Il numero massimo combinato di record di formazione e convalida consentito per un processo di fine-tuning di Amazon Nova Micro.
(Personalizzazione del modello) Somma dei record di formazione e convalida per un processo di ottimizzazione di Amazon Nova Pro Ogni regione supportata: 10.000 Il numero massimo combinato di record di formazione e convalida consentito per un processo di ottimizzazione di Amazon Nova Pro.
(Personalizzazione del modello) Somma dei record di formazione e convalida per un lavoro di fine-tuning di Claude 3 Haiku v1 Ogni regione supportata: 10.000 Il numero massimo combinato di record di formazione e convalida consentito per un lavoro di fine-tuning di Claude 3 Haiku.
(Personalizzazione del modello) Somma dei record di formazione e convalida per un lavoro di fine-tuning di Claude 3-5-Haiku v1 Ogni regione supportata: 10.000 Il numero massimo combinato di record di formazione e convalida consentito per un lavoro di fine-tuning di Claude 3-5-Haiku.
(Personalizzazione del modello) Somma dei record di formazione e convalida per un lavoro di fine-tuning di Meta Llama 2 13B v1 Ogni regione supportata: 10.000 Il numero massimo combinato di record di formazione e convalida consentito per un lavoro di fine-tuning di Meta Llama 2 13B.
(Personalizzazione del modello) Somma dei record di formazione e convalida per un lavoro di fine-tuning di Meta Llama 2 70B v1 Ogni regione supportata: 10.000 Il numero massimo combinato di record di formazione e convalida consentito per un lavoro di fine-tuning di Meta Llama 2 70B.
(Personalizzazione del modello) Somma dei record di formazione e convalida per un lavoro di ottimizzazione di Meta Llama 3.1 70B Instruct v1 Ogni regione supportata: 10.000 Il numero massimo combinato di record di formazione e convalida consentito per un processo di messa a punto di Meta Llama 3.1 70B Instruct Fine-tuning.
(Personalizzazione del modello) Somma dei record di formazione e convalida per un lavoro di fine-tuning di Meta Llama 3.1 8B Instruct v1 Ogni regione supportata: 10.000 Il numero massimo combinato di record di formazione e convalida consentito per un processo di messa a punto di Meta Llama 3.1 8B Instruct Fine-tuning.
(Personalizzazione del modello) Somma dei record di formazione e convalida per un job di fine-tuning di Meta Llama 3.2 11B Instruct v1 Ogni regione supportata: 10.000 Il numero massimo combinato di record di formazione e convalida consentito per un job di Meta Llama 3.2 11B Instruct Fine-tuning.
(Personalizzazione del modello) Somma dei record di formazione e convalida per un job di fine-tuning di Meta Llama 3.2 1B Instruct v1 Ogni regione supportata: 10.000 Il numero massimo combinato di record di formazione e convalida consentito per un processo di messa a punto di Meta Llama 3.2 1B Instruct Fine-tuning.
(Personalizzazione del modello) Somma dei record di formazione e convalida per un lavoro di fine-tuning di Meta Llama 3.2 3B Instruct v1 Ogni regione supportata: 10.000 Il numero massimo combinato di record di formazione e convalida consentito per un processo di messa a punto di Meta Llama 3.2 3B Instruct Fine-tuning.
(Personalizzazione del modello) Somma dei record di formazione e convalida per un lavoro di fine-tuning di Meta Llama 3.2 90B Instruct v1 Ogni regione supportata: 10.000 Il numero massimo combinato di record di formazione e convalida consentito per un job di Meta Llama 3.2 90B Instruct Fine-tuning.
(Personalizzazione del modello) Somma dei record di addestramento e convalida per un lavoro di fine-tuning di Titan Image Generator G1 V1 Ogni regione supportata: 10.000 Il numero massimo combinato di record di formazione e convalida consentito per un processo di fine-tuning di Titan Image Generator.
(Personalizzazione del modello) Somma dei record di formazione e convalida per un lavoro di fine-tuning di Titan Image Generator G1 V2 Ogni regione supportata: 10.000 Il numero massimo combinato di record di formazione e convalida consentito per un processo di fine-tuning di Titan Image Generator V2.
(Personalizzazione del modello) Somma dei record di formazione e convalida per un job di fine-tuning di Titan Multimodal Embeddings G1 v1 Ogni regione supportata: 50.000 Il numero massimo combinato di record di formazione e convalida consentito per un job di Fine-tuning di Titan Multimodal Embeddings.
(Personalizzazione del modello) Somma dei record di formazione e convalida per un job di pre-formazione continua su Titan Text G1 - Express v1 Ogni regione supportata: 100.000 Il numero massimo combinato di record di formazione e convalida consentito per un lavoro di pre-formazione continua di Titan Text Express.
(Personalizzazione del modello) Somma dei record di formazione e convalida per un job di fine-tuning di Titan Text G1 - Express v1 Ogni regione supportata: 10.000 Il numero massimo combinato di record di formazione e convalida consentito per un processo di fine-tuning di Titan Text Express.
(Personalizzazione del modello) Somma dei record di formazione e convalida per un lavoro di pre-formazione continua su Titan Text G1 - Lite v1 Ogni regione supportata: 100.000 Il numero massimo combinato di record di formazione e convalida consentito per un lavoro di pre-formazione continua di Titan Text Lite.
(Personalizzazione del modello) Somma dei record di formazione e convalida per un job di fine-tuning di Titan Text G1 - Lite v1 Ogni regione supportata: 10.000 Il numero massimo combinato di record di formazione e convalida consentito per un processo di fine-tuning di Titan Text Lite.
(Personalizzazione del modello) Somma dei record di formazione e convalida per un job di fine-tuning di Titan Text G1 - Premier v1 Ogni regione supportata: 20.000 Il numero massimo combinato di record di formazione e convalida consentito per un job Fine-tuning di Titan Text Premier.
(Gestione tempestiva) richieste al secondo CreatePrompt Ogni regione supportata: 2 No Il numero massimo di CreatePrompt richieste al secondo.
(Gestione rapida) CreatePromptVersion richieste al secondo Ogni regione supportata: 2 No Il numero massimo di CreatePromptVersion richieste al secondo.
(Gestione rapida) DeletePrompt richieste al secondo Ogni regione supportata: 2 No Il numero massimo di DeletePrompt richieste al secondo.
(Gestione rapida) GetPrompt richieste al secondo Ogni regione supportata: 10 No Il numero massimo di GetPrompt richieste al secondo.
(Gestione rapida) ListPrompts richieste al secondo Ogni regione supportata: 10 No Il numero massimo di ListPrompts richieste al secondo.
(Gestione rapida) Richieste per account Ogni regione supportata: 500 Il numero massimo di richieste.
(Gestione dei prompt) UpdatePrompt richieste al secondo Ogni regione supportata: 2 No Il numero massimo di UpdatePrompt richieste al secondo.
(Gestione dei prompt) Versioni per prompt Ogni regione supportata: 10 No Il numero massimo di versioni per prompt.
APIs per agente Ogni regione supportata: 11 Il numero massimo di APIs elementi che puoi aggiungere a un agente.
Gruppi di operazioni per agente Ogni regione supportata: 20 Il numero massimo di gruppi di azioni che è possibile aggiungere a un agente.
Agenti, collaboratori per agente Ogni regione supportata: 1.000 Il numero massimo di agenti collaboratori che puoi aggiungere a un agente.
Agenti per account Ogni regione supportata: 1.000 Il numero massimo di agenti in un account.
AssociateAgentKnowledgeBase richieste al secondo Ogni regione supportata: 6 No Il numero massimo di richieste AssociateAgentKnowledgeBase API al secondo.
Alias associati per agente Ogni regione supportata: 10 No Il numero massimo di alias che è possibile associare a un agente.
Knowledge base associate per agente Ogni regione supportata: 2 Il numero massimo di knowledge base che è possibile associare a un agente.
Dimensione del file di input per l'inferenza in batch (in GB) per Claude 3 Haiku Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Claude 3 Haiku.
Dimensione del file di input di inferenza Batch (in GB) per Claude 3 Opus Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Claude 3 Opus.
Dimensione del file di input di inferenza in batch (in GB) per Claude 3 Sonnet Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Claude 3 Sonnet.
Dimensione del file di input per l'inferenza in batch (in GB) per Claude 3.5 Haiku Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Claude 3.5 Haiku.
Dimensione del file di input di inferenza Batch (in GB) per Claude 3.5 Sonnet Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Claude 3.5 Sonnet.
Dimensione del file di input di inferenza in batch (in GB) per Claude 3.5 Sonnet v2 Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Claude 3.5 Sonnet v2.
Dimensione del file di input di inferenza in batch (in GB) per Llama 3.1 405B Instruct Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Llama 3.1 405B Instruct.
Dimensione del file di input di inferenza in batch (in GB) per Llama 3.1 70B Instruct Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Llama 3.1 70B Instruct.
Dimensione del file di input di inferenza in batch (in GB) per Llama 3.1 8B Instruct Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Llama 3.1 8B Instruct.
Dimensione del file di input di inferenza in batch (in GB) per Llama 3.2 11B Instruct Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Llama 3.2 11B Instruct.
Dimensione del file di input di inferenza in batch (in GB) per Llama 3.2 1B Instruct Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch Llama 3.2 1B Instruct.
Dimensione del file di input di inferenza in batch (in GB) per Llama 3.2 3B Instruct Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Llama 3.2 3B Instruct.
Dimensione del file di input di inferenza in batch (in GB) per Llama 3.2 90B Instruct Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Llama 3.2 90B Instruct.
Dimensione del file di input di inferenza in batch (in GB) per Llama 3.3 70B Instruct Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Llama 3.3 70B Instruct.
Dimensione del file di input per l'inferenza in batch (in GB) per Llama 4 Maverick Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Llama 4 Maverick.
Dimensione del file di input di inferenza in batch (in GB) per Llama 4 Scout Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Llama 4 Scout.
Dimensione del file di input di inferenza in batch (in GB) per Mistral Large 2 (24.07) Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Mistral Large 2 (24.07).
Dimensione del file di input di inferenza Batch (in GB) per Mistral Small Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Mistral Small.
Dimensione del file di input di inferenza in batch (in GB) per Nova Lite V1 Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Nova Lite V1.
Dimensione del file di input di inferenza in batch (in GB) per Nova Micro V1 Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Nova Micro V1.
Dimensione del file di input di inferenza in batch (in GB) per Nova Pro V1 Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Nova Pro V1.
Dimensione del file di input di inferenza in batch (in GB) per Titan Multimodal Embeddings G1 Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Titan Multimodal Embeddings G1.
Dimensione del file di input di inferenza in batch per Titan Text Embeddings V2 (in GB) Ogni regione supportata: 1 No La dimensione massima di un singolo file (in GB) inviato per l'inferenza in batch per Titan Text Embeddings V2.
Dimensione del lavoro di inferenza in batch (in GB) per Claude 3 Haiku Ogni Regione supportata: 5 No La dimensione massima cumulativa di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Claude 3 Haiku.
Dimensione del lavoro di inferenza in batch (in GB) per Claude 3 Opus Ogni Regione supportata: 5 No La dimensione massima cumulativa di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Claude 3 Opus.
Dimensione del lavoro di inferenza in batch (in GB) per Claude 3 Sonnet Ogni Regione supportata: 5 No La dimensione massima cumulativa di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Claude 3 Sonnet.
Dimensione del lavoro di inferenza in batch (in GB) per Claude 3.5 Haiku Ogni Regione supportata: 5 No La dimensione massima cumulativa di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Claude 3.5 Haiku.
Dimensione del lavoro di inferenza in batch (in GB) per Claude 3.5 Sonnet Ogni Regione supportata: 5 No La dimensione massima cumulativa di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Claude 3.5 Sonnet.
Dimensione del lavoro di inferenza in batch (in GB) per Claude 3.5 Sonnet v2 Ogni Regione supportata: 5 No La dimensione massima cumulativa di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Claude 3.5 Sonnet v2.
Dimensione del lavoro di inferenza in batch (in GB) per Llama 3.1 405B Instruct Ogni Regione supportata: 5 No La dimensione massima cumulativa di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Llama 3.1 405B Instruct.
Dimensione del lavoro di inferenza in batch (in GB) per Llama 3.1 70B Instruct Ogni Regione supportata: 5 No La dimensione massima cumulativa di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Llama 3.1 70B Instruct.
Dimensione del lavoro di inferenza in batch (in GB) per Llama 3.1 8B Instruct Ogni Regione supportata: 5 No La dimensione massima cumulativa di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Llama 3.1 8B Instruct.
Dimensione del lavoro di inferenza in batch (in GB) per Llama 3.2 11B Instruct Ogni Regione supportata: 5 No La dimensione massima cumulativa di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Llama 3.2 11B Instruct.
Dimensione del lavoro di inferenza in batch (in GB) per Llama 3.2 1B Instruct Ogni Regione supportata: 5 No La dimensione massima cumulativa di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Llama 3.2 1B Instruct.
Dimensione del lavoro di inferenza in batch (in GB) per Llama 3.2 3B Instruct Ogni Regione supportata: 5 No La dimensione massima cumulativa di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Llama 3.2 3B Instruct.
Dimensione del lavoro di inferenza in batch (in GB) per Llama 3.2 90B Instruct Ogni Regione supportata: 5 No La dimensione massima cumulativa di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Llama 3.2 90B Instruct.
Dimensione del lavoro di inferenza in batch (in GB) per Llama 3.3 70B Instruct Ogni Regione supportata: 5 No La dimensione massima cumulativa di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Llama 3.3 70B Instruct.
Dimensione del lavoro di inferenza in batch (in GB) per Llama 4 Maverick Ogni Regione supportata: 5 No La dimensione massima cumulativa di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Llama 4 Maverick.
Dimensione del lavoro di inferenza in batch (in GB) per Llama 4 Scout Ogni Regione supportata: 5 No La dimensione massima cumulativa di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Llama 4 Scout.
Dimensione del lavoro di inferenza in batch (in GB) per Mistral Large 2 (24.07) Ogni Regione supportata: 5 No La dimensione massima cumulativa di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Mistral Large 2 (24,07).
Dimensione del lavoro di inferenza in batch (in GB) per Mistral Small Ogni Regione supportata: 5 No La dimensione cumulativa massima di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Mistral Small.
Dimensione del lavoro di inferenza in batch (in GB) per Nova Lite V1 Ogni Regione supportata: 5 No La dimensione cumulativa massima di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Nova Lite V1.
Dimensione del lavoro di inferenza in batch (in GB) per Nova Micro V1 Ogni Regione supportata: 5 No La dimensione massima cumulativa di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Nova Micro V1.
Dimensione del lavoro di inferenza in batch (in GB) per Nova Pro V1 Ogni regione supportata: 100 No La dimensione cumulativa massima di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Nova Pro V1.
Dimensione del lavoro di inferenza in batch (in GB) per Titan Multimodal Embeddings G1 Ogni Regione supportata: 5 No La dimensione massima cumulativa di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Titan Multimodal Embeddings G1.
Dimensione del lavoro di inferenza in batch per Titan Text Embeddings V2 (in GB) Ogni Regione supportata: 5 No La dimensione massima cumulativa di tutti i file di input (in GB) inclusi nel processo di inferenza in batch per Titan Text Embeddings V2.
Caratteri nelle istruzioni per l'agente Ogni regione supportata: 20.000 No Il numero massimo di caratteri nelle istruzioni per un agente.
Lavori di importazione simultanea di modelli Ogni regione supportata: 1 No Il numero massimo di processi di importazione del modello in corso contemporaneamente.
CreateAgent richieste al secondo Ogni regione supportata: 6 No Il numero massimo di richieste CreateAgent API al secondo.
CreateAgentActionGroup richieste al secondo Ogni regione supportata: 12 No Il numero massimo di richieste CreateAgentActionGroup API al secondo.
CreateAgentAlias richieste al secondo Ogni regione supportata: 2 No Il numero massimo di richieste CreateAgentAlias API al secondo.
Richieste di inferenza di modelli interregionali al minuto per Anthropic Claude 3.5 Haiku Ogni regione supportata: 2.000 No Il numero massimo di chiamate che è possibile effettuare in un minuto. InvokeModel InvokeModelWithResponseStream La quota considera la somma combinata InvokeModel e i InvokeModelWithResponseStream token di Anthropic Claude 3.5 Haiku.
Richieste di inferenza di modelli interregionali al minuto per Anthropic Claude 3.5 Sonnet V2

us-west-2: 500

Ogni altra regione supportata: 100

No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Anthropic Claude 3.5 Sonnet V2. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello interregionale al minuto per Anthropic Claude 3.5 Haiku Ogni regione supportata: 4.000.000 Il numero massimo di token on-demand che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e per Anthropic Claude 3.5 ConverseStream InvokeModel InvokeModelWithResponseStream Haiku.
Token di inferenza del modello interregionale al minuto per Anthropic Claude 3.5 Sonnet V2

us-west-2:4.000.000

Ciascuna delle altre regioni supportate: 800.000

Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Anthropic Claude 3.5 Sonnet V2. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli interregionali al minuto per Amazon Nova Lite

us-east-1: 2.000

us-east-2:2.000

us-west-1:2.000

us-west-2: 2.000

Ogni altra regione supportata: 200

No Il numero massimo di richieste interregionali che puoi inviare per l'inferenza del modello in un minuto per Amazon Nova Lite. La quota considera la somma combinata di Converse, ConverseStream e. InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli interregionali al minuto per Amazon Nova Micro

us-east-1: 2.000

us-east-2:2.000

us-west-1:2.000

us-west-2: 2.000

Ogni altra regione supportata: 200

No Il numero massimo di richieste interregionali che puoi inviare per l'inferenza del modello in un minuto per Amazon Nova Micro. La quota considera la somma combinata di Converse, ConverseStream e. InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli interregionali al minuto per Amazon Nova Premier V1 Ogni Regione supportata: 200 No Il numero massimo di richieste interregionali che puoi inviare per l'inferenza del modello in un minuto per Amazon Nova Premier V1. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli interregionali al minuto per Amazon Nova Pro

us-east-1: 200

us-east-2:200

Stati Uniti-ovest-1:200

us-west-2: 200

Ogni altra regione supportata: 100

No Il numero massimo di richieste interregionali che puoi inviare per l'inferenza del modello in un minuto per Amazon Nova Pro. La quota considera la somma combinata di Converse, ConverseStream e. InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli interregionali al minuto per Anthropic Claude 3 Haiku

us-east-1: 2.000

us-west-2: 2.000

ap-northeast-1:400

ap-southeast-1:400

Ogni altra regione supportata: 800

No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse InvokeModel e ConverseStream, InvokeModelWithResponseStream per Anthropic Claude 3 Haiku.
Richieste di inferenza di modelli interregionali al minuto per Anthropic Claude 3 Opus Ogni regione supportata: 100 No Il numero massimo di richieste interregionali che è possibile inviare per l'inferenza del modello in un minuto per Anthropic Claude 3 Opus. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli interregionali al minuto per Anthropic Claude 3 Sonnet

us-east-1: 1.000

us-west-2: 1.000

Ogni altra regione supportata: 200

No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse InvokeModel e, InvokeModelWithResponseStream per Anthropic Claude ConverseStream, 3 Sonnet.
Richieste di inferenza di modelli interregionali al minuto per Anthropic Claude 3.5 Sonnet

us-west-2: 500

ap-northeast-1:40

ap-southeast-1:40

eu-central-1:40

eu-west-1: 40

eu-west-3:40

Ogni altra regione supportata: 100

No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Anthropic Claude 3.5 Sonnet. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli interregionali al minuto per Anthropic Claude 3.7 Sonnet V1

us-east-1:250

us-east-2:250

us-west-2:250

eu-central-1: 100

eu-north-1:100

eu-west-1:100

eu-west-2:250

eu-west-3:100

Ogni altra regione supportata: 50

No Il numero massimo di richieste interregionali che è possibile inviare per l'inferenza del modello in un minuto per Anthropic Claude 3.7 Sonnet V1. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli interregionali al minuto per Anthropic Claude Opus 4 V1 Ogni Regione supportata: 200 No Il numero massimo di richieste interregionali che è possibile inviare per l'inferenza del modello in un minuto per Anthropic Claude Opus 4 V1. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli interregionali al minuto per Anthropic Claude Sonnet 4 V1 Ogni Regione supportata: 200 No Il numero massimo di richieste interregionali che è possibile inviare per l'inferenza del modello in un minuto per Anthropic Claude Sonnet 4 V1. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli interregionali al minuto per R1 V1 DeepSeek Ogni Regione supportata: 200 No Il numero massimo di richieste interregionali che è possibile inviare per l'inferenza del modello in un minuto per R1 V1. DeepSeek La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli interregionali al minuto per Meta Llama 3.1 405B Instruct Ogni regione supportata: 400 No Il numero massimo di richieste interregionali che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.1 405B Instruct. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli interregionali al minuto per Meta Llama 3.1 70B Instruct Ogni regione supportata: 800 No Il numero massimo di richieste interregionali che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.1 70B Instruct. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli interregionali al minuto per Meta Llama 3.1 8B Instruct Ogni regione supportata: 1.600 No Il numero massimo di richieste interregionali che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.1 8B Instruct. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli interregionali al minuto per Meta Llama 3.2 1B Instruct Ogni regione supportata: 1.600 No Il numero massimo di richieste interregionali che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.2 1B Instruct. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli interregionali al minuto per Meta Llama 3.2 3B Instruct Ogni regione supportata: 1.600 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Meta Llama 3.2 3B Instruct. La quota considera la somma combinata delle richieste per InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream
Richieste di inferenza di modelli interregionali al minuto per Meta Llama 3.3 70B Instruct Ogni regione supportata: 800 No Il numero massimo di richieste interregionali che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.3 70B Instruct. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli interregionali al minuto per Meta Llama 4 Maverick V1 Ogni regione supportata: 800 No Il numero massimo di richieste interregionali che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 4 Maverick V1. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli interregionali al minuto per Meta Llama 4 Scout V1 Ogni regione supportata: 800 No Il numero massimo di richieste interregionali che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 4 Scout V1. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli interregionali al minuto per Mistral Pixtral Large 25.02 V1 Ogni regione supportata: 10 No Il numero massimo di richieste interregionali che è possibile inviare per l'inferenza del modello in un minuto per Mistral Pixtral Large 25.02 V1. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli interregionali al minuto per Writer AI Palmyra X4 V1 Ogni regione supportata: 10 No Il numero massimo di richieste interregionali che è possibile inviare per l'inferenza del modello in un minuto per Writer AI Palmyra X4 V1. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli interregionali al minuto per Writer AI Palmyra X5 V1 Ogni regione supportata: 10 No Il numero massimo di richieste interregionali che è possibile inviare per l'inferenza del modello in un minuto per Writer AI Palmyra X5 V1. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello interregionale al minuto per Amazon Nova Lite

us-east-1:4.000.000

us-east-2:4.000.000

us-west-1:4.000.000

us-west-2:4.000.000

Ciascuna delle altre regioni supportate: 200.000

Il numero massimo di token interregionali che puoi inviare per l'inferenza del modello in un minuto per Amazon Nova Lite. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza per modelli interregionali al minuto per Amazon Nova Micro

us-east-1:4.000.000

us-east-2:4.000.000

us-west-1:4.000.000

us-west-2:4.000.000

Ciascuna delle altre regioni supportate: 200.000

Il numero massimo di token interregionali che puoi inviare per l'inferenza del modello in un minuto per Amazon Nova Micro. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello interregionale al minuto per Amazon Nova Premier V1 Ogni regione supportata: 800.000 Il numero massimo di token interregionali che puoi inviare per l'inferenza del modello in un minuto per Amazon Nova Premier V1. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello interregionale al minuto per Amazon Nova Pro

us-east-1:800.000

us-east-2:800.000

us-west-1:800.000

us-west-2:800.000

Ciascuna delle altre regioni supportate: 200.000

Il numero massimo di token interregionali che puoi inviare per l'inferenza del modello in un minuto per Amazon Nova Pro. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza per modelli interregionali al minuto per Anthropic Claude 3 Haiku

us-east-1:4.000.000

us-west-2:4.000.000

ap-northeast-1:400.000

ap-southeast-1:400.000

Ciascuna delle altre regioni supportate: 600.000

Il numero massimo di token on-demand che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e per Anthropic Claude 3 ConverseStream InvokeModel InvokeModelWithResponseStream Haiku.
Token di inferenza per modelli interregionali al minuto per Anthropic Claude 3 Opus Ogni regione supportata: 800.000 Il numero massimo di token interregionali che puoi inviare per l'inferenza del modello in un minuto per Anthropic Claude 3 Opus. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello interregionale al minuto per Anthropic Claude 3 Sonnet

us-east-1:2.000.000

us-west-2:2.000.000

Ciascuna delle altre regioni supportate: 400.000

Il numero massimo di token su richiesta che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e per Anthropic Claude ConverseStream 3 InvokeModel InvokeModelWithResponseStream Sonnet.
Token di inferenza del modello interregionale al minuto per Anthropic Claude 3.5 Sonnet

us-west-2:4.000.000

ap-northeast-1:400.000

ap-southeast-1:400.000

eu-central-1:400.000

eu-west-1:400.000

eu-west-3:400.000

Ciascuna delle altre regioni supportate: 800.000

Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Anthropic Claude 3.5 Sonnet. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello interregionale al minuto per Anthropic Claude 3.7 Sonnet V1

us-east-1:1.000.000

us-east-2:1.000.000

us-west-2:1.000.000

eu-central-1:100.000

eu-north-1:100.000

eu-west-1:100.000

eu-west-2:1.000.000

eu-west-3:100.000

Ciascuna delle altre regioni supportate: 50.000

Il numero massimo di token interregionali che è possibile inviare per l'inferenza del modello in un minuto per Anthropic Claude 3.7 Sonnet V1. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello interregionale al minuto per Anthropic Claude Opus 4 V1 Ogni regione supportata: 200.000 Il numero massimo di token interregionali che puoi inviare per l'inferenza del modello in un minuto per Anthropic Claude Opus 4 V1. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello interregionale al minuto per Anthropic Claude Sonnet 4 V1 Ogni regione supportata: 200.000 Il numero massimo di token interregionali che è possibile inviare per l'inferenza del modello in un minuto per Anthropic Claude Sonnet 4 V1. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello interregionale al minuto per R1 V1 DeepSeek Ogni regione supportata: 200.000 Il numero massimo di token interregionali che è possibile inviare per l'inferenza del modello in un minuto per R1 V1. DeepSeek La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello interregionale al minuto per Meta Llama 3.1 405B Instruct Ogni regione supportata: 800.000 Il numero massimo di token interregionali che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.1 405B Instruct. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello interregionale al minuto per Meta Llama 3.1 70B Instruct Ogni regione supportata: 600.000 Il numero massimo di token interregionali che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.1 70B Instruct. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello interregionale al minuto per Meta Llama 3.1 8B Instruct Ogni regione supportata: 600.000 Il numero massimo di token interregionali che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.1 8B Instruct. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello interregionale al minuto per Meta Llama 3.2 1B Instruct Ogni regione supportata: 600.000 Il numero massimo di token interregionali che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.2 1B Instruct. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello interregionale al minuto per Meta Llama 3.2 3B Instruct Ogni regione supportata: 600.000 Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.2 3B Instruct. La quota considera la somma combinata dei token per InvokeModel,, Converse e. InvokeModelWithResponseStream ConverseStream
Token di inferenza per modelli interregionali al minuto per Meta Llama 3.3 70B Instruct Ogni regione supportata: 600.000 Il numero massimo di token interregionali che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.3 70B Instruct. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello interregionale al minuto per Meta Llama 4 Maverick V1 Ogni regione supportata: 600.000 Il numero massimo di token interregionali che puoi inviare per l'inferenza del modello in un minuto per Meta Llama 4 Maverick V1. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello interregionale al minuto per Meta Llama 4 Scout V1 Ogni regione supportata: 600.000 Il numero massimo di token interregionali che puoi inviare per l'inferenza del modello in un minuto per Meta Llama 4 Scout V1. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza per modelli interregionali al minuto per Mistral Pixtral Large 25.02 V1 Ogni regione supportata: 80.000 Il numero massimo di token interregionali che è possibile inviare per l'inferenza del modello in un minuto per Mistral Pixtral Large 25.02 V1. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello interregionale al minuto per Writer AI Palmyra X4 V1 Ogni regione supportata: 150.000 Il numero massimo di token interregionali che puoi inviare per l'inferenza del modello in un minuto per Writer AI Palmyra X4 V1. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello interregionale al minuto per Writer AI Palmyra X5 V1 Ogni regione supportata: 150.000 Il numero massimo di token interregionali che puoi inviare per l'inferenza del modello in un minuto per Writer AI Palmyra X5 V1. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Modelli personalizzati con uno stato di creazione per account Ogni regione supportata: 2 Il numero massimo di modelli personalizzati con uno stato di creazione.
DeleteAgent richieste al secondo Ogni regione supportata: 2 No Il numero massimo di richieste DeleteAgent API al secondo.
DeleteAgentActionGroup richieste al secondo Ogni regione supportata: 2 No Il numero massimo di richieste DeleteAgentActionGroup API al secondo.
DeleteAgentAlias richieste al secondo Ogni regione supportata: 2 No Il numero massimo di richieste DeleteAgentAlias API al secondo.
DeleteAgentVersion richieste al secondo Ogni regione supportata: 2 No Il numero massimo di richieste DeleteAgentVersion API al secondo.
DisassociateAgentKnowledgeBase richieste al secondo Ogni regione supportata: 4 No Il numero massimo di richieste DisassociateAgentKnowledgeBase API al secondo.
Gruppi di azioni abilitati per agente Ogni regione supportata: 15 Il numero massimo di gruppi di azioni che è possibile abilitare in un agente.
Endpoint per profilo di inferenza Ogni Regione supportata: 5 No Il numero massimo di endpoint in un profilo di inferenza. Un endpoint è definito da un modello e dalla regione a cui vengono inviate le richieste di invocazione al modello.
GetAgent richieste al secondo Ogni regione supportata: 15 No Il numero massimo di richieste GetAgent API al secondo.
GetAgentActionGroup richieste al secondo Ogni regione supportata: 20 No Il numero massimo di richieste GetAgentActionGroup API al secondo.
GetAgentAlias richieste al secondo Ogni regione supportata: 10 No Il numero massimo di richieste GetAgentAlias API al secondo.
GetAgentKnowledgeBase richieste al secondo Ogni regione supportata: 15 No Il numero massimo di richieste GetAgentKnowledgeBase API al secondo.
GetAgentVersion richieste al secondo Ogni regione supportata: 10 No Il numero massimo di richieste GetAgentVersion API al secondo.
Modelli importati per account Ogni regione supportata: 3 Il numero massimo di modelli importati in un account.
Profili di inferenza per account Ogni regione supportata: 1.000 Il numero massimo di profili di inferenza in un account.
ListAgentActionGroups richieste al secondo Ogni regione supportata: 10 No Il numero massimo di richieste ListAgentActionGroups API al secondo.
ListAgentAliases richieste al secondo Ogni regione supportata: 10 No Il numero massimo di richieste ListAgentAliases API al secondo.
ListAgentKnowledgeBases richieste al secondo Ogni regione supportata: 10 No Il numero massimo di richieste ListAgentKnowledgeBases API al secondo.
ListAgentVersions richieste al secondo Ogni regione supportata: 10 No Il numero massimo di richieste ListAgentVersions API al secondo.
ListAgents richieste al secondo Ogni regione supportata: 10 No Il numero massimo di richieste ListAgents API al secondo.
Numero minimo di record per processo di inferenza in batch per Claude 3 Haiku Ogni regione supportata: 100 No Il numero minimo di record tra tutti i file di input in un processo di inferenza in batch per Claude 3 Haiku.
Numero minimo di record per processo di inferenza in batch per Claude 3 Opus Ogni regione supportata: 100 No Il numero minimo di record in tutti i file di input in un processo di inferenza in batch per Claude 3 Opus.
Numero minimo di record per processo di inferenza in batch per Claude 3 Sonnet Ogni regione supportata: 100 No Il numero minimo di record in tutti i file di input in un processo di inferenza in batch per Claude 3 Sonnet.
Numero minimo di record per processo di inferenza in batch per Claude 3.5 Haiku Ogni regione supportata: 100 No Il numero minimo di record tra tutti i file di input in un processo di inferenza in batch per Claude 3.5 Haiku.
Numero minimo di record per processo di inferenza in batch per Claude 3.5 Sonnet Ogni regione supportata: 100 No Il numero minimo di record in tutti i file di input in un processo di inferenza in batch per Claude 3.5 Sonnet.
Numero minimo di record per processo di inferenza in batch per Claude 3.5 Sonnet v2 Ogni regione supportata: 100 No Il numero minimo di record tra tutti i file di input in un processo di inferenza in batch per Claude 3.5 Sonnet v2.
Numero minimo di record per processo di inferenza in batch per Llama 3.1 405B Instruct Ogni regione supportata: 100 No Il numero minimo di record tra tutti i file di input in un processo di inferenza in batch per Llama 3.1 405B Instruct.
Numero minimo di record per processo di inferenza in batch per Llama 3.1 70B Instruct Ogni regione supportata: 100 No Il numero minimo di record tra tutti i file di input in un processo di inferenza in batch per Llama 3.1 70B Instruct.
Numero minimo di record per processo di inferenza in batch per Llama 3.1 8B Instruct Ogni regione supportata: 100 No Il numero minimo di record tra tutti i file di input in un processo di inferenza in batch per Llama 3.1 8B Instruct.
Numero minimo di record per processo di inferenza in batch per Llama 3.2 11B Instruct Ogni regione supportata: 100 No Il numero minimo di record tra tutti i file di input in un processo di inferenza in batch per Llama 3.2 11B Instruct.
Numero minimo di record per processo di inferenza in batch per Llama 3.2 1B Instruct Ogni regione supportata: 100 No Il numero minimo di record tra tutti i file di input in un processo di inferenza in batch Llama 3.2 1B Instruct.
Numero minimo di record per processo di inferenza in batch per Llama 3.2 3B Instruct Ogni regione supportata: 100 No Il numero minimo di record tra tutti i file di input in un processo di inferenza in batch per Llama 3.2 3B Instruct.
Numero minimo di record per processo di inferenza in batch per Llama 3.2 90B Instruct Ogni regione supportata: 100 No Il numero minimo di record tra tutti i file di input in un processo di inferenza in batch per Llama 3.2 90B Instruct.
Numero minimo di record per processo di inferenza in batch per Llama 3.3 70B Instruct Ogni regione supportata: 100 No Il numero minimo di record tra tutti i file di input in un processo di inferenza in batch per Llama 3.3 70B Instruct.
Numero minimo di record per processo di inferenza in batch per Llama 4 Maverick Ogni regione supportata: 100 No Il numero minimo di record in tutti i file di input in un processo di inferenza in batch per Llama 4 Maverick.
Numero minimo di record per processo di inferenza in batch per Llama 4 Scout Ogni Regione supportata: 50 No Il numero minimo di record tra tutti i file di input in un processo di inferenza in batch per Llama 4 Scout.
Numero minimo di record per processo di inferenza in batch per Mistral Large 2 (24.07) Ogni regione supportata: 100 No Il numero minimo di record in tutti i file di input in un lavoro di inferenza in batch per Mistral Large 2 (24.07).
Numero minimo di record per processo di inferenza in batch per Mistral Small Ogni regione supportata: 100 No Il numero minimo di record in tutti i file di input in un processo di inferenza in batch per Mistral Small.
Numero minimo di record per processo di inferenza in batch per Nova Lite V1 Ogni regione supportata: 100 No Il numero minimo di record in tutti i file di input in un processo di inferenza in batch per Nova Lite V1.
Numero minimo di record per processo di inferenza in batch per Nova Micro V1 Ogni regione supportata: 100 No Il numero minimo di record in tutti i file di input in un processo di inferenza in batch per Nova Micro V1.
Numero minimo di record per processo di inferenza in batch per Nova Pro V1 Ogni regione supportata: 100 No Il numero minimo di record in tutti i file di input in un processo di inferenza in batch per Nova Pro V1.
Numero minimo di record per processo di inferenza in batch per Titan Multimodal Embeddings G1 Ogni regione supportata: 100 No Il numero minimo di record tra tutti i file di input in un processo di inferenza in batch per Titan Multimodal Embeddings G1.
Numero minimo di record per processo di inferenza in batch per Titan Text Embeddings V2 Ogni regione supportata: 100 No Il numero minimo di record in tutti i file di input in un processo di inferenza in batch per Titan Text Embeddings V2.
Numero massimo di token al giorno per il richiamo del modello per Amazon Nova Premier V1 Ogni regione supportata: 576.000.000 No Il numero massimo di token che puoi inviare per l'inferenza del modello in un giorno per Amazon Nova Premier V1. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Numero massimo di token al giorno di invocazione del modello per Anthropic Claude 3.7 Sonnet V1 Ogni regione supportata: 720.000.000 No Il numero massimo di token che è possibile inviare per l'inferenza del modello in un giorno per Anthropic Claude 3.7 Sonnet V1. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Numero massimo di token al giorno di invocazione del modello per Anthropic Claude Opus 4 V1 Ogni regione supportata: 144.000.000 No Il numero massimo di token che puoi inviare per l'inferenza del modello in un giorno per Anthropic Claude Opus 4 V1. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Numero massimo di token al giorno di invocazione del modello per Anthropic Claude Sonnet 4 V1 Ogni regione supportata: 144.000.000 No Il numero massimo di token che è possibile inviare per l'inferenza del modello in un giorno per Anthropic Claude Sonnet 4 V1. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Numero massimo di token di invocazione del modello al giorno per R1 V1 DeepSeek Ogni regione supportata: 144.000.000 No Il numero massimo di token che è possibile inviare per l'inferenza del modello in un giorno per R1 V1. DeepSeek La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Unità del modello (provisioned throughput) senza impegno tra i modelli di base Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere distribuite tra i throughput forniti senza impegno per i modelli base
Unità del modello, provisioned throughput senza impegno tra modelli personalizzati Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere distribuite tra i throughput forniti senza impegno per i modelli personalizzati
Unità modello per modello fornito per Labs Jurassic-2 Mid AI21 Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Labs Jurassic-2 Mid. AI21
Unità modello per modello fornito per Labs Jurassic-2 Ultra AI21 Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Labs Jurassic-2 Ultra. AI21
Unità del modello per modello fornito per Amazon Nova Canvas Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Amazon Nova Canvas.
Unità modello per modello fornito per Amazon Titan Embeddings G1 - Testo Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Amazon Titan Embeddings G1 - Text.
Unità del modello per modello fornito per Amazon Titan Image Generator G1 Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Amazon Titan Image Generator G1.
Unità del modello per modello fornito per Amazon Titan Image Generator G2 Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Amazon Titan Image Generator G2.
Unità modello per modello fornito per Amazon Titan Lite V1 4K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Amazon Titan Text Lite V1 4K.
Unità modello per modello fornito per Amazon Titan Multimodal Embeddings G1 Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Amazon Titan Multimodal Embeddings G1.
Unità del modello per modello fornito per Amazon Titan Text Embeddings V2 Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Amazon Titan Text Embeddings V2.
Unità modello per modello fornito per Amazon Titan Text G1 - Express 8K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Amazon Titan Text G1 - Express 8K.
Unità modello per modello fornito per Amazon Titan Text Premier V1 32K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Amazon Titan Text Premier V1 32K.
Unità modello per modello fornito per Anthropic Claude 3 Haiku 200K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3 Haiku 200K.
Unità modello per modello fornito per Anthropic Claude 3 Haiku 48K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3 Haiku 48K.
Unità modello per modello fornito per Anthropic Claude 3 Sonnet 200K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3 Sonnet 200K.
Unità modello per modello fornito per Anthropic Claude 3 Sonnet 28K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3 Sonnet 28K.
Unità modello per modello fornito per Anthropic Claude 3.5 Haiku 16K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3.5 Haiku 16K.
Unità modello per modello fornito per Anthropic Claude 3.5 Haiku 200K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3.5 Haiku 200K.
Unità modello per modello fornito per Anthropic Claude 3.5 Haiku 64K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3.5 Haiku 64K.
Unità modello per modello fornito per Anthropic Claude 3.5 Sonnet 18K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3.5 Sonnet 18K.
Unità modello per modello fornito per Anthropic Claude 3.5 Sonnet 200K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3.5 Sonnet 200K.
Unità modello per modello fornito per Anthropic Claude 3.5 Sonnet 51K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3.5 Sonnet 51K.
Unità modello per modello fornito per Anthropic Claude 3.5 Sonnet V2 18K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3.5 Sonnet V2 18K.
Unità modello per modello fornito per Anthropic Claude 3.5 Sonnet V2 200K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3.5 Sonnet V2 200K.
Unità modello per modello fornito per Anthropic Claude 3.5 Sonnet V2 51K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3.5 Sonnet V2 51K.
Unità modello per modello fornito per Anthropic Claude 3.7 V1.0 Sonnet 18K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3.7 V1.0 Sonnet 18K.
Unità modello per modello fornito per Anthropic Claude 3.7 V1.0 Sonnet 200K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3.7 V1.0 Sonnet 200K.
Unità modello per modello fornito per Anthropic Claude 3.7 V1.0 Sonnet 51K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3.7 V1.0 Sonnet 51K.
Unità modello per modello fornito per Anthropic Claude Instant V1 100K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude Instant V1 100K.
Unità modello per modello fornito per Anthropic Claude V2 100K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude V2 100K.
Unità modello per modello fornito per Anthropic Claude V2 18K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude V2 18K.
Unità modello per modello fornito per Anthropic Claude V2.1 18K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude V2.1 18K.
Unità modello per modello fornito per Anthropic Claude V2.1 200K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude V2.1 200K.
Unità modello per modello fornito per Cohere Command Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Cohere Command.
Unità modello per modello fornito per Cohere Command Light Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Cohere Command Light.
Unità del modello per modello fornito per Cohere Command R Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Cohere Command R 128k.
Unità modello per modello fornito per Cohere Command R Plus Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Cohere Command R Plus 128k.
Unità modello per modello fornito per Cohere Embed English Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Cohere Embed English.
Unità modello per modello fornito per Cohere Embed Multilingual Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Cohere Embed Multilingual.
Unità modello per modello fornito per Meta Llama 2 13B Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Meta Llama 2 13B.
Unità modello per modello fornito per Meta Llama 2 70B Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Meta Llama 2 70B.
Unità modello per modello fornito per Meta Llama 2 Chat 13B Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Meta Llama 2 Chat 13B.
Unità modello per modello fornito per Meta Llama 2 Chat 70B Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Meta Llama 2 Chat 70B.
Unità modello per modello fornito per Meta Llama 3 70B Instruct Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Meta Llama 3 70B Instruct.
Unità modello per modello fornito per Meta Llama 3 8B Instruct Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Meta Llama 3 8B Instruct.
Unità modello per modello fornito per Meta Llama 3.1 70B Instruct Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Meta Llama 3.1 70B Instruct.
Unità modello per modello fornito per Meta Llama 3.1 8B Instruct Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Meta Llama 3.1 8B Instruct.
Unità modello per modello fornito per Meta Llama 3.2 11B Instruct Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Meta Llama 3.2 11B Instruct.
Unità modello per modello fornito per Meta Llama 3.2 1B Instruct Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Meta Llama 3.2 1B Instruct.
Unità modello per modello fornito per Meta Llama 3.2 3B Instruct Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Meta Llama 3.2 3B Instruct.
Unità modello per modello fornito per Meta Llama 3.2 90B Instruct Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Meta Llama 3.2 90B Instruct.
Unità modello per modello fornito per Mistral Large 2407 Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Mistral Large 2407.
Unità modello per modello fornito per Mistral Small Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Mistral Small.
Unità modello per modello fornito per Stability.ai Stable Diffusion XL 0.8 Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Stability.ai Stable Diffusion XL 0.8
Unità modello per modello fornito per Stability.ai Stable Diffusion XL 1.0 Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Stability.ai Stable Diffusion XL 1.0.
Unità del modello per modello fornito per la variante con lunghezza di contesto da 128k per Amazon Nova Micro Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per la variante con lunghezza di contesto da 128k per Amazon Nova Micro
Unità del modello per modello fornito per la variante con lunghezza di contesto da 24k per Amazon Nova Lite Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per la variante con lunghezza di contesto da 24k per Amazon Nova Lite
Unità del modello per modello fornito per la variante con lunghezza di contesto da 24k per Amazon Nova Micro Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per la variante con lunghezza di contesto da 24k per Amazon Nova Micro
Unità del modello per modello fornito per la variante con lunghezza di contesto da 24k per Amazon Nova Pro Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per la variante con lunghezza di contesto da 24k per Amazon Nova Pro
Unità del modello per modello fornito per la variante con lunghezza di contesto da 300.000 per Amazon Nova Lite Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per la variante con lunghezza di contesto da 300.000 per Amazon Nova Lite
Unità del modello per modello fornito per la variante con lunghezza di contesto da 300.000 per Amazon Nova Pro Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per la variante con lunghezza di contesto da 300.000 per Amazon Nova Pro.
Unità modello, con impegno, per Provisioned Through create per Meta Llama 4 Scout 17B Instruct 10M Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un Provisioned Throughput creato per Meta Llama 4 Scout 17B Instruct 10M, con impegno.
Unità modello, con impegno, per Provisioned Through create per Meta Llama 4 Scout 17B Instruct 128K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un Provisioned Throughput creato per Meta Llama 4 Scout 17B Instruct 128K, con impegno.
Unità modello, con impegno, per Provisioned Through create per Meta Maverick 4 Scout 17B Instruct 128K Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un Provisioned Throughput creato per Meta Llama 4 Maverick 17B Instruct 128K, con impegno.
Unità modello, con impegno, per Provisioned Through create per Meta Maverick 4 Scout 17B Instruct 1M Ogni regione supportata: 0 Il numero massimo di unità del modello che possono essere assegnate a un Provisioned Throughput creato per Meta Llama 4 Maverick 17B Instruct 1M, con impegno.
Unità modello senza impegno per Provisioned Throughput create per il modello base Amazon Nova Canvas V1.0 Ogni regione supportata: 0 No Il numero massimo di unità del modello che possono essere assegnate a un Provisioned Throughput creato per il modello base Amazon Nova Canvas V1.0, senza impegno.
Unità modello senza impegno per Provisioned Throughput create per il modello personalizzato Amazon Nova Canvas V1 0 Ogni regione supportata: 0 No Il numero massimo di unità del modello che possono essere allocate a un Provisioned Throughput creato per il modello personalizzato Amazon Nova Canvas V1 0, senza impegno.
Numero di prompt router personalizzati per account Ogni regione supportata: 500 No Il numero massimo di prompt router personalizzati che è possibile creare per account per regione.
Richieste di inferenza del modello su richiesta e ottimizzate per la latenza al minuto per Meta Llama 3.1 405B Instruct Ogni regione supportata: 100 No Il numero massimo di richieste su richiesta e ottimizzate per la latenza che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.1 405B Instruct. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza del modello su richiesta e ottimizzate per la latenza al minuto per Meta Llama 3.1 70B Instruct Ogni regione supportata: 100 No Il numero massimo di richieste su richiesta e ottimizzate per la latenza che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.1 70B Instruct. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello su richiesta e ottimizzati per la latenza per Meta Llama 3.1 405B Instruct Ogni regione supportata: 40.000 No Il numero massimo di token su richiesta e ottimizzati per la latenza che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.1 405B Instruct. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello su richiesta e ottimizzati per la latenza per Meta Llama 3.1 70B Instruct Ogni regione supportata: 40.000 No Il numero massimo di token su richiesta e ottimizzati per la latenza che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.1 70B Instruct. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste InvokeModel simultanee su richiesta per Amazon Nova Reel1.0 Ogni regione supportata: 10 No Il numero massimo di richieste di inferenza del modello simultanee che puoi inviare per Amazon Nova Reel 1.0. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste InvokeModel simultanee su richiesta per Amazon Nova Reel1.1 Ogni regione supportata: 3 No Il numero massimo di richieste di inferenza del modello simultanee che puoi inviare per Amazon Nova Reel 1.1. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste InvokeModel simultanee su richiesta per Amazon Nova Sonic Ogni regione supportata: 20 No Il numero massimo di richieste simultanee che puoi inviare per l'inferenza del modello per Amazon Nova Sonic.
Richieste di inferenza di modelli al minuto ottimizzate per la latenza su richiesta per Anthropic Claude 3.5 Haiku Ogni regione supportata: 100 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse InvokeModel e ConverseStream, InvokeModelWithResponseStream per Anthropic Claude 3.5 Haiku, se è configurata l'ottimizzazione della latenza.
Token di inferenza del modello al minuto ottimizzati per la latenza su richiesta per Anthropic Claude 3.5 Haiku Ogni regione supportata: 500.000 No Il numero massimo di token su richiesta che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e, InvokeModelWithResponseStream per Anthropic Claude 3.5 ConverseStream InvokeModel Haiku, se è configurata l'ottimizzazione della latenza.
Richieste simultanee di inferenza di modelli su richiesta per Luma Ray V2 Ogni regione supportata: 1 No Il numero massimo di richieste simultanee che è possibile inviare per l'inferenza del modello per Luma Ray V2. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza del modello su richiesta al minuto per AI21 Labs Jamba 1.5 Large Ogni regione supportata: 100 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per AI21 Labs Jamba 1.5 Large. La quota considera la somma combinata delle richieste per Converse e InvokeModel
Richieste di inferenza del modello su richiesta al minuto per AI21 Labs Jamba 1.5 Mini Ogni regione supportata: 100 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per AI21 Labs Jamba 1.5 Mini. La quota considera la somma combinata delle richieste per Converse e InvokeModel
Richieste di inferenza del modello su richiesta al minuto per AI21 Labs Jamba Instruct Ogni regione supportata: 100 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Labs Jamba Instruct. AI21 La quota considera la somma combinata delle richieste per Converse e InvokeModel
Richieste di inferenza del modello su richiesta al minuto per AI21 Labs Jurassic-2 Mid Ogni regione supportata: 400 No Il numero massimo di chiamate in un minuto per Labs Jurassic-2 InvokeModel Mid AI21
Richieste di inferenza di modelli su richiesta al minuto per Labs Jurassic-2 Ultra AI21 Ogni regione supportata: 100 No Il numero massimo di chiamate che puoi chiamare InvokeModel in un minuto per Labs Jurassic-2 Ultra AI21
Richieste di inferenza di modelli su richiesta al minuto per Amazon Nova Canvas Ogni regione supportata: 100 No Il numero massimo di richieste che puoi inviare per l'inferenza del modello in un minuto per Amazon Nova Canvas. La quota considera la somma combinata di Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Richieste di inferenza di modelli su richiesta al minuto per Amazon Nova Lite

us-east-1: 1.000

Ogni altra regione supportata: 100

No Il numero massimo di richieste su richiesta che puoi inviare per l'inferenza del modello in un minuto per Amazon Nova Lite. La quota considera la somma combinata di Converse, ConverseStream e. InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli su richiesta al minuto per Amazon Nova Micro

us-east-1: 1.000

Ogni altra regione supportata: 100

No Il numero massimo di richieste su richiesta che puoi inviare per l'inferenza del modello in un minuto per Amazon Nova Micro. La quota considera la somma combinata di Converse, ConverseStream e. InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli su richiesta al minuto per Amazon Nova Pro

us-east-1: 100

us-east-2:100

Ogni altra regione supportata: 50

No Il numero massimo di richieste su richiesta che puoi inviare per l'inferenza del modello in un minuto per Amazon Nova Pro. La quota considera la somma combinata di Converse, ConverseStream e. InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli su richiesta al minuto per Amazon Rerank 1.0 Ogni Regione supportata: 200 No Il numero massimo di chiamate che puoi effettuare InvokeModel in un minuto per Amazon Rerank 1.0.
Richieste di inferenza di modelli su richiesta al minuto per Amazon Titan Image Generator G1 Ogni regione supportata: 60 No Il numero massimo di chiamate InvokeModel in un minuto per Amazon Titan Image Generator G1.
Richieste di inferenza di modelli su richiesta al minuto per Amazon Titan Image Generator G1 V2 Ogni regione supportata: 60 No Il numero massimo di richieste su richiesta che puoi inviare per l'inferenza del modello in un minuto per Amazon Titan Image Generator G1 V2. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli su richiesta al minuto per Amazon Titan Multimodal Embeddings G1 Ogni regione supportata: 2.000 No Il numero massimo di chiamate InvokeModel in un minuto per Amazon Titan Multimodal Embeddings G1.
Richieste di inferenza di modelli su richiesta al minuto per Amazon Titan Text Embeddings Ogni regione supportata: 2.000 No Il numero massimo di chiamate InvokeModel in un minuto per Amazon Titan Text Embeddings
Richieste di inferenza di modelli su richiesta al minuto per Amazon Titan Text Embeddings V2 Ogni regione supportata: 2.000 No Il numero massimo di chiamate che puoi effettuare InvokeModel in un minuto per Amazon Titan Text Embeddings V2
Richieste di inferenza di modelli su richiesta al minuto per Amazon Titan Text Express Ogni regione supportata: 400 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse InvokeModel e ConverseStream, InvokeModelWithResponseStream per Amazon Titan Text Express
Richieste di inferenza di modelli su richiesta al minuto per Amazon Titan Text Lite Ogni regione supportata: 800 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse InvokeModel e ConverseStream, InvokeModelWithResponseStream per Amazon Titan Text Lite
Richieste di inferenza di modelli su richiesta al minuto per Amazon Titan Text Premier Ogni regione supportata: 100 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse InvokeModel e ConverseStream, InvokeModelWithResponseStream per Amazon Titan Text Premier
Richieste di inferenza di modelli su richiesta al minuto per Anthropic Claude 3 Haiku

us-east-1: 1.000

us-west-2: 1.000

ap-northeast-1:200

ap-southeast-1:200

Ciascuna delle altre regioni supportate: 400

No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse InvokeModel e ConverseStream, InvokeModelWithResponseStream per Anthropic Claude 3 Haiku.
Richieste di inferenza di modelli su richiesta al minuto per Anthropic Claude 3 Opus Ogni Regione supportata: 50 No Il numero massimo di richieste su richiesta che è possibile inviare per l'inferenza del modello in un minuto per Anthropic Claude 3 Opus. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli su richiesta al minuto per Anthropic Claude 3 Sonnet

us-east-1: 500

us-west-2: 500

Ogni altra regione supportata: 100

No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse InvokeModel e, InvokeModelWithResponseStream per Anthropic Claude ConverseStream, 3 Sonnet.
Richieste di inferenza di modelli su richiesta al minuto per Anthropic Claude 3.5 Haiku

Stati Uniti-ovest-1:400

Tutte le altre regioni supportate: 1.000

No Il numero massimo di richieste su richiesta che è possibile inviare per l'inferenza del modello in un minuto per Anthropic Claude 3.5 Haiku. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli su richiesta al minuto per Anthropic Claude 3.5 Sonnet

us-east-1:50

us-east-2:50

us-west-2:250

ap-northeast-2:50

ap-south-1:50

ap-southeast-2:50

Ogni altra regione supportata: 20

No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Anthropic Claude 3.5 Sonnet. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli su richiesta al minuto per Anthropic Claude 3.5 Sonnet V2

us-west-2:250

Ogni altra regione supportata: 50

No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Anthropic Claude 3.5 Sonnet V2. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza di modelli su richiesta al minuto per Anthropic Claude Instant

us-east-1: 1.000

us-west-2: 1.000

Ciascuna delle altre regioni supportate: 400

No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse InvokeModel e, InvokeModelWithResponseStream per Anthropic ConverseStream, Claude Instant
Richieste di inferenza di modelli su richiesta al minuto per Anthropic Claude V2

us-east-1: 500

us-west-2: 500

Ogni altra regione supportata: 100

No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse InvokeModel e ConverseStream, InvokeModelWithResponseStream per Anthropic Claude V2
Richieste di inferenza del modello su richiesta al minuto per Cohere Command Ogni regione supportata: 400 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse InvokeModel e InvokeModelWithResponseStream per ConverseStream Cohere Command.
Richieste di inferenza del modello su richiesta al minuto per Cohere Command Light Ogni regione supportata: 800 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse ConverseStream, InvokeModel e InvokeModelWithResponseStream per Cohere Command Light.
Richieste di inferenza del modello su richiesta al minuto per Cohere Command R Ogni regione supportata: 400 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse ConverseStream, InvokeModel e InvokeModelWithResponseStream per Cohere Command R 128k.
Richieste di inferenza del modello su richiesta al minuto per Cohere Command R Plus Ogni regione supportata: 400 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse InvokeModel e ConverseStream, InvokeModelWithResponseStream per Cohere Command R Plus, 128k.
Richieste di inferenza del modello su richiesta al minuto per Cohere Embed English Ogni regione supportata: 2.000 No Il numero massimo di chiamate InvokeModel in un minuto per Cohere Embed English.
Richieste di inferenza di modelli su richiesta al minuto per Cohere Embed Multilingual Ogni regione supportata: 2.000 No Il numero massimo di chiamate in un minuto per Cohere Embed InvokeModel Multilingual.
Richieste di inferenza del modello su richiesta al minuto per Cohere Rerank 3.5 Ogni regione supportata: 250 No Il numero massimo di chiamate InvokeModel in un minuto per Cohere Rerank 3.5.
Richieste di inferenza di modelli su richiesta al minuto per Meta Llama 2 13B Ogni regione supportata: 800 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse InvokeModel e ConverseStream, InvokeModelWithResponseStream per Meta Llama 2, 13B.
Richieste di inferenza del modello su richiesta al minuto per Meta Llama 2 70B Ogni regione supportata: 400 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse InvokeModel e ConverseStream, InvokeModelWithResponseStream per Meta Llama 2 70B.
Richieste di inferenza del modello su richiesta al minuto per Meta Llama 2 Chat 13B Ogni regione supportata: 800 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse InvokeModel e ConverseStream, InvokeModelWithResponseStream per Meta Llama 2, Chat 13B.
Richieste di inferenza del modello on-demand al minuto per Meta Llama 2 Chat 70B Ogni regione supportata: 400 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse InvokeModel e ConverseStream, InvokeModelWithResponseStream per Meta Llama 2, Chat 70B.
Richieste di inferenza del modello su richiesta al minuto per Meta Llama 3 70B Instruct Ogni regione supportata: 400 No Il numero massimo di richieste su richiesta che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3 70B Instruct. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza del modello su richiesta al minuto per Meta Llama 3 8B Instruct Ogni regione supportata: 800 No Il numero massimo di richieste su richiesta che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3 8B Instruct. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza del modello su richiesta al minuto per Meta Llama 3.1 405B Instruct Ogni Regione supportata: 200 No Il numero massimo di richieste su richiesta che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.1 405B Instruct. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza del modello su richiesta al minuto per Meta Llama 3.1 70B Instruct Ogni regione supportata: 400 No Il numero massimo di richieste su richiesta che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.1 70B Instruct. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza del modello su richiesta al minuto per Meta Llama 3.1 8B Instruct Ogni regione supportata: 800 No Il numero massimo di richieste su richiesta che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.1 8B Instruct. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza del modello su richiesta al minuto per Meta Llama 3.2 11B Instruct Ogni regione supportata: 400 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Meta Llama 3.2 11B Instruct. La quota considera la somma combinata delle richieste per InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream
Richieste di inferenza del modello su richiesta al minuto per Meta Llama 3.2 1B Instruct Ogni regione supportata: 800 No Il numero massimo di richieste su richiesta che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.2 1B Instruct. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza del modello su richiesta al minuto per Meta Llama 3.2 3B Instruct Ogni regione supportata: 800 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Meta Llama 3.2 3B Instruct. La quota considera la somma combinata delle richieste per InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream
Richieste di inferenza del modello su richiesta al minuto per Meta Llama 3.2 90B Instruct Ogni regione supportata: 400 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Meta Llama 3.2 90B Instruct. La quota considera la somma combinata delle richieste per InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream
Richieste di inferenza del modello su richiesta al minuto per Meta Llama 3.3 70B Instruct Ogni regione supportata: 400 No Il numero massimo di richieste su richiesta che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.3 70B Instruct. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Richieste di inferenza del modello su richiesta al minuto per Mistral 7B Instruct Ogni regione supportata: 800 No Il numero massimo di volte che è possibile chiamare in un minuto per Mistral InvokeModel mistral-7 0 b-instruct-v
Richieste di inferenza di modelli su richiesta al minuto per Mistral AI Mistral Small Ogni regione supportata: 400 No Il numero massimo di volte che puoi chiamare InvokeModel e in un minuto per Mistral AI Mistral InvokeModelWithResponseStream Mistral Small
Richieste di inferenza di modelli su richiesta al minuto per Mistral Large Ogni regione supportata: 400 No Il numero massimo di chiamate InvokeModel e in un minuto per Mistral InvokeModelWithResponseStream mistral-large-2402-v1
Richieste di inferenza di modelli su richiesta al minuto per Mistral Large 2407 Ogni regione supportata: 400 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Mistral Large 2407. La quota considera la somma combinata delle richieste di InvokeModel,, Converse e InvokeModelWithResponseStream ConverseStream
Richieste di inferenza del modello su richiesta al minuto per Mistral Mixtral 8x7b Instruct Ogni regione supportata: 400 No Il numero massimo di volte che è possibile chiamare in un minuto per Mistral mixtral-8x7b-v0 InvokeModel
Richieste di inferenza del modello su richiesta al minuto per Stability.ai Stable Diffusion 3 Large Ogni regione supportata: 15 No Il numero massimo di chiamate InvokeModel in un minuto per Stability.ai Stable Diffusion 3 Large.
Richieste di inferenza del modello su richiesta al minuto per Stability.ai Stable Diffusion 3 Medium Ogni regione supportata: 60 No Il numero massimo di chiamate InvokeModel in un minuto per Stability.ai Stable Diffusion 3 Medium
Richieste di inferenza del modello su richiesta al minuto per Stability.ai Stable Diffusion 3.5 Large Ogni regione supportata: 15 No Il numero massimo di chiamate InvokeModel in un minuto per Stability.ai Stable Diffusion 3.5 Large.
Richieste di inferenza del modello su richiesta al minuto per Stability.ai Stable Diffusion XL 0.8 Ogni regione supportata: 60 No Il numero massimo di chiamate InvokeModel in un minuto per Stability.ai Stable Diffusion XL 0.8
Richieste di inferenza del modello su richiesta al minuto per Stability.ai Stable Diffusion XL 1.0 Ogni regione supportata: 60 No Il numero massimo di chiamate InvokeModel in un minuto per Stability.ai Stable Diffusion XL 1.0
Richieste di inferenza del modello su richiesta al minuto per Stability.ai Stable Image Core Ogni regione supportata: 90 No Il numero massimo di chiamate InvokeModel in un minuto per Stability.ai Stable Image Core.
Richieste di inferenza del modello su richiesta al minuto per Stability.ai Stable Image Ultra Ogni regione supportata: 10 No Il numero massimo di chiamate InvokeModel in un minuto per Stability.ai Stable Image Ultra.
Token di inferenza del modello su richiesta al minuto per AI21 Labs Jamba 1.5 Large Ogni regione supportata: 300.000 No Il numero massimo di token che puoi inviare per l'inferenza del modello in un minuto per Labs Jamba 1.5 Large. AI21 La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e. InvokeModel
Token di inferenza del modello su richiesta al minuto per Labs Jamba 1.5 Mini AI21 Ogni regione supportata: 300.000 No Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Labs Jamba 1.5 Mini. AI21 La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e. InvokeModel
Token di inferenza del modello su richiesta al minuto per Labs Jamba Instruct AI21 Ogni regione supportata: 300.000 No Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Labs Jamba Instruct. AI21 La quota considera la somma combinata di token per Converse e InvokeModel
Token di inferenza del modello su richiesta al minuto per Labs Jurassic-2 Mid AI21 Ogni regione supportata: 300.000 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse InvokeModel e, InvokeModelWithResponseStream per AI21 Labs ConverseStream, Jurassic-2 Mid.
Token di inferenza del modello on-demand al minuto per Labs Jurassic-2 Ultra AI21 Ogni regione supportata: 300.000 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse InvokeModel e ConverseStream, InvokeModelWithResponseStream per AI21 Labs Jurassic-2 Ultra.
Token di inferenza del modello su richiesta al minuto per Amazon Nova Lite

us-east-1:2.000.000

Ogni altra regione supportata: 100.000

No Il numero massimo di token on-demand che puoi inviare per l'inferenza del modello in un minuto per Amazon Nova Lite. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello su richiesta al minuto per Amazon Nova Micro

us-east-1:2.000.000

Ogni altra regione supportata: 100.000

No Il numero massimo di token on-demand che puoi inviare per l'inferenza del modello in un minuto per Amazon Nova Micro. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello su richiesta al minuto per Amazon Nova Pro

us-east-1:400.000

us-east-2:400.000

Ogni altra regione supportata: 100.000

No Il numero massimo di token on-demand che puoi inviare per l'inferenza del modello in un minuto per Amazon Nova Pro. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello su richiesta al minuto per Amazon Titan Image Generator G1 Ogni regione supportata: 2.000 No Il numero massimo di token che puoi fornire InvokeModel in un minuto per Amazon Titan Image Generator G1.
Token di inferenza del modello su richiesta al minuto per Amazon Titan Image Generator G1 V2 Ogni regione supportata: 2.000 No Il numero massimo di token su richiesta che puoi inviare per l'inferenza del modello in un minuto per Amazon Titan Image Generator G1 V2. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello su richiesta al minuto per Amazon Titan Multimodal Embeddings G1 Ogni regione supportata: 300.000 No Il numero massimo di token che puoi fornire InvokeModel in un minuto per Amazon Titan Multimodal Embeddings G1.
Token di inferenza del modello su richiesta al minuto per Amazon Titan Text Embeddings Ogni regione supportata: 300.000 No Il numero massimo di token che puoi fornire InvokeModel in un minuto per Amazon Titan Text Embeddings.
Token di inferenza del modello su richiesta al minuto per Amazon Titan Text Embeddings V2 Ogni regione supportata: 300.000 No Il numero massimo di token che puoi fornire InvokeModel in un minuto per Amazon Titan Text Embeddings V2.
Token di inferenza del modello su richiesta al minuto per Amazon Titan Text Express Ogni regione supportata: 300.000 No Il numero massimo di token su richiesta che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse InvokeModel e per InvokeModelWithResponseStream Amazon Titan Text Express. ConverseStream
Token di inferenza del modello su richiesta al minuto per Amazon Titan Text Lite Ogni regione supportata: 300.000 No Il numero massimo di token su richiesta che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse InvokeModel e per InvokeModelWithResponseStream Amazon Titan Text Lite. ConverseStream
Token di inferenza del modello su richiesta al minuto per Amazon Titan Text Premier Ogni regione supportata: 300.000 No Il numero massimo di token su richiesta che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse InvokeModel e per InvokeModelWithResponseStream Amazon Titan Text Premier. ConverseStream
Token di inferenza del modello su richiesta al minuto per Anthropic Claude 3 Haiku

us-east-1:2.000.000

us-west-2:2.000.000

ap-northeast-1:200.000

ap-southeast-1:200.000

Ciascuna delle altre regioni supportate: 300.000

No Il numero massimo di token su richiesta che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e per Anthropic Claude 3 ConverseStream InvokeModel InvokeModelWithResponseStream Haiku.
Token di inferenza del modello su richiesta al minuto per Anthropic Claude 3 Opus Ogni regione supportata: 400.000 No Il numero massimo di token su richiesta che puoi inviare per l'inferenza del modello in un minuto per Anthropic Claude 3 Opus. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello su richiesta al minuto per Anthropic Claude 3 Sonnet

us-east-1:1.000.000

us-west-2:1.000.000

Ciascuna delle altre regioni supportate: 200.000

No Il numero massimo di token on-demand che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e per Anthropic Claude ConverseStream 3 InvokeModel InvokeModelWithResponseStream Sonnet.
Token di inferenza del modello su richiesta al minuto per Anthropic Claude 3.5 Haiku

us-west-1:300.000

Ciascuna delle altre regioni supportate: 2.000.000

No Il numero massimo di token on-demand che puoi inviare per l'inferenza del modello in un minuto per Anthropic Claude 3.5 Haiku. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello su richiesta al minuto per Anthropic Claude 3.5 Sonnet

us-east-1:400.000

us-east-2:400.000

us-west-2:2.000.000

ap-northeast-2:400.000

ap-south-1:400.000

ap-southeast-2:400.000

Ciascuna delle altre regioni supportate: 200.000

No Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Anthropic Claude 3.5 Sonnet. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello su richiesta al minuto per Anthropic Claude 3.5 Sonnet V2

us-west-2:2.000.000

Ciascuna delle altre regioni supportate: 400.000

No Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Anthropic Claude 3.5 Sonnet V2. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello su richiesta al minuto per Anthropic Claude Instant

us-east-1:1.000.000

us-west-2:1.000.000

Ciascuna delle altre regioni supportate: 300.000

No Il numero massimo di token su richiesta che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse InvokeModel e InvokeModelWithResponseStream per Anthropic Claude ConverseStream Instant.
Token di inferenza del modello su richiesta al minuto per Anthropic Claude V2

us-east-1: 500.000

us-west-2: 500.000

Ciascuna delle altre regioni supportate: 200.000

No Il numero massimo di token on-demand che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse InvokeModel e InvokeModelWithResponseStream per Anthropic Claude ConverseStream V2.
Token di inferenza del modello su richiesta al minuto per Cohere Command Ogni regione supportata: 300.000 No Il numero massimo di token su richiesta che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e per Cohere ConverseStream Command. InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello su richiesta al minuto per Cohere Command Light Ogni regione supportata: 300.000 No Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto. La quota considera la somma combinata di Converse ConverseStream, InvokeModel e InvokeModelWithResponseStream per Cohere Command Light.
Token di inferenza del modello su richiesta al minuto per Cohere Command R Ogni regione supportata: 300.000 No Il numero massimo di token su richiesta che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse InvokeModel e InvokeModelWithResponseStream per Cohere ConverseStream Command R 128k.
Token di inferenza del modello su richiesta al minuto per Cohere Command R Plus Ogni regione supportata: 300.000 No Il numero massimo di token su richiesta che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse InvokeModel e InvokeModelWithResponseStream per Cohere ConverseStream Command R Plus 128k.
Token di inferenza del modello su richiesta al minuto per Cohere Embed English Ogni regione supportata: 300.000 No Il numero massimo di token che puoi fornire in un minuto per Cohere Embed InvokeModel English.
Token di inferenza del modello su richiesta al minuto per Cohere Embed Multilingual Ogni regione supportata: 300.000 No Il numero massimo di token che puoi fornire in un minuto per Cohere Embed Multilingual InvokeModel .
Token di inferenza del modello su richiesta al minuto per Meta Llama 2 13B Ogni regione supportata: 300.000 No Il numero massimo di token su richiesta che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse InvokeModel e InvokeModelWithResponseStream per Meta Llama ConverseStream 2 13B.
Token di inferenza del modello su richiesta al minuto per Meta Llama 2 70B Ogni regione supportata: 300.000 No Il numero massimo di token su richiesta che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse InvokeModel e InvokeModelWithResponseStream per Meta Llama ConverseStream 2 70B.
Token di inferenza del modello su richiesta al minuto per Meta Llama 2 Chat 13B Ogni regione supportata: 300.000 No Il numero massimo di token su richiesta che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse InvokeModel e InvokeModelWithResponseStream per Meta Llama ConverseStream 2 Chat 13B.
Token di inferenza del modello su richiesta al minuto per Meta Llama 2 Chat 70B Ogni regione supportata: 300.000 No Il numero massimo di token su richiesta che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse InvokeModel e InvokeModelWithResponseStream per Meta Llama ConverseStream 2 Chat 70B.
Token di inferenza del modello su richiesta al minuto per Meta Llama 3 70B Instruct Ogni regione supportata: 300.000 No Il numero massimo di token su richiesta che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3 70B Instruct. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello su richiesta al minuto per Meta Llama 3 8B Instruct Ogni regione supportata: 300.000 No Il numero massimo di token su richiesta che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3 8B Instruct. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello su richiesta al minuto per Meta Llama 3.1 405B Instruct Ogni regione supportata: 400.000 No Il numero massimo di token su richiesta che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.1 405B Instruct. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello su richiesta al minuto per Meta Llama 3.1 70B Instruct Ogni regione supportata: 300.000 No Il numero massimo di token su richiesta che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.1 70B Instruct. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello su richiesta al minuto per Meta Llama 3.1 8B Instruct Ogni regione supportata: 300.000 No Il numero massimo di token su richiesta che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.1 8B Instruct. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello su richiesta al minuto per Meta Llama 3.2 11B Instruct Ogni regione supportata: 300.000 No Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.2 11B Instruct. La quota considera la somma combinata dei token per InvokeModel,, Converse e. InvokeModelWithResponseStream ConverseStream
Token di inferenza del modello su richiesta al minuto per Meta Llama 3.2 1B Instruct Ogni regione supportata: 300.000 No Il numero massimo di token su richiesta che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.2 1B Instruct. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello su richiesta al minuto per Meta Llama 3.2 3B Instruct Ogni regione supportata: 300.000 No Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.2 3B Instruct. La quota considera la somma combinata dei token per InvokeModel,, Converse e. InvokeModelWithResponseStream ConverseStream
Token di inferenza del modello su richiesta al minuto per Meta Llama 3.2 90B Instruct Ogni regione supportata: 300.000 No Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.2 90B Instruct. La quota considera la somma combinata dei token per InvokeModel,, Converse e. InvokeModelWithResponseStream ConverseStream
Token di inferenza del modello su richiesta al minuto per Meta Llama 3.3 70B Instruct Ogni regione supportata: 300.000 No Il numero massimo di token su richiesta che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.3 70B Instruct. La quota considera la somma combinata dei token di input e output di tutte le richieste a Converse e. ConverseStream InvokeModel InvokeModelWithResponseStream
Token di inferenza del modello su richiesta al minuto per Mistral AI Mistral 7B Instruct Ogni regione supportata: 300.000 No Il numero massimo di token su richiesta che è possibile inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse InvokeModel e per Mistral AI Mistral ConverseStream 7B InvokeModelWithResponseStream Instruct.
Token di inferenza del modello su richiesta al minuto per Mistral AI Mistral Mistral Large Ogni regione supportata: 300.000 No Il numero massimo di token su richiesta che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e per Mistral AI ConverseStream Mistral InvokeModel InvokeModelWithResponseStream Large.
Token di inferenza del modello su richiesta al minuto per Mistral AI Mistral Small Ogni regione supportata: 300.000 No Il numero massimo di token su richiesta che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e per Mistral AI ConverseStream Mistral InvokeModel InvokeModelWithResponseStream Small.
Token di inferenza del modello su richiesta al minuto per Mistral AI Mixtral 8X7BB Instruct Ogni regione supportata: 300.000 No Il numero massimo di token su richiesta che puoi inviare per l'inferenza del modello in un minuto. La quota considera la somma combinata dei token di input e output tra tutte le richieste a Converse e, per Mistral AI Mixtral ConverseStream InvokeModel 8X7B InvokeModelWithResponseStream Instruct.
Token di inferenza del modello su richiesta al minuto per Mistral Large 2407 Ogni regione supportata: 300.000 No Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Mistral Large 2407. La quota considera la somma combinata dei token per,, Converse e InvokeModel InvokeModelWithResponseStream ConverseStream
Parametri per funzione Ogni regione supportata: 5 Il numero massimo di parametri che è possibile avere in una funzione di gruppo di azioni.
PrepareAgent richieste al secondo Ogni regione supportata: 2 No Il numero massimo di richieste PrepareAgent API al secondo.
Record per batch (processo di inferenza) per Claude 3 Haiku Ogni regione supportata: 50.000 Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch per Claude 3 Haiku.
Record per processo di inferenza in batch per Claude 3 Opus Ogni regione supportata: 50.000 Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch per Claude 3 Opus.
Record per processo di inferenza in batch per Claude 3 Sonnet Ogni regione supportata: 50.000 Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch per Claude 3 Sonnet.
Record per processo di inferenza in batch per Claude 3.5 Haiku Ogni regione supportata: 50.000 Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch per Claude 3.5 Haiku.
Record per processo di inferenza in batch per Claude 3.5 Sonnet Ogni regione supportata: 50.000 Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch per Claude 3.5 Sonnet.
Record per processo di inferenza in batch per Claude 3.5 Sonnet v2 Ogni regione supportata: 50.000 Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch per Claude 3.5 Sonnet v2.
Record per processo di inferenza in batch per Llama 3.1 405B Instruct Ogni regione supportata: 50.000 Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch per Llama 3.1 405B Instruct.
Record per processo di inferenza in batch per Llama 3.1 70B Instruct Ogni regione supportata: 50.000 Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch per Llama 3.1 70B Instruct.
Record per processo di inferenza in batch per Llama 3.1 8B Instruct Ogni regione supportata: 50.000 Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch per Llama 3.1 8B Instruct.
Record per processo di inferenza in batch per Llama 3.2 11B Instruct Ogni regione supportata: 50.000 Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch per Llama 3.2 11B Instruct.
Record per processo di inferenza in batch per Llama 3.2 1B Instruct Ogni regione supportata: 50.000 Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch Llama 3.2 1B Instruct.
Record per processo di inferenza in batch per Llama 3.2 3B Instruct Ogni regione supportata: 50.000 Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch per Llama 3.2 3B Instruct.
Record per processo di inferenza in batch per Llama 3.2 90B Instruct Ogni regione supportata: 50.000 Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch per Llama 3.2 90B Instruct.
Record per processo di inferenza in batch per Llama 3.3 70B Instruct Ogni regione supportata: 50.000 Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch per Llama 3.3 70B Instruct.
Record per processo di inferenza in batch per Llama 4 Maverick Ogni regione supportata: 50.000 Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch per Llama 4 Maverick.
Record per processo di inferenza in batch per Llama 4 Scout Ogni regione supportata: 50.000 Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch per Llama 4 Scout.
Record per processo di inferenza in batch per Mistral Large 2 (24.07) Ogni regione supportata: 50.000 Il numero massimo di record in tutti i file di input in un lavoro di inferenza in batch per Mistral Large 2 (24.07).
Record per processo di inferenza in batch per Mistral Small Ogni regione supportata: 50.000 Il numero massimo di record in tutti i file di input in un processo di inferenza in batch per Mistral Small.
Record per processo di inferenza in batch per Nova Lite V1 Ogni regione supportata: 50.000 Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch per Nova Lite V1.
Record per processo di inferenza in batch per Nova Micro V1 Ogni regione supportata: 50.000 Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch per Nova Micro V1.
Record per processo di inferenza in batch per Nova Pro V1 Ogni regione supportata: 50.000 Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch per Nova Pro V1.
Record per processo di inferenza in batch per Titan Multimodal Embeddings G1 Ogni regione supportata: 50.000 Il numero massimo di record in tutti i file di input in un processo di inferenza in batch per Titan Multimodal Embeddings G1.
Record per processo di inferenza in batch per Titan Text Embeddings V2 Ogni regione supportata: 50.000 Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch per Titan Text Embeddings V2.
Record per file di input per processo di inferenza in batch per Claude 3 Haiku Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un lavoro di inferenza in batch per Claude 3 Haiku.
Record per file di input per processo di inferenza in batch per Claude 3 Opus Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un processo di inferenza in batch per Claude 3 Opus.
Record per file di input per processo di inferenza in batch per Claude 3 Sonnet Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un processo di inferenza in batch per Claude 3 Sonnet.
Record per file di input per processo di inferenza in batch per Claude 3.5 Haiku Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un lavoro di inferenza in batch per Claude 3.5 Haiku.
Record per file di input per processo di inferenza in batch per Claude 3.5 Sonnet Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un lavoro di inferenza in batch per Claude 3.5 Sonnet.
Record per file di input per processo di inferenza in batch per Claude 3.5 Sonnet v2 Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un lavoro di inferenza in batch per Claude 3.5 Sonnet v2.
Record per file di input per processo di inferenza in batch per Llama 3.1 405B Instruct Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un processo di inferenza in batch per Llama 3.1 405B Instruct.
Record per file di input per processo di inferenza in batch per Llama 3.1 70B Instruct Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un processo di inferenza in batch per Llama 3.1 70B Instruct.
Record per file di input per processo di inferenza in batch per Llama 3.1 8B Instruct Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un processo di inferenza in batch per Llama 3.1 8B Instruct.
Record per file di input per processo di inferenza in batch per Llama 3.2 11B Instruct Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un processo di inferenza in batch per Llama 3.2 11B Instruct.
Record per file di input per processo di inferenza in batch per Llama 3.2 1B Instruct Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un processo di inferenza in batch Llama 3.2 1B Instruct.
Record per file di input per processo di inferenza in batch per Llama 3.2 3B Instruct Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un processo di inferenza in batch per Llama 3.2 3B Instruct.
Record per file di input per processo di inferenza in batch per Llama 3.2 90B Instruct Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un processo di inferenza in batch per Llama 3.2 90B Instruct.
Record per file di input per processo di inferenza in batch per Llama 3.3 70B Instruct Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un processo di inferenza in batch per Llama 3.3 70B Instruct.
Record per file di input per processo di inferenza in batch per Llama 4 Maverick Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un processo di inferenza in batch per Llama 4 Maverick.
Record per file di input per processo di inferenza in batch per Llama 4 Scout Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un processo di inferenza in batch per Llama 4 Scout.
Record per file di input per processo di inferenza in batch per Mistral Large 2 (24.07) Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un lavoro di inferenza in batch per Mistral Large 2 (24.07).
Record per file di input per processo di inferenza batch per Mistral Small Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un processo di inferenza in batch per Mistral Small.
Record per file di input per processo di inferenza in batch per Nova Lite V1 Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un processo di inferenza batch per Nova Lite V1.
Record per file di input per processo di inferenza in batch per Nova Micro V1 Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un processo di inferenza in batch per Nova Micro V1.
Record per file di input per processo di inferenza in batch per Nova Pro V1 Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un processo di inferenza in batch per Nova Pro V1.
Record per file di input per processo di inferenza in batch per Titan Multimodal Embeddings G1 Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un processo di inferenza in batch per Titan Multimodal Embeddings G1.
Record per file di input per processo di inferenza in batch per Titan Text Embeddings V2 Ogni regione supportata: 50.000 Il numero massimo di record in un file di input in un processo di inferenza in batch per Titan Text Embeddings V2.
Somma dei lavori di inferenza in corso e inviati utilizzando un modello base per Claude 3 Haiku Ogni regione supportata: 20 Il numero massimo di lavori di inferenza in corso e inviati utilizzando un modello base per Claude 3 Haiku.
Somma dei lavori di inferenza in batch in corso e inviati utilizzando un modello base per Claude 3 Opus Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Claude 3 Opus.
Somma dei lavori di inferenza in batch in corso e inviati utilizzando un modello base per Claude 3 Sonnet Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Claude 3 Sonnet.
Somma dei lavori di inferenza in batch in corso e inviati utilizzando un modello base per Claude 3.5 Haiku Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Claude 3.5 Haiku.
Somma dei lavori di inferenza in batch in corso e inviati utilizzando un modello base per Claude 3.5 Sonnet Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Claude 3.5 Sonnet.
Somma dei lavori di inferenza in batch in corso e inviati utilizzando un modello base per Claude 3.5 Sonnet v2 Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Claude 3.5 Sonnet v2.
Somma dei lavori di inferenza batch in corso e inviati utilizzando un modello base per Llama 3.1 405B Instruct Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Llama 3.1 405B Instruct.
Somma dei lavori di inferenza batch in corso e inviati utilizzando un modello base per Llama 3.1 70B Instruct Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Llama 3.1 70B Instruct.
Somma dei lavori di inferenza batch in corso e inviati utilizzando un modello base per Llama 3.1 8B Instruct Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Llama 3.1 8B Instruct.
Somma dei lavori di inferenza batch in corso e inviati utilizzando un modello base per Llama 3.2 11B Instruct Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Llama 3.2 11B Instruct.
Somma dei lavori di inferenza batch in corso e inviati utilizzando un modello base per Llama 3.2 1B Instruct Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Llama 3.2 1B Instruct.
Somma dei lavori di inferenza batch in corso e inviati utilizzando un modello base per Llama 3.2 3B Instruct Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Llama 3.2 3B Instruct.
Somma dei lavori di inferenza batch in corso e inviati utilizzando un modello base per Llama 3.2 90B Instruct Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Llama 3.2 90B Instruct.
Somma dei lavori di inferenza batch in corso e inviati utilizzando un modello base per Llama 3.3 70B Instruct Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Llama 3.3 70B Instruct.
Somma dei lavori di inferenza in batch in corso e inviati utilizzando un modello base per Llama 4 Maverick Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Llama 4 Maverick.
Somma dei lavori di inferenza in batch in corso e inviati utilizzando un modello base per Llama 4 Scout Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Llama 4 Scout.
Somma dei lavori di inferenza in batch in corso e inviati utilizzando un modello base per Mistral Large 2 (24.07) Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Mistral Large 2 (24.07).
Somma dei lavori di inferenza batch in corso e inviati utilizzando un modello base per Mistral Small Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Mistral Small.
Somma dei lavori di inferenza batch in corso e inviati utilizzando un modello base per Nova Lite V1 Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Nova Lite V1.
Somma dei lavori di inferenza batch in corso e inviati utilizzando un modello base per Nova Micro V1 Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Nova Micro V1.
Somma dei lavori di inferenza batch in corso e inviati utilizzando un modello base per Nova Pro V1 Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Nova Pro V1.
Somma dei lavori di inferenza batch in corso e inviati utilizzando un modello base per Titan Multimodal Embeddings G1 Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Titan Multimodal Embeddings G1.
Somma dei lavori di inferenza batch in corso e inviati utilizzando un modello base per Titan Text Embeddings V2 Ogni regione supportata: 20 Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base per Titan Text Embeddings V2.
Somma dei lavori di inferenza batch in corso e inviati utilizzando un modello personalizzato per Titan Multimodal Embeddings G1 Ogni regione supportata: 3 No Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello personalizzato per Titan Multimodal Embeddings G1.
Somma dei lavori di inferenza batch in corso e inviati utilizzando un modello personalizzato per Titan Text Embeddings V2 Ogni regione supportata: 3 No Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello personalizzato per Titan Text Embeddings V2
Limite di velocità di accelerazione per Bedrock Data Automation Runtime: ListTagsForResource Ogni regione supportata: 25 al secondo No Il numero massimo di Bedrock Data Automation Runtime: ListTagsForResource richieste che puoi effettuare al secondo per account, nella regione corrente
Limite di velocità di accelerazione per Bedrock Data Automation Runtime: TagResource Ogni regione supportata: 25 al secondo No Il numero massimo di Bedrock Data Automation Runtime: TagResource richieste che puoi effettuare al secondo per account, nella regione corrente
Limite di velocità di accelerazione per Bedrock Data Automation Runtime: UntagResource Ogni regione supportata: 25 al secondo No Il numero massimo di Bedrock Data Automation Runtime: UntagResource richieste che puoi effettuare al secondo per account, nella regione corrente
Limite di velocità di accelerazione per Bedrock Data Automation: ListTagsForResource Ogni regione supportata: 25 al secondo No Il numero massimo di Bedrock Data Automation: ListTagsForResource richieste che puoi effettuare al secondo per account, nella regione corrente
Limite di velocità di accelerazione per Bedrock Data Automation: TagResource Ogni regione supportata: 25 al secondo No Il numero massimo di Bedrock Data Automation: TagResource richieste che puoi effettuare al secondo per account, nella regione corrente
Limite di velocità di accelerazione per Bedrock Data Automation: UntagResource Ogni regione supportata: 25 al secondo No Il numero massimo di Bedrock Data Automation: UntagResource richieste che puoi effettuare al secondo per account, nella regione corrente
Limite di velocità di accelerazione per CreateBlueprint Ogni regione supportata: 5 al secondo No Il numero massimo di CreateBlueprint richieste che puoi effettuare al secondo per account, nella regione corrente
Limite di velocità di accelerazione per CreateBlueprintVersion Ogni regione supportata: 5 al secondo No Il numero massimo di CreateBlueprintVersion richieste che puoi effettuare al secondo per account, nella regione corrente
Limite di velocità di accelerazione per CreateDataAutomationProject Ogni regione supportata: 5 al secondo No Il numero massimo di CreateDataAutomationProject richieste che puoi effettuare al secondo per account, nella regione corrente
Limite di velocità di accelerazione per DeleteBlueprint Ogni regione supportata: 5 al secondo No Il numero massimo di DeleteBlueprint richieste che puoi effettuare al secondo per account, nella regione corrente
Limite di velocità di accelerazione per DeleteDataAutomationProject Ogni regione supportata: 5 al secondo No Il numero massimo di DeleteDataAutomationProject richieste che puoi effettuare al secondo per account, nella regione corrente
Limite di velocità di accelerazione per GetBlueprint Ogni regione supportata: 5 al secondo No Il numero massimo di GetBlueprint richieste che puoi effettuare al secondo per account, nella regione corrente
Limite di velocità di accelerazione per GetDataAutomationProject Ogni regione supportata: 5 al secondo No Il numero massimo di GetDataAutomationProject richieste che puoi effettuare al secondo per account, nella regione corrente
Limite di velocità di accelerazione per GetDataAutomationStatus Ogni regione supportata: 10 al secondo No Il numero massimo di GetDataAutomationStatus richieste che puoi effettuare al secondo per account, nella regione corrente
Limite di velocità di accelerazione per InvokeDataAutomationAsync Ogni regione supportata: 10 al secondo No Il numero massimo di InvokeDataAutomationAsync richieste che puoi effettuare al secondo per account, nella regione corrente
Limite di velocità di accelerazione per ListBlueprints Ogni regione supportata: 5 al secondo No Il numero massimo di ListBlueprints richieste che puoi effettuare al secondo per account, nella regione corrente
Limite di velocità di accelerazione per ListDataAutomationProjects Ogni regione supportata: 5 al secondo No Il numero massimo di ListDataAutomationProjects richieste che puoi effettuare al secondo per account, nella regione corrente
Limite di velocità di accelerazione per UpdateBlueprint Ogni regione supportata: 5 al secondo No Il numero massimo di UpdateBlueprint richieste che puoi effettuare al secondo per account, nella regione corrente
Limite di velocità di accelerazione per UpdateDataAutomationProject Ogni regione supportata: 5 al secondo No Il numero massimo di UpdateDataAutomationProject richieste che puoi effettuare al secondo per account, nella regione corrente
UpdateAgent richieste al secondo Ogni regione supportata: 4 No Il numero massimo di richieste UpdateAgent API al secondo.
UpdateAgentActionGroup richieste al secondo Ogni regione supportata: 6 No Il numero massimo di richieste UpdateAgentActionGroup API al secondo.
UpdateAgentAlias richieste al secondo Ogni regione supportata: 2 No Il numero massimo di richieste UpdateAgentAlias API al secondo.
UpdateAgentKnowledgeBase richieste al secondo Ogni regione supportata: 4 No Il numero massimo di richieste UpdateAgentKnowledgeBase API al secondo.
Nota

Puoi richiedere un aumento della quota per il tuo account seguendo i passaggi seguenti:

  • Se una quota è contrassegnata come , puoi modificarla seguendo i passaggi riportati nella sezione Richiedere un aumento della quota nella Guida per l'utente di Service Quotas.

  • Se una quota è contrassegnata come No, puoi inviare una richiesta tramite il modulo di aumento del limite per prendere in considerazione l'aumento.

  • Per qualsiasi modello, è possibile richiedere contemporaneamente un aumento per le seguenti quote:

    • InvokeModel Token interregionali al minuto per ${model}

    • InvokeModel Richieste interregionali al minuto per ${model}

    • InvokeModel Token al minuto su richiesta per ${model}

    • Richieste su InvokeModel richiesta al minuto per ${model}

    Per richiedere un aumento per qualsiasi combinazione di queste quote, richiedi un aumento dei InvokeModel token interregionali al minuto per ${model} quota seguendo i passaggi riportati in Richiesta di aumento della quota nella Guida per l'utente delle quote di servizio. Dopo averlo fatto, il team di supporto ti contatterà e ti offrirà la possibilità di aumentare anche le altre tre quote. A causa dell'enorme domanda, verrà data priorità ai clienti che generano traffico che utilizza le quote assegnate esistenti. La tua richiesta potrebbe essere rifiutata se non soddisfi questa condizione.