Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Richiesta e risposta
Il corpo della richiesta viene passato nel body campo di una richiesta a InvokeModelo InvokeModelWithResponseStream. La dimensione massima del payload che puoi inviare in una richiesta è di 20 MB.
Per ulteriori informazioni, consulta https://docs.anthropic.com/claude/ reference/messages_post.
avvertimento
Claude Sonnet 4.5e supportano Claude Haiku 4.5 solo la specificazione di uno dei nostri parametri, ma non possono gestirli temperature entrambitop_p. Questo non si applica ai modelli precedenti.
- Request
-
AnthropicClaudeha i seguenti parametri di inferenza per una chiamata di inferenza dei messaggi.
{ "anthropic_version": "bedrock-2023-05-31", "anthropic_beta": ["computer-use-2024-10-22"] "max_tokens": int, "system": string, "messages": [ { "role": string, "content": [ { "type": "image", "source": { "type": "base64", "media_type": "image/jpeg", "data": "content image bytes" } }, { "type": "text", "text": "content text" } ] } ], "temperature": float, "top_p": float, "top_k": int, "tools": [ { "type": "custom", "name": string, "description": string, "input_schema": json }, { "type": "computer_20241022", "name": "computer", "display_height_px": int, "display_width_px": int, "display_number": 0 int }, { "type": "bash_20241022", "name": "bash" }, { "type": "text_editor_20241022", "name": "str_replace_editor" } ], "tool_choice": { "type" : string, "name" : string, }, "stop_sequences": [string] }I seguenti sono parametri obbligatori.
-
anthropic_version — (Obbligatorio) La versione antropica. Il valore deve essere.
bedrock-2023-05-31 -
max_tokens — (Obbligatorio) Il numero massimo di token da generare prima dell'interruzione.
Nota che Anthropic Claude i modelli potrebbero interrompere la generazione di token prima di raggiungere il valore di.
max_tokensAnthropicClaudeModelli diversi hanno valori massimi diversi per questo parametro. Per ulteriori informazioni, consultate Confronto tra modelli. -
messaggi — (Obbligatorio) I messaggi di input.
-
role — Il ruolo del turno di conversazione. I valori validi sono
usereassistant.Minimo Massimo 0
2000
-
content — (obbligatorio) Il contenuto della conversazione si trasforma in una serie di oggetti. Ogni oggetto contiene un campo di tipo, in cui è possibile specificare uno dei seguenti valori:
-
text— Se si specifica questo tipo, è necessario includere un campo di testo e specificare il prompt di testo come valore. Se un altro oggetto dell'array è un'immagine, questo prompt di testo si applica alle immagini. -
image— Se si specifica questo tipo, è necessario includere un campo sorgente mappato a un oggetto con i seguenti campi:-
type — (obbligatorio) Il tipo di codifica dell'immagine. È possibile specificare
base64. -
media_type — (obbligatorio) Il tipo di immagine. È possibile specificare i seguenti formati di immagine.
-
image/jpeg -
image/png -
image/webp -
image/gif
-
-
data — (obbligatorio) I byte dell'immagine codificati in base64. La dimensione massima dell'immagine è 3,75 MB. L'altezza e la larghezza massime di un'immagine sono 8000 pixel.
-
-
-
I seguenti sono parametri opzionali.
-
system — (Facoltativo) Il prompt di sistema per la richiesta.
Un prompt di sistema è un modo per fornire contesto e istruzioni AnthropicClaude, ad esempio per specificare un obiettivo o un ruolo particolare. Per ulteriori informazioni, consulta le istruzioni di sistema nella documentazione.
Anthropic Nota
È possibile utilizzare i prompt di sistema con la Anthropic Claude versione 2.1 o successiva.
-
anthropic_beta — (Facoltativo) Il parametro anthropic beta è un elenco di stringhe di intestazioni beta utilizzate per indicare l'adesione a un particolare set di funzionalità beta.
Nota
La variante con lunghezza contestuale di 1 milione di token Claude Sonnet 4 è disponibile in alcune AWS regioni come «Servizio beta», come definito nei Termini di servizio. AWS È soggetto al Contratto AWS e ai Termini di AWS servizio dell'utente e al modello di EULA applicabile. Consulta la pagina dei prezzi di Amazon Bedrock
per ulteriori informazioni sui prezzi per le richieste contestuali più lunghe. Si applicano quote di servizio separate (per ulteriori informazioni, vedere Service Quotas in Console di gestione AWS). Le intestazioni beta disponibili includono quanto segue:
Funzionalità beta
Intestazione beta
Note
Uso del computer
computer-use-2025-01-24Compatibile con Claude 3.7 Sonnet
Uso dell'utensile
token-efficient-tools-2025-02-19Compatibile con Claude 3.7 Sonnet e Claude 4+.
Pensiero intercalato
Interleaved-thinking-2025-05-14Compatibile con più di Claude 4 modelli.
Abilita token di output fino a 128K
output-128k-2025-02-19Compatibile con. Claude 3.7 Sonnet
Modalità sviluppatore per un pensiero grezzo su più di Claude 4 modelli
dev-full-thinking-2025-05-14Compatibile solo con modelli Claude 4+. Contatta il team del tuo account per accedere a questa versione beta.
1 milione di token
context-1m-2025-08-07Compatibile con Claude Sonnet 4
Gestione del contesto
context-management-2025-06-27Compatibile con Claude Sonnet 4.5 e Claude Haiku 4.5
-
stop_sequences — (Facoltativo) Sequenze di testo personalizzate che causano l'interruzione della generazione del modello. AnthropicClaudei modelli normalmente si fermano quando hanno naturalmente completato il loro turno, in questo caso il valore del campo di risposta è
stop_reason.end_turnSe volete che il modello smetta di generare quando incontra stringhe di testo personalizzate, potete usare il parametro.stop_sequencesSe il modello incontra una delle stringhe di testo personalizzate, il valore del campo distop_reasonrisposta èstop_sequencee il valore di contiene la sequenza distop_sequenceinterruzioni corrispondente.Il numero massimo di voci è 8191.
-
temperatura — (Facoltativo) La quantità di casualità iniettata nella risposta.
Default Minimo Massimo 1
0
1
-
top_p — (Facoltativo) Usa il campionamento del nucleo.
Nel campionamento del nucleo, Anthropic Claude calcola la distribuzione cumulativa su tutte le opzioni per ogni token successivo in ordine di probabilità decrescente e la interrompe una volta raggiunta una particolare probabilità specificata da.
top_pQuando regolate i parametri di campionamento, modificate uno o.temperaturetop_pNon modificateli entrambi contemporaneamente.Default Minimo Massimo 0,999
0
1
-
top_k — (Facoltativo) Campiona solo le prime K opzioni per ogni token successivo.
Utilizza
top_kper rimuovere le risposte a bassa probabilità a coda lunga.Default Minimo Massimo Disabilitato per impostazione predefinita
0
500
-
strumenti — (Facoltativo) Definizioni degli strumenti che il modello può utilizzare.
Nota
Richiede un modello Anthropic Claude tridimensionale.
Se lo includi
toolsnella richiesta, il modello può restituire blocchi ditool_usecontenuto che rappresentano l'utilizzo di tali strumenti da parte del modello. È quindi possibile eseguire tali strumenti utilizzando l'input dello strumento generato dal modello e quindi, facoltativamente, restituire i risultati al modello utilizzando blocchi ditool_resultcontenuto.È possibile passare i seguenti tipi di strumenti:
Personalizza
Definizione di uno strumento personalizzato.
-
(opzionale) type: il tipo di utensile. Se definito, utilizzate il valore
custom. -
name — Il nome dello strumento.
-
descrizione — (facoltativa, ma fortemente consigliata) La descrizione dello strumento.
-
input_schema — Lo schema JSON per lo strumento.
Computer
Definizione dello strumento informatico utilizzato con l'API Computer Use.
-
tipo: il valore deve essere
computer_20241022. -
name — Il valore deve essere
computer. -
(Obbligatorio) display_height_px — L'altezza dello schermo controllata dal modello, in pixel.
Default Minimo Massimo Nessuno
1
Nessun valore massimo
-
(Obbligatorio) display_width_px — La larghezza dello schermo controllata dal modello, in pixel.
Default Minimo Massimo Nessuno
1
Nessun valore massimo
-
(Facoltativo) display_number — Il numero di display da controllare (rilevante solo per gli ambienti X11). Se specificato, allo strumento verrà fornito un numero visualizzato nella definizione dello strumento.
Default Minimo Massimo Nessuno
0
N
bash
Definizione dello strumento bash utilizzato con l'API Computer Use.
-
(opzionale) type: il valore deve essere
bash_20241022. -
nome — Il valore deve essere
bash. lo strumento.
editor di testo
Definizione dello strumento di editor di testo che utilizzi con l'API Computer Use.
-
(opzionale) type: il valore deve essere
text_editor_20241022. -
nome — Il valore deve essere
str_replace_editor. lo strumento.
-
-
tool_choice — (Facoltativo) Specifica come il modello deve utilizzare gli strumenti forniti. Il modello può utilizzare uno strumento specifico, qualsiasi strumento disponibile o decidere autonomamente.
Nota
Richiede un modello Anthropic Claude 3D.
-
tipo: il tipo di utensile scelto. I valori possibili sono
any(utilizzare qualsiasi strumento disponibile),auto(il modello decide) etool(utilizzare lo strumento specificato).
-
name — (Facoltativo) Il nome dello strumento da utilizzare. Obbligatorio se lo
toolsi specifica neltypecampo.
-
-
- Response
-
Il Anthropic Claude modello restituisce i seguenti campi per una chiamata di inferenza dei messaggi.
{ "id": string, "model": string, "type" : "message", "role" : "assistant", "content": [ { "type": string, "text": string, "image" :json, "id": string, "name":string, "input": json } ], "stop_reason": string, "stop_sequence": string, "usage": { "input_tokens": integer, "output_tokens": integer } }Risposte di esempio con nuovi valori stop_reason:
// Example with refusal { "stop_reason": "refusal", "content": [ { "type": "text", "text": "I can't help with that request." } ] } // Example with tool_use { "stop_reason": "tool_use", "content": [ { "type": "tool_use", "id": "toolu_123", "name": "calculator", "input": {"expression": "2+2"} } ] } // Example with model_context_window_exceeded (Claude Sonnet 4.5) { "stop_reason": "model_context_window_exceeded", "content": [ { "type": "text", "text": "The response was truncated due to context window limits..." } ] }-
id — L'identificatore univoco per la risposta. Il formato e la lunghezza dell'ID potrebbero cambiare nel tempo.
-
model: l'ID del Anthropic Claude modello che ha effettuato la richiesta.
-
stop_reason — Il motivo per cui Anthropic Claude ha smesso di generare la risposta.
-
end_turn — Il modello ha raggiunto un punto di arresto naturale
-
max_tokens — Il testo generato ha superato il valore del campo di
max_tokensinput o ha superato il numero massimo di token supportati dal modello. '. -
stop_sequence — Il modello ha generato una delle sequenze di stop specificate nel campo di input.
stop_sequences -
rifiuto — Claude si rifiuta di generare una risposta per motivi di sicurezza
-
tool_use — Claude sta chiamando uno strumento e si aspetta che tu lo esegua
-
model_context_window_exceeded — la generazione del modello ha interrotto la generazione a causa del raggiungimento del limite della finestra di contesto.
-
Nuovo con Claude Sonnet 4.5
-
-
-
stop_sequence — La sequenza di stop che ha posto fine alla generazione.
-
type — Il tipo di risposta. Il valore è sempre
message. -
role — Il ruolo conversazionale del messaggio generato. Il valore è sempre
assistant. -
content: il contenuto generato dal modello. Restituito come matrice. Esistono tre tipi di contenuto, text, tool_use e image.
-
text — Una risposta testuale.
-
type — Il tipo di contenuto. Il valore è
text. -
testo: se il valore di
typeè testo, contiene il testo del contenuto.
-
-
uso dello strumento — Una richiesta da parte del modello di utilizzare uno strumento.
-
type — Il tipo di contenuto. Il valore è
tool_use. -
id — L'ID dello strumento di cui il modello richiede l'utilizzo.
-
name — Contiene il nome dello strumento richiesto.
-
input — I parametri di input da passare allo strumento.
-
-
Immagine: una richiesta del modello per l'utilizzo di uno strumento.
-
tipo — Il tipo di contenuto. Il valore è
image. -
source: contiene l'immagine. Per ulteriori informazioni, consulta Istruzioni multimodali.
-
-
-
usage — Contenitore per il numero di token forniti nella richiesta e il numero di token generati dal modello nella risposta.
-
input_tokens — Il numero di token di input nella richiesta.
-
output_tokens — Il numero di token generati dal modello nella risposta.
-
stop_sequence — Il modello ha generato una delle sequenze di stop specificate nel campo di input.
stop_sequences
-
-