Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Modelli OpenAI
OpenAI offre i seguenti modelli a pesi aperti:
-
gpt-oss-20b
: modello più piccolo ottimizzato per una latenza inferiore e casi d’uso locali o specializzati. -
gpt-oss-120b
: modello più grande ottimizzato per la produzione e per casi d’uso generici o che richiedono elevate capacità di ragionamento.
La tabella seguente riepiloga le informazioni sui modelli:
| Informazioni | gpt-oss-20b | gpt-oss-120b |
|---|---|---|
| Data di rilascio | 5 agosto 2025 | 5 agosto 2025 |
| ID modello | openai.gpt-oss-20b-1:0 | openai.gpt-oss-120b-1:0 |
| ID prodotto | N/D | N/D |
| Modalità di input supportate | Testo | Testo |
| Modalità di input supportate | Testo | Testo |
| Finestra contestuale | 128.000 | 128.000 |
I modelli OpenAI supportano le seguenti funzionalità:
-
Invocazione del modello con le seguenti operazioni:
-
Applicazione Guardrail tramite l’uso di intestazioni nelle operazioni di invocazione del modello.
Argomenti
Corpo della richiesta di OpenAI
Per informazioni sui parametri nel corpo della richiesta e sulle relative descrizioni, consultare Create chat completion
Utilizzare i campi del corpo della richiesta nei seguenti modi:
-
In una richiesta InvokeModelo OpenAI Chat Completions, includi i campi nel corpo della richiesta.
-
In una richiesta Converse, procedere come segue:
-
Mappare i
messagesnel modo seguente:-
Per ogni messaggio il cui ruolo è
developer, aggiungi lacontenta SystemContentBlocknell'systemarray. -
Per ogni messaggio il cui ruolo è
useroassistant, aggiungicontenta a ContentBlocknelcontentcampo e specifica ilrolenelrolecampo di un messaggio nell'messagesarray.
-
-
Associare i valori dei seguenti ai campi corrispondenti nell’oggetto
inferenceConfig:Campo OpenAI Campo Converse max_completion_tokens maxTokens stop stopSequence temperature temperature top_p topP -
Includere qualsiasi altro campo nell’oggetto
additionalModelRequestFields.
-
Considerazioni durante la creazione del corpo della richiesta
-
I modelli OpenAI supportano solo input e output di testo.
-
Il valore nel campo
modeldeve corrispondere a quello nell’intestazione. È possibile omettere questo campo per consentire che venga compilato automaticamente con lo stesso valore dell’intestazione. -
Il valore nel campo
streamdeve corrispondere all’operazione dell’API utilizzata. È possibile omettere questo campo per consentire che venga compilato automaticamente con il valore corretto.-
Se si utilizza InvokeModel, il
streamvalore deve esserefalse.
-
Corpo della risposta di OpenAI
Il corpo della risposta per i modelli OpenAI è conforme all’oggetto di completamento della chat restituito da OpenAI. Per ulteriori informazioni sui campi di risposta, consultare The chat completion object
Nota
Se si utilizza InvokeModel, il ragionamento del modello, circondato da tag <reasoning>, precede il contenuto di testo della risposta.
Esempio di utilizzo di modelli OpenAI
Questa sezione fornisce alcuni esempi di come utilizzare i modelli OpenAI.
Prima di provare questi esempi, verificare di aver soddisfatto i prerequisiti:
-
Autenticazione: puoi autenticarti con AWS le tue credenziali o con una chiave API Amazon Bedrock.
Configura AWS le tue credenziali o genera una chiave API Amazon Bedrock per autenticare la tua richiesta.
Per ulteriori informazioni sulla configurazione delle AWS credenziali, consulta Accesso programmatico con credenziali di sicurezza. AWS
Per informazioni sulle chiavi API di Amazon Bedrock e su come generarle, consulta la sezione Chiavi API nel capitolo Build.
Nota
Se si utilizza l’API Chat Completions di OpenAI, è possibile autenticarsi solo con una chiave API Amazon Bedrock.
-
Endpoint: trova l'endpoint che corrisponde alla AWS regione da utilizzare negli endpoint e nelle quote di Amazon Bedrock Runtime. Se utilizzi un AWS SDK, potresti dover specificare solo il codice regionale e non l'intero endpoint quando configuri il client. È necessario utilizzare un endpoint associato a una Regione supportata dal modello utilizzato nell’esempio.
-
Accesso al modello: consente di richiedere l’accesso a un modello OpenAI. Per ulteriori informazioni, consulta Gestisci l'accesso ai modelli tramite SDK e CLI.
-
(Se l'esempio utilizza un SDK) Installa l'SDK: dopo l'installazione, configura le credenziali predefinite e una regione predefinite. AWS Se non vengono configurate le credenziali predefinite o una Regione, è necessario specificarle esplicitamente negli esempi di codice pertinenti. Per ulteriori informazioni sui provider di credenziali standardizzati, consulta AWS SDKs and Tools (provider di credenziali standardizzati).
Nota
Se si utilizza l’SDK OpenAI, è possibile autenticarsi solo con una chiave API Amazon Bedrock ed è necessario impostare esplicitamente l’endpoint Amazon Bedrock.
Espandere la sezione relativa all’esempio desiderato:
Per esempi di utilizzo dell’API Create chat completion di OpenAI, scegliere la scheda corrispondente al metodo preferito, poi seguire la procedura:
Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:
Quando si utilizza l’API Converse unificata, è necessario associare i campi di Create chat completion di OpenAI al campo corrispondente nel corpo della richiesta di Converse.
Ad esempio, confrontare il seguente corpo della richiesta di completamento della chat con il corpo della richiesta di Converse corrispondente:
Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:
Per applicare un guardrail durante l’invocazione del modello, specificare l’ID del guardrail, la versione e se abilitare o meno la traccia del guardrail nell’intestazione di una richiesta di invocazione del modello.
Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:
Per esempi di utilizzo dei guardrail con Chat Completions OpenAI, scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:
L’inferenza in batch consente di eseguire l’inferenza del modello con più prompt. Per eseguire l’inferenza in batch con un modello OpenAI, procedere come segue:
-
Creare un file JSONL e popolarlo con almeno il numero minimo di oggetti JSON, ciascuno separato da una nuova riga. Ogni oggetto
modelInputdeve essere conforme al formato del corpo della richiesta Create chat completion di OpenAI. Di seguito viene mostrato un esempio delle prime due righe di un file JSONL contenente i corpi della richiesta per OpenAI. { "recordId": "RECORD1", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "Can you generate a question with a factual answer?" } ], "max_completion_tokens": 1000 } } { "recordId": "RECORD2", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "What is the weather like today?" } ], "max_completion_tokens": 1000 } } ...Nota
Il campo
modelè facoltativo perché il servizio di inferenza in batch lo inserirà automaticamente in base all’intestazione, se omesso.Verificare il tuo file JSONL sia conforme alle quote di inferenza in batch come indicato in Formattazione e caricamento dei propri dati di inferenza in batch.
-
Caricare il file immagine in un bucket Amazon S3.
-
Invia una CreateModelInvocationJobrichiesta con un endpoint del piano di controllo Amazon Bedrock con il bucket S3 del passaggio precedente specificato nel
inputDataConfigcampo e il OpenAI modello specificato nel campo.modelId
Per un esempio di end-to-end codice, consulta. Esempio di codice per inferenza in batch Sostituire con le configurazioni appropriate per i modelli OpenAI.