Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Modelli OpenAI
OpenAI offre i seguenti modelli a pesi aperti:
-
gpt-oss-20b
: modello più piccolo ottimizzato per una latenza inferiore e casi d’uso locali o specializzati. -
gpt-oss-120b
: modello più grande ottimizzato per la produzione e per casi d’uso generici o che richiedono elevate capacità di ragionamento.
La tabella seguente riepiloga le informazioni sui modelli:
| Informazioni | gpt-oss-20b | gpt-oss-120b |
|---|---|---|
| Data di rilascio | 5 agosto 2025 | 5 agosto 2025 |
| ID modello | openai.gpt-oss-20b-1:0 | openai.gpt-oss-120b-1:0 |
| ID prodotto | N/D | N/D |
| Modalità di input supportate | Testo | Testo |
| Modalità di input supportate | Testo | Testo |
| Finestra contestuale | 128.000 | 128.000 |
I modelli OpenAI supportano le seguenti funzionalità:
-
Invocazione del modello con le seguenti operazioni:
-
Applicazione Guardrail tramite l’uso di intestazioni nelle operazioni di invocazione del modello.
Argomenti
Corpo della richiesta di OpenAI
Per informazioni sui parametri nel corpo della richiesta e sulle relative descrizioni, consultare Create chat completion
Utilizzare i campi del corpo della richiesta nei seguenti modi:
-
In una richiesta InvokeModel o Chat Completions di OpenAI, includere i campi nel corpo della richiesta.
-
In una richiesta Converse, procedere come segue:
-
Mappare i
messagesnel modo seguente:-
Per ogni messaggio il cui ruolo è
developer, aggiungere ilcontenta un SystemContentBlock nell’arraysystem. -
Per ogni messaggio il cui ruolo è
useroassistant, aggiungere ilcontenta un ContentBlock nel campocontente specificare ilrolenel camporoledi un Message nell’arraymessages.
-
-
Associare i valori dei seguenti ai campi corrispondenti nell’oggetto
inferenceConfig:Campo OpenAI Campo Converse max_completion_tokens maxTokens stop stopSequence temperature temperature top_p topP -
Includere qualsiasi altro campo nell’oggetto
additionalModelRequestFields.
-
Considerazioni durante la creazione del corpo della richiesta
-
I modelli OpenAI supportano solo input e output di testo.
-
Il valore nel campo
modeldeve corrispondere a quello nell’intestazione. È possibile omettere questo campo per consentire che venga compilato automaticamente con lo stesso valore dell’intestazione. -
Il valore nel campo
streamdeve corrispondere all’operazione dell’API utilizzata. È possibile omettere questo campo per consentire che venga compilato automaticamente con il valore corretto.-
Se si utilizza InvokeModel, il valore di
streamdeve esserefalse.
-
Corpo della risposta di OpenAI
Il corpo della risposta per i modelli OpenAI è conforme all’oggetto di completamento della chat restituito da OpenAI. Per ulteriori informazioni sui campi di risposta, consultare The chat completion object
Nota
Se si utilizza InvokeModel, il ragionamento del modello, circondato da tag <reasoning>, precede il contenuto di testo della risposta.
Esempio di utilizzo di modelli OpenAI
Questa sezione fornisce alcuni esempi di come utilizzare i modelli OpenAI.
Prima di provare questi esempi, verificare di aver soddisfatto i prerequisiti:
-
Autenticazione: è possibile autenticarsi con le proprie credenziali AWS o con una chiave API Amazon Bedrock.
Configurare le credenziali AWS o generare una chiave API Amazon Bedrock per autenticare la richiesta.
Per ulteriori informazioni sulla configurazione delle credenziali AWS, consultare Accesso programmatico con credenziali di sicurezzaAWS.
Per ulteriori informazioni sulle chiavi API Amazon Bedrock e su come generarle, consultare Generare chiavi API Amazon Bedrock per autenticarsi facilmente nell’API Amazon Bedrock.
Nota
Se si utilizza l’API Chat Completions di OpenAI, è possibile autenticarsi solo con una chiave API Amazon Bedrock.
-
Endpoint: consente di trovare l’endpoint corrispondente alla Regione AWS da utilizzare negli endpoint e nelle quote di runtime di Amazon Bedrock. Se utilizzi un SDK AWS, potrebbe essere sufficiente specificare solo il codice della Regione e non tutto l’endpoint durante la configurazione del client. È necessario utilizzare un endpoint associato a una Regione supportata dal modello utilizzato nell’esempio.
-
Accesso al modello: consente di richiedere l’accesso a un modello OpenAI. Per ulteriori informazioni, consulta Accedi ai modelli Amazon Bedrock AWS GovCloud Foundation negli Stati Uniti.
-
(Se l’esempio utilizza un SDK) Installa l’SDK: dopo l’installazione, impostare le credenziali predefinite e una Regione AWS predefinita. Se non vengono configurate le credenziali predefinite o una Regione, è necessario specificarle esplicitamente negli esempi di codice pertinenti. Per ulteriori informazioni sui provider di credenziali, consultare Provider di credenziali standardizzati di SDK e strumenti AWS.
Nota
Se si utilizza l’SDK OpenAI, è possibile autenticarsi solo con una chiave API Amazon Bedrock ed è necessario impostare esplicitamente l’endpoint Amazon Bedrock.
Espandere la sezione relativa all’esempio desiderato:
Per esempi di utilizzo dell’API Create chat completion di OpenAI, scegliere la scheda corrispondente al metodo preferito, poi seguire la procedura:
Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:
Quando si utilizza l’API Converse unificata, è necessario associare i campi di Create chat completion di OpenAI al campo corrispondente nel corpo della richiesta di Converse.
Ad esempio, confrontare il seguente corpo della richiesta di completamento della chat con il corpo della richiesta di Converse corrispondente:
Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:
Per applicare un guardrail durante l’invocazione del modello, specificare l’ID del guardrail, la versione e se abilitare o meno la traccia del guardrail nell’intestazione di una richiesta di invocazione del modello.
Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:
Per esempi di utilizzo dei guardrail con Chat Completions OpenAI, scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:
L’inferenza in batch consente di eseguire l’inferenza del modello con più prompt. Per eseguire l’inferenza in batch con un modello OpenAI, procedere come segue:
-
Creare un file JSONL e popolarlo con almeno il numero minimo di oggetti JSON, ciascuno separato da una nuova riga. Ogni oggetto
modelInputdeve essere conforme al formato del corpo della richiesta Create chat completion di OpenAI. Di seguito viene mostrato un esempio delle prime due righe di un file JSONL contenente i corpi della richiesta per OpenAI. { "recordId": "RECORD1", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "Can you generate a question with a factual answer?" } ], "max_completion_tokens": 1000 } } { "recordId": "RECORD2", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "What is the weather like today?" } ], "max_completion_tokens": 1000 } } ...Nota
Il campo
modelè facoltativo perché il servizio di inferenza in batch lo inserirà automaticamente in base all’intestazione, se omesso.Verificare il tuo file JSONL sia conforme alle quote di inferenza in batch come indicato in Formattazione e caricamento dei propri dati di inferenza in batch.
-
Caricare il file immagine in un bucket Amazon S3.
-
Inviare una richiesta CreateModelInvocationJob con un endpoint del piano di controllo (control-plane) Amazon Bedrock con il bucket S3 della fase precedente specificato nel campo
inputDataConfige il modello OpenAI specificato nel campomodelId.
Per un esempio di codice completo, consultare Esempio di codice per inferenza in batch. Sostituire con le configurazioni appropriate per i modelli OpenAI.