Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
OpenAIModelle
OpenAIbietet die folgenden Modelle mit offenem Gewicht an:
-
gpt-oss-20b
— Ein kleineres Modell, das für geringere Latenz und lokale oder spezielle Anwendungsfälle optimiert ist. -
gpt-oss-120b
— Ein größeres Modell, das für die Produktion und allgemeine Anwendungsfälle oder Anwendungsfälle mit hohem logischem Denken optimiert ist.
In der folgenden Tabelle sind Informationen zu den Modellen zusammengefasst:
Informationen | gpt-oss-20b | gpt-oss-120b |
---|---|---|
Datum der Veröffentlichung | 5. August 2025 | 5. August 2025 |
Modell-ID | openai.gpt-oss-20b-1:0 | openai.gpt-oss-120b-1:0 |
Product iD (Produkt-ID) | N/A | N/A |
Eingabemodalitäten werden unterstützt | Text | Text |
Output-Modalitäten werden unterstützt | Text | Text |
Kontextfenster | 128.000 | 128.000 |
Die OpenAI Modelle unterstützen die folgenden Funktionen:
-
Modellaufruf mit den folgenden Operationen:
-
Leitet die Anwendung durch die Verwendung von Headern in den Modellaufrufvorgängen ab.
OpenAIHauptteil der Anfrage
Informationen zu den Parametern im Anfragetext und ihren Beschreibungen finden Sie in der OpenAI Dokumentation unter Chat-Abschluss erstellen
Verwenden Sie die Felder für den Anfragetext auf folgende Weise:
-
Fügen Sie InvokeModeldie Felder in den Text der Anfrage in den Text der Anfrage ein. OpenAI
-
Gehen Sie in einer Converse-Anfrage wie folgt vor:
-
Ordnen Sie das
messages
wie folgt zu:-
Fügen Sie für jede Nachricht, deren Rolle darin besteht
developer
, dascontent
A SystemContentBlockin dassystem
Array ein. -
Fügen Sie für jede Nachricht
assistant
, deren Rolleuser
oder ist, dascontent
zu a ContentBlockimcontent
Feld hinzu und geben Sie dasrole
imrole
Feld einer Nachricht immessages
Array an.
-
-
Ordnen Sie die Werte für die folgenden Felder den entsprechenden Feldern im
inferenceConfig
Objekt zu:OpenAI field Umgekehrtes Feld max_completion_tokens maxTokens stop Stop-Sequenzen temperature temperature top_p topP -
Schließt alle anderen Felder in das
additionalModelRequestFields
Objekt ein.
-
Überlegungen bei der Erstellung des Anfragetexts
-
Die OpenAI Modelle unterstützen nur Texteingabe und Textausgabe.
-
Der Wert im
model
Feld muss mit dem Wert in der Kopfzeile übereinstimmen. Sie können dieses Feld weglassen, damit es automatisch mit demselben Wert wie die Kopfzeile gefüllt wird. -
Der Wert im
stream
Feld muss mit der API-Operation übereinstimmen, die Sie verwenden. Sie können dieses Feld weglassen, damit es automatisch mit dem richtigen Wert gefüllt wird.-
Wenn Sie verwenden InvokeModel, muss der
stream
Wert sein.false
-
OpenAIAntworttext
Der Antworttext für OpenAI Modelle entspricht dem Objekt zum Abschluss des Chats, das von zurückgegeben wurdeOpenAI. Weitere Informationen zu den Antwortfeldern finden Sie in der OpenAI Dokumentation unter Das Chat-Abschlussobjekt
Anmerkung
Wenn Sie dies verwendenInvokeModel
, geht die Argumentation des Modells, umgeben von <reasoning>
Tags, dem Textinhalt der Antwort voraus.
Beispiel für die Verwendung von Modellen OpenAI
Dieser Abschnitt enthält einige Beispiele für die Verwendung der OpenAI Modelle.
Bevor Sie diese Beispiele ausprobieren, überprüfen Sie, ob Sie die Voraussetzungen erfüllt haben:
-
Authentifizierung — Sie können sich entweder mit Ihren AWS Anmeldeinformationen oder mit einem Amazon Bedrock API-Schlüssel authentifizieren.
Richten Sie Ihre AWS Anmeldeinformationen ein oder generieren Sie einen Amazon Bedrock API-Schlüssel, um Ihre Anfrage zu authentifizieren.
Weitere Informationen zum Einrichten Ihrer AWS Anmeldeinformationen finden Sie unter Programmatischer Zugriff mit AWS Sicherheitsanmeldedaten.
Weitere Informationen zu Amazon Bedrock API-Schlüsseln und deren Generierung finden Sie unterGenerieren Sie Amazon Bedrock API-Schlüssel, um sich einfach bei der Amazon Bedrock API zu authentifizieren.
Anmerkung
Wenn Sie die OpenAI Chat-Completions API verwenden, können Sie sich nur mit einem Amazon Bedrock API-Schlüssel authentifizieren.
-
Endpunkt — Finden Sie den Endpunkt, der der AWS Region entspricht, die in Amazon Bedrock Runtime-Endpunkten und -Kontingenten verwendet werden soll. Wenn Sie ein AWS SDK verwenden, müssen Sie bei der Einrichtung des Clients möglicherweise nur den Regionalcode und nicht den gesamten Endpunkt angeben. Sie müssen einen Endpunkt verwenden, der einer Region zugeordnet ist, die von dem im Beispiel verwendeten Modell unterstützt wird.
-
Modellzugriff — Fordern Sie den Zugriff auf ein OpenAI Modell an. Weitere Informationen finden Sie unter Zugriff auf Amazon Bedrock Foundation-Modelle hinzufügen oder entfernen.
-
(Wenn das Beispiel ein SDK verwendet) Installieren Sie das SDK — Richten Sie nach der Installation Standardanmeldedaten und eine AWS Standardregion ein. Wenn Sie keine Standardanmeldedaten oder eine Region einrichten, müssen Sie diese in den entsprechenden Codebeispielen explizit angeben. Weitere Informationen zu standardisierten Anbietern von Anmeldeinformationen finden Sie unter AWS SDKs Tools für standardisierte Anmeldeinformationsanbieter.
Anmerkung
Wenn Sie das OpenAI SDK verwenden, können Sie sich nur mit einem Amazon Bedrock-API-Schlüssel authentifizieren und müssen den Amazon Bedrock-Endpunkt explizit festlegen.
Erweitern Sie den Abschnitt für das Beispiel, das Sie sehen möchten:
Um Beispiele für die Verwendung der OpenAI Create Chat Completion API zu sehen, wählen Sie die Registerkarte für Ihre bevorzugte Methode und folgen Sie dann den Schritten:
Wählen Sie die Registerkarte für Ihre bevorzugte Methode und folgen Sie dann den Schritten:
Wenn du die vereinheitlichte Converse-API verwendest, musst du die Felder „Chat-Abschluss OpenAI erstellen“ dem entsprechenden Feld im Converse-Anfragetext zuordnen.
Vergleichen Sie beispielsweise den folgenden Text der Anfrage zum Abschluss eines Chats mit dem entsprechenden Anfragetext von Converse:
Wählen Sie die Registerkarte für Ihre bevorzugte Methode und folgen Sie dann den Schritten:
Wenden Sie beim Ausführen eines Modellaufrufs eine Leitplanke an, indem Sie die Guardrail-ID und die Version angeben und angeben, ob der Guardrail-Trace aktiviert werden soll oder nicht, im Header einer Modellaufrufanforderung.
Wählen Sie die Registerkarte für Ihre bevorzugte Methode und folgen Sie dann den Schritten:
Um Beispiele für die Verwendung von Leitplanken mit OpenAI Chat-Abschlüssen zu sehen, wählen Sie die Registerkarte für Ihre bevorzugte Methode und folgen Sie dann den Schritten:
Mit Batch-Inferenz können Sie Modellinferenzen asynchron mit mehreren Eingabeaufforderungen ausführen. Um Batch-Inferenz mit einem OpenAI Modell auszuführen, gehen Sie wie folgt vor:
-
Erstellen Sie eine JSONL-Datei und füllen Sie sie mit mindestens der Mindestanzahl von JSON-Objekten, die jeweils durch eine neue Zeile getrennt sind. Jedes
modelInput
Objekt muss dem Format der Anfrage zur Chat-Fertigstellung OpenAIentsprechen. Im Folgenden finden Sie ein Beispiel für die ersten beiden Zeilen einer JSONL-Datei, die Anfragetexte für enthält. OpenAI { "recordId": "RECORD1", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "Can you generate a question with a factual answer?" } ], "max_completion_tokens": 1000 } } { "recordId": "RECORD2", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "What is the weather like today?" } ], "max_completion_tokens": 1000 } } ...
Anmerkung
Das
model
Feld ist optional, da der Batch Inference Service es für Sie auf der Grundlage der Kopfzeile einfügt, wenn Sie es weglassen.Vergewissern Sie sich, dass Ihre JSONL-Datei den Batch-Inferenzquoten entspricht, wie unter beschrieben. Formatieren Sie Ihre Batch-Inferenzdaten und laden Sie sie hoch
-
Laden Sie die Datei in einen Amazon S3 S3-Bucket hoch.
-
Senden Sie eine CreateModelInvocationJobAnfrage mit einem Endpunkt der Amazon Bedrock-Steuerebene mit dem im
inputDataConfig
Feld angegebenen S3-Bucket aus dem vorherigen Schritt und dem immodelId
Feld angegebenen OpenAI Modell.
Ein end-to-end Codebeispiel finden Sie unterCodebeispiel für Batch-Inferenz. Ersetzen Sie es durch die richtigen Konfigurationen für die OpenAI Modelle.