Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Modelle von OpenAI
OpenAI bietet die folgenden Open-Weight-Modelle an:
-
gpt-oss-20b
– Ein kleineres Modell, das für geringere Latenz und lokale oder spezielle Anwendungsfälle optimiert ist -
gpt-oss-120b
– Ein größeres Modell, das für die Produktion und allgemeine Anwendungsfälle oder Anwendungsfälle mit anspruchsvollem Reasoning optimiert ist
In der folgenden Tabelle werden Informationen zu den Modellen zusammengefasst:
| Informationen | gpt-oss-20b | gpt-oss-120b |
|---|---|---|
| Datum der Veröffentlichung | 5. August 2025 | 5. August 2025 |
| Modell-ID | openai.gpt-oss-20b-1:0 | openai.gpt-oss-120b-1:0 |
| Product iD (Produkt-ID) | N/A | N/A |
| Unterstützte Eingabemodalitäten | Text | Text |
| Unterstützte Ausgabemodalitäten | Text | Text |
| Kontextfenster | 128 000 | 128 000 |
Die OpenAI-Modelle unterstützen folgende Features:
-
Modellaufruf mit den folgenden Operationen:
-
Integritätsschutz-Anwendung durch die Verwendung von Headern in den Modellaufrufoperationen
OpenAI-Anfragestext
Informationen zu den Parametern im Anforderungstext und ihren Beschreibungen finden Sie unter Erstellen der Chat-Vervollständigung
Verwenden Sie die Anforderungstextfelder wie folgt:
-
Fügen Sie in einer InvokeModel- oder OpenAI-Chat-Vervollständigungsanforderung die Felder in den Anforderungstext ein.
-
Gehen Sie in einer Converse-Anfrage wie folgt vor:
-
Ordnen Sie
messageswie folgt zu:-
Fügen Sie für jede Nachricht, deren Rolle
developerist, dencontentzu einem SystemContentBlock imsystem-Array hinzu. -
Fügen Sie für jede Nachricht, deren Rolle
useroderassistantist, dencontentzu einem ContentBlock imcontent-Feld hinzu und geben Sie dieroleimrole-Feld einer Nachricht immessages-Array an.
-
-
Ordnen Sie die Werte für die folgenden Felder den entsprechenden Feldern im
inferenceConfig-Objekt zu:OpenAI field Converse-Feld max_completion_tokens maxTokens stop stopSequences temperature temperature top_p topP -
Schließt alle anderen Felder in das
additionalModelRequestFields-Objekt ein.
-
Überlegungen zum Aufsetzen des Anforderungstextes
-
Die OpenAI-Modelle unterstützen nur Texteingabe und -ausgabe.
-
Der Wert im Feld
modelmuss mit dem Wert im Header übereinstimmen. Sie können dieses Feld weglassen, damit es automatisch mit demselben Wert wie im Header gefüllt wird. -
Der Wert im Feld
streammuss mit der API-Operation übereinstimmen, die Sie verwenden. Sie können dieses Feld weglassen, damit es automatisch mit dem korrekten Wert gefüllt wird.-
Wenn Sie InvokeModel verwenden, muss der Wert
streamfalsesein.
-
OpenAI-Antworttext
Der Antworttext für OpenAI-Modelle entspricht dem Objekt zur Chat-Vervollständigung, das von OpenAI zurückgegeben wurde. Weitere Informationen zu den Antwortfeldern finden Sie unter Das Chat-Vervollständigungsobjekt
Anmerkung
Wenn Sie InvokeModel verwenden, geht das Reasoning des Modells, umgeben von <reasoning>-Tags, dem Textinhalt der Antwort voraus.
Beispiel für die Verwendung von OpenAI-Modellen
Dieser Abschnitt enthält einige Beispiele für die Verwendung der OpenAI-Modelle.
Bevor Sie diese Beispiele ausprobieren, überprüfen Sie, ob Sie die Voraussetzungen erfüllt haben:
-
Authentifizierung – Sie können sich entweder mit Ihren AWS-Anmeldeinformationen oder mit einem API-Schlüssel von Amazon Bedrock authentifizieren.
Richten Sie Ihre AWS-Anmeldeinformationen ein oder generieren Sie einen API-Schlüssel von Amazon Bedrock, um Ihre Anforderung zu authentifizieren.
Weitere Informationen zum Einrichten Ihrer AWS-Anmeldeinformationen finden Sie unter Programmatischer Zugriff mit AWS-Sicherheitsanmeldedaten.
Weitere Informationen zu API-Schlüsseln von Amazon Bedrock und deren Generierung finden Sie unter Generieren von API-Schlüsseln von Amazon Bedrock für eine einfache Authentifizierung bei der Amazon-Bedrock-API.
Anmerkung
Wenn Sie die Chat-Vervollständigungs-API von OpenAI verwenden, können Sie sich nur mit einem API-Schlüssel von Amazon Bedrock authentifizieren.
-
Endpunkt – Suchen Sie den Endpunkt, der der AWS-Region entspricht, die in Runtime-Endpunkte und -kontingente von Amazon Bedrock verwendet werden soll. Wenn Sie ein AWS SDK verwenden, müssen Sie bei der Einrichtung des Clients möglicherweise nur den Regionscode und nicht den gesamten Endpunkt angeben. Sie müssen einen Endpunkt verwenden, der einer Region zugeordnet ist, die von dem im Beispiel verwendeten Modell unterstützt wird.
-
Modellzugriff – Fordern Sie den Zugriff auf ein OpenAI-Modell an. Weitere Informationen finden Sie unter Zugriff auf Amazon Bedrock Foundation-Modelle in AWS GovCloud (USA).
-
(Wenn im Beispiel ein SDK verwendet wird) Installieren Sie das SDK – Richten Sie nach der Installation Standardanmeldeinformationen und eine Standard-AWS-Region ein. Wenn Sie keine Standardanmeldeinformationen oder -region einrichten, müssen Sie diese in den entsprechenden Codebeispielen explizit angeben. Weitere Informationen zu Anbietern standardisierter Anmeldeinformationen finden Sie unter Standardisierte Anmeldeinformationsanbieter für AWS SDKs und Tools.
Anmerkung
Wenn Sie das OpenAI SDK verwenden, können Sie sich nur mit einem API-Schlüssel von Amazon Bedrock authentifizieren und müssen den Amazon-Bedrock-Endpunkt explizit festlegen.
Erweitern Sie den Abschnitt für das Beispiel, das Sie sehen möchten:
Wenn Sie Beispiele für die Verwendung der OpenAI-API zum Erstellen von Chat-Vervollständigungen sehen möchten, wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und führen Sie dann die folgenden Schritte aus:
Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und befolgen Sie dann die Schritte:
Wenn Sie die einheitliche Converse-API verwenden, müssen Sie die OpenAI-Felder zum Erstellen von Chat-Vervollständigungen dem entsprechenden Feld im Converse-Anfragestext zuordnen.
Vergleichen Sie beispielsweise den folgenden Text der Anforderung zur Chat-Vervollständigung mit dem entsprechenden Anforderungstext von Converse:
Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und befolgen Sie die angegebenen Schritte:
Wenden Sie beim Ausführen eines Modellaufrufs einen Integritätsschutz an, indem Sie die Integritätsschutz-ID, die Version und die Information angeben, ob der Integritätsschutz-Trace im Header einer Modellaufrufanforderung aktiviert werden soll oder nicht.
Wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und befolgen Sie die angegebenen Schritte:
Wenn Sie Beispiele für die Verwendung des Integritätsschutzes mit OpenAI-Chat-Vervollständigungen sehen möchten, wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und führen Sie dann die folgenden Schritte aus:
Mit Batch-Inferenz können Sie Modellinferenzen asynchron mit mehreren Prompts ausführen. Wenn Sie Batch-Inferenz mit einem OpenAI-Modell ausführen möchten, gehen Sie wie folgt vor:
-
Erstellen Sie eine JSONL-Datei und füllen Sie sie zumindest mit der Mindestanzahl von JSON-Objekten, die jeweils durch eine neue Zeile getrennt sind. Jedes
modelInput-Objekt muss dem Format des Anforderungstexts zur Erstellung der OpenAI-Chat-Vervollständigungentsprechen. Im Folgenden finden Sie ein Beispiel für die ersten beiden Zeilen einer JSONL-Datei, die Anforderungstexte für OpenAI enthält. { "recordId": "RECORD1", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "Can you generate a question with a factual answer?" } ], "max_completion_tokens": 1000 } } { "recordId": "RECORD2", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "What is the weather like today?" } ], "max_completion_tokens": 1000 } } ...Anmerkung
Das Feld
modelist optional, da der Batch-Inferenzservice es für Sie auf der Grundlage des Headers einfügt, wenn Sie es weglassen.Stellen Sie sicher, dass Ihre JSONL-Datei den Batch-Inferenzkontingenten entspricht, wie unter Formatieren und Hochladen Ihrer Batch-Inferenzdaten beschrieben.
-
Laden Sie die Datei in einen Amazon-S3-Bucket hoch.
-
Senden Sie eine CreateModelInvocationJob-Anfrage mit einem Endpunkt der Amazon-Bedrock-Steuerebene mit dem im Feld
inputDataConfigangegebenen S3-Bucket aus dem vorherigen Schritt und dem im FeldmodelIdangegebenen OpenAI-Modell.
Ein durchgehendes Codebeispiel finden Sie unter Batch-Inferenz – Codebeispiel. Ersetzen Sie die Werte durch die entsprechenden Konfigurationen für die OpenAI-Modelle.