Generieren Sie Antworten mit OpenAI APIs - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Generieren Sie Antworten mit OpenAI APIs

Amazon Bedrock bietet OpenAI kompatible API-Endpunkte für Model-Inferenz, unterstützt von Mantle, einer verteilten Inferenz-Engine für groß angelegtes Machine Learning-Modell-Serving. Diese Endpunkte ermöglichen es Ihnen, vertraute Tools OpenAI SDKs und Tools mit Amazon Bedrock-Modellen zu verwenden, sodass Sie bestehende Anwendungen mit minimalen Codeänderungen migrieren können — aktualisieren Sie einfach Ihre Basis-URL und Ihren API-Schlüssel.

Zu den wichtigsten Vorteilen gehören:

  • Asynchrone Inferenz — Support für Inferenz-Workloads mit langer Laufzeit über die Responses API

  • Statusorientiertes Konversationsmanagement — Der Kontext wird automatisch neu erstellt, ohne dass der Konversationsverlauf bei jeder Anfrage manuell übergeben wird

  • Vereinfachter Einsatz von Tools — Optimierte Integration für behördliche Arbeitsabläufe

  • Flexible Antwortmodi — Support für Streaming- und Nicht-Streaming-Antworten

  • Einfache Migration — Kompatibel mit bestehenden OpenAI SDK-Codebasen

Unterstützte Regionen und Endpunkte

Amazon Bedrock ist in den folgenden AWS Regionen verfügbar:

Name der Region Region Endpoint
USA Ost (Ohio) us-east-2 bedrock-mantle.us-east-2.api.aws
USA Ost (Nord-Virginia) us-east-1 bedrock-mantle.us-east-1.api.aws
USA West (Oregon) us-west-2 bedrock-mantle.us-west-2.api.aws
Asien-Pazifik (Jakarta) ap-southeast-3 bedrock-mantle.ap-southeast-3.api.aws
Asien-Pazifik (Mumbai) ap-south-1 grundsteinmantel.ap-south-1.api.aws
Asien-Pazifik (Tokio) ap-northeast-1 grundsteinmantel.ap-northeast-1.api.aws
Europa (Frankfurt) eu-central-1 bedrock-mantle.eu-central-1.api.aws
Europa (Irland) eu-west-1 bedrock-mantle.eu-west-1.api.aws
Europa (London) eu-west-2 bedrock-mantle.eu-west-2.api.aws
Europa (Milan) eu-south-1 bedrock-mantle.eu-sued-1.api.aws
Europa (Stockholm) eu-north-1 bedrock-mantle.eu-nord-1.api.aws
Südamerika (São Paulo) sa-east-1 bedrock-mantle.sa-east-1.api.aws

Voraussetzungen

Stellen Sie vor der Verwendung sicher, dass Sie über Folgendes verfügen: OpenAI APIs

  • Authentifizierung — Sie können sich authentifizieren mit:

    • Amazon Bedrock API-Schlüssel (für OpenAI SDK erforderlich)

    • AWSAnmeldeinformationen (unterstützt für HTTP-Anfragen)

  • OpenAISDK (optional) — Installieren Sie das OpenAI Python-SDK, wenn Sie SDK-basierte Anfragen verwenden.

  • Umgebungsvariablen — Legen Sie die folgenden Umgebungsvariablen fest:

    • OPENAI_API_KEY— Stellen Sie Ihren Amazon Bedrock API-Schlüssel ein

    • OPENAI_BASE_URL— Stellen Sie den Amazon Bedrock-Endpunkt für Ihre Region ein (z. B. https://bedrock-mantle.us-east-1.api.aws/v1)

Modelle-API

Die Models-API ermöglicht es Ihnen, verfügbare Modelle in Amazon Bedrock powered by Mantle zu entdecken. Verwenden Sie diese API, um eine Liste von Modellen abzurufen, die Sie mit der Responses API und der Chat Completions API verwenden können. Vollständige API-Details finden Sie in der OpenAIModelldokumentation.

Verfügbare Modelle auflisten

Um die verfügbaren Modelle aufzulisten, wählen Sie die Registerkarte für Ihre bevorzugte Methode und gehen Sie dann wie folgt vor:

OpenAI SDK (Python)
# List all available models using the OpenAI SDK # Requires OPENAI_API_KEY and OPENAI_BASE_URL environment variables from openai import OpenAI client = OpenAI() models = client.models.list() for model in models.data: print(model.id)
HTTP request

Stellen Sie eine GET-Anfrage an/v1/models:

# List all available models # Requires OPENAI_API_KEY and OPENAI_BASE_URL environment variables curl -X GET $OPENAI_BASE_URL/models \ -H "Authorization: Bearer $OPENAI_API_KEY"

Antworten-API

Die Responses API bietet zustandsorientiertes Konversationsmanagement mit Unterstützung für Streaming, Hintergrundverarbeitung und Multi-Turn-Interaktionen. Vollständige API-Details finden Sie in der OpenAIResponse-Dokumentation.

Grundlegende Anfrage

Um eine Antwort zu erstellen, wählen Sie die Registerkarte für Ihre bevorzugte Methode und folgen Sie dann den Schritten:

OpenAI SDK (Python)
# Create a basic response using the OpenAI SDK # Requires OPENAI_API_KEY and OPENAI_BASE_URL environment variables from openai import OpenAI client = OpenAI() response = client.responses.create( model="openai.gpt-oss-120b", input=[ {"role": "user", "content": "Hello! How can you help me today?"} ] ) print(response)
HTTP request

Stellen Sie eine POST-Anfrage an/v1/responses:

# Create a basic response # Requires OPENAI_API_KEY and OPENAI_BASE_URL environment variables curl -X POST $OPENAI_BASE_URL/responses \ -H "Content-Type: application/json" \ -H "Authorization: Bearer $OPENAI_API_KEY" \ -d '{ "model": "openai.gpt-oss-120b", "input": [ {"role": "user", "content": "Hello! How can you help me today?"} ] }'

Antworten streamen

Um schrittweise Antwortereignisse zu empfangen, wählen Sie die Registerkarte für Ihre bevorzugte Methode und gehen Sie dann wie folgt vor:

OpenAI SDK (Python)
# Stream response events incrementally using the OpenAI SDK # Requires OPENAI_API_KEY and OPENAI_BASE_URL environment variables from openai import OpenAI client = OpenAI() stream = client.responses.create( model="openai.gpt-oss-120b", input=[{"role": "user", "content": "Tell me a story"}], stream=True ) for event in stream: print(event)
HTTP request

Stellen Sie eine POST-Anfrage an /v1/responses mit stream folgender Einstellung: true

# Stream response events incrementally # Requires OPENAI_API_KEY and OPENAI_BASE_URL environment variables curl -X POST $OPENAI_BASE_URL/responses \ -H "Content-Type: application/json" \ -H "Authorization: Bearer $OPENAI_API_KEY" \ -d '{ "model": "openai.gpt-oss-120b", "input": [ {"role": "user", "content": "Tell me a story"} ], "stream": true }'

API für Chat-Abschlüsse

Die Chat-Completions-API generiert Konversationsantworten. Vollständige API-Details finden Sie in der Dokumentation zu OpenAIChat-Abschlüssen.

Erstellen einer Chat-Vervollständigung

Um einen Chat-Abschluss zu erstellen, wählen Sie die Registerkarte für Ihre bevorzugte Methode und folgen Sie dann den Schritten:

OpenAI SDK (Python)

Konfigurieren Sie den OpenAI Client mithilfe von Umgebungsvariablen:

# Create a chat completion using the OpenAI SDK # Requires OPENAI_API_KEY and OPENAI_BASE_URL environment variables from openai import OpenAI client = OpenAI() completion = client.chat.completions.create( model="openai.gpt-oss-120b", messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "Hello!"} ] ) print(completion.choices[0].message)
HTTP request

Stellen Sie eine POST-Anfrage an/v1/chat/completions:

# Create a chat completion # Requires OPENAI_API_KEY and OPENAI_BASE_URL environment variables curl -X POST $OPENAI_BASE_URL/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer $OPENAI_API_KEY" \ -d '{ "model": "openai.gpt-oss-120b", "messages": [ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "Hello!"} ] }'

Streaming aktivieren

Um schrittweise Antworten zu erhalten, wählen Sie die Registerkarte für Ihre bevorzugte Methode und folgen Sie dann den Schritten:

OpenAI SDK (Python)
# Stream chat completion responses incrementally using the OpenAI SDK # Requires OPENAI_API_KEY and OPENAI_BASE_URL environment variables from openai import OpenAI client = OpenAI() stream = client.chat.completions.create( model="openai.gpt-oss-120b", messages=[{"role": "user", "content": "Tell me a story"}], stream=True ) for chunk in stream: if chunk.choices[0].delta.content is not None: print(chunk.choices[0].delta.content, end="")
HTTP request

Stellen Sie eine POST-Anfrage an /v1/chat/completions mit stream folgender Einstellung: true

# Stream chat completion responses incrementally # Requires OPENAI_API_KEY and OPENAI_BASE_URL environment variables curl -X POST $OPENAI_BASE_URL/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer $OPENAI_API_KEY" \ -d '{ "model": "openai.gpt-oss-120b", "messages": [ {"role": "user", "content": "Tell me a story"} ], "stream": true }'