

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Generieren Sie Antworten mit OpenAI APIs
<a name="bedrock-mantle"></a>

Amazon Bedrock bietet OpenAI kompatible API-Endpunkte für Model-Inferenz, unterstützt von Mantle, einer verteilten Inferenz-Engine für groß angelegtes Machine Learning-Modell-Serving. Diese Endpunkte ermöglichen es Ihnen, vertraute Tools OpenAI SDKs und Tools mit Amazon Bedrock-Modellen zu verwenden, sodass Sie bestehende Anwendungen mit minimalen Codeänderungen migrieren können — aktualisieren Sie einfach Ihre Basis-URL und Ihren API-Schlüssel.

Zu den wichtigsten Vorteilen gehören:
+ **Asynchrone Inferenz** — Support für Inferenz-Workloads mit langer Laufzeit über die Responses API
+ **Statusorientiertes Konversationsmanagement** — Der Kontext wird automatisch neu erstellt, ohne dass der Konversationsverlauf bei jeder Anfrage manuell übergeben wird
+ **Vereinfachter Einsatz von Tools** — Optimierte Integration für behördliche Arbeitsabläufe
+ **Flexible Antwortmodi** — Support für Streaming- und Nicht-Streaming-Antworten
+ **Einfache Migration** — Kompatibel mit bestehenden OpenAI SDK-Codebasen

## Unterstützte Regionen und Endpunkte
<a name="bedrock-mantle-supported"></a>

Amazon Bedrock ist in den folgenden AWS Regionen verfügbar:


| Name der Region | Region | Endpoint | 
| --- | --- | --- | 
| USA Ost (Ohio) | us-east-2 | bedrock-mantle.us-east-2.api.aws | 
| USA Ost (Nord-Virginia) | us-east-1 | bedrock-mantle.us-east-1.api.aws | 
| USA West (Oregon) | us-west-2 | bedrock-mantle.us-west-2.api.aws | 
| Asien-Pazifik (Jakarta) | ap-southeast-3 | bedrock-mantle.ap-southeast-3.api.aws | 
| Asien-Pazifik (Mumbai) | ap-south-1 | grundsteinmantel.ap-south-1.api.aws | 
| Asien-Pazifik (Sydney) | ap-southeast-2 | bedrock-mantle.ap-southeast-2.api.aws | 
| Asien-Pazifik (Tokio) | ap-northeast-1 | grundsteinmantel.ap-northeast-1.api.aws | 
| Europa (Frankfurt) | eu-central-1 | bedrock-mantle.eu-central-1.api.aws | 
| Europa (Irland) | eu-west-1 | bedrock-mantle.eu-west-1.api.aws | 
| Europa (London) | eu-west-2 | bedrock-mantle.eu-west-2.api.aws | 
| Europa (Milan) | eu-south-1 | bedrock-mantle.eu-sued-1.api.aws | 
| Europa (Stockholm) | eu-north-1 | bedrock-mantle.eu-nord-1.api.aws | 
| Südamerika (São Paulo) | sa-east-1 | bedrock-mantle.sa-east-1.api.aws | 

## Voraussetzungen
<a name="bedrock-mantle-prereq"></a>

Stellen Sie vor der Verwendung sicher, dass Sie über Folgendes verfügen: OpenAI APIs
+ **Authentifizierung** — Sie können sich authentifizieren mit:
  + Amazon Bedrock API-Schlüssel (für OpenAI SDK erforderlich)
  + AWS Anmeldeinformationen (unterstützt für HTTP-Anfragen)
+ **OpenAISDK** (optional) — Installieren Sie das OpenAI Python-SDK, wenn Sie SDK-basierte Anfragen verwenden.
+ **Umgebungsvariablen** — Legen Sie die folgenden Umgebungsvariablen fest:
  + `OPENAI_API_KEY`— Stellen Sie Ihren Amazon Bedrock API-Schlüssel ein
  + `OPENAI_BASE_URL`— Stellen Sie den Amazon Bedrock-Endpunkt für Ihre Region ein (z. B.` https://bedrock-mantle.us-east-1.api.aws/v1`)

## Modelle-API
<a name="bedrock-mantle-models"></a>

Die Models-API ermöglicht es Ihnen, verfügbare Modelle in Amazon Bedrock powered by Mantle zu entdecken. Verwenden Sie diese API, um eine Liste von Modellen abzurufen, die Sie mit der Responses API und der Chat Completions API verwenden können. Vollständige API-Details finden Sie in der [OpenAIModelldokumentation.](https://platform.openai.com/docs/api-reference/models)

### Verfügbare Modelle auflisten
<a name="bedrock-mantle-models-list"></a>

Um die verfügbaren Modelle aufzulisten, wählen Sie die Registerkarte für Ihre bevorzugte Methode und gehen Sie dann wie folgt vor:

------
#### [ OpenAI SDK (Python) ]

```
# List all available models using the OpenAI SDK
# Requires OPENAI_API_KEY and OPENAI_BASE_URL environment variables

from openai import OpenAI

client = OpenAI()

models = client.models.list()

for model in models.data:
    print(model.id)
```

------
#### [ HTTP request ]

Stellen Sie eine GET-Anfrage an`/v1/models`:

```
# List all available models
# Requires OPENAI_API_KEY and OPENAI_BASE_URL environment variables

curl -X GET $OPENAI_BASE_URL/models \
   -H "Authorization: Bearer $OPENAI_API_KEY"
```

------

## Antworten-API
<a name="bedrock-mantle-responses"></a>

Die Responses API bietet zustandsorientiertes Konversationsmanagement mit Unterstützung für Streaming, Hintergrundverarbeitung und Multi-Turn-Interaktionen. Vollständige API-Details finden Sie in der [OpenAIResponse-Dokumentation](https://platform.openai.com/docs/api-reference/responses).

### Grundlegende Anfrage
<a name="bedrock-mantle-responses-create"></a>

Um eine Antwort zu erstellen, wählen Sie die Registerkarte für Ihre bevorzugte Methode und folgen Sie dann den Schritten:

------
#### [ OpenAI SDK (Python) ]

```
# Create a basic response using the OpenAI SDK
# Requires OPENAI_API_KEY and OPENAI_BASE_URL environment variables

from openai import OpenAI

client = OpenAI()

response = client.responses.create(
    model="openai.gpt-oss-120b",
    input=[
        {"role": "user", "content": "Hello! How can you help me today?"}
    ]
)

print(response)
```

------
#### [ HTTP request ]

Stellen Sie eine POST-Anfrage an`/v1/responses`:

```
# Create a basic response
# Requires OPENAI_API_KEY and OPENAI_BASE_URL environment variables

curl -X POST $OPENAI_BASE_URL/responses \
   -H "Content-Type: application/json" \
   -H "Authorization: Bearer $OPENAI_API_KEY" \
   -d '{
    "model": "openai.gpt-oss-120b",
    "input": [
        {"role": "user", "content": "Hello! How can you help me today?"}
    ]
}'
```

------

### Antworten streamen
<a name="bedrock-mantle-responses-streaming"></a>

Um schrittweise Antwortereignisse zu empfangen, wählen Sie die Registerkarte für Ihre bevorzugte Methode und gehen Sie dann wie folgt vor:

------
#### [ OpenAI SDK (Python) ]

```
# Stream response events incrementally using the OpenAI SDK
# Requires OPENAI_API_KEY and OPENAI_BASE_URL environment variables

from openai import OpenAI

client = OpenAI()

stream = client.responses.create(
    model="openai.gpt-oss-120b",
    input=[{"role": "user", "content": "Tell me a story"}],
    stream=True
)

for event in stream:
    print(event)
```

------
#### [ HTTP request ]

Stellen Sie eine POST-Anfrage an `/v1/responses` mit `stream` folgender Einstellung: `true`

```
# Stream response events incrementally
# Requires OPENAI_API_KEY and OPENAI_BASE_URL environment variables

curl -X POST $OPENAI_BASE_URL/responses \
   -H "Content-Type: application/json" \
   -H "Authorization: Bearer $OPENAI_API_KEY" \
   -d '{
    "model": "openai.gpt-oss-120b",
    "input": [
        {"role": "user", "content": "Tell me a story"}
    ],
    "stream": true
}'
```

------

## API für Chat-Abschlüsse
<a name="bedrock-mantle-chat-completions"></a>

Die Chat-Completions-API generiert Konversationsantworten. Vollständige API-Details finden Sie in der Dokumentation zu [OpenAIChat-Abschlüssen](https://platform.openai.com/docs/api-reference/chat/create).

### Erstellen einer Chat-Vervollständigung
<a name="bedrock-mantle-chat-completions-create"></a>

Um einen Chat-Abschluss zu erstellen, wählen Sie die Registerkarte für Ihre bevorzugte Methode und folgen Sie dann den Schritten:

------
#### [ OpenAI SDK (Python) ]

Konfigurieren Sie den OpenAI Client mithilfe von Umgebungsvariablen:

```
# Create a chat completion using the OpenAI SDK
# Requires OPENAI_API_KEY and OPENAI_BASE_URL environment variables

from openai import OpenAI

client = OpenAI()

completion = client.chat.completions.create(
    model="openai.gpt-oss-120b",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"}
    ]
)

print(completion.choices[0].message)
```

------
#### [ HTTP request ]

Stellen Sie eine POST-Anfrage an`/v1/chat/completions`:

```
# Create a chat completion
# Requires OPENAI_API_KEY and OPENAI_BASE_URL environment variables

curl -X POST $OPENAI_BASE_URL/chat/completions \
   -H "Content-Type: application/json" \
   -H "Authorization: Bearer $OPENAI_API_KEY" \
   -d '{
    "model": "openai.gpt-oss-120b",
    "messages": [
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"}
    ]
}'
```

------

### Streaming aktivieren
<a name="bedrock-mantle-chat-completions-streaming"></a>

Um schrittweise Antworten zu erhalten, wählen Sie die Registerkarte für Ihre bevorzugte Methode und folgen Sie dann den Schritten:

------
#### [ OpenAI SDK (Python) ]

```
# Stream chat completion responses incrementally using the OpenAI SDK
# Requires OPENAI_API_KEY and OPENAI_BASE_URL environment variables

from openai import OpenAI

client = OpenAI()

stream = client.chat.completions.create(
    model="openai.gpt-oss-120b",
    messages=[{"role": "user", "content": "Tell me a story"}],
    stream=True
)

for chunk in stream:
    if chunk.choices[0].delta.content is not None:
        print(chunk.choices[0].delta.content, end="")
```

------
#### [ HTTP request ]

Stellen Sie eine POST-Anfrage an `/v1/chat/completions` mit ` stream` folgender Einstellung: `true`

```
# Stream chat completion responses incrementally
# Requires OPENAI_API_KEY and OPENAI_BASE_URL environment variables

curl -X POST $OPENAI_BASE_URL/chat/completions \
   -H "Content-Type: application/json" \
   -H "Authorization: Bearer $OPENAI_API_KEY" \
   -d '{
    "model": "openai.gpt-oss-120b",
    "messages": [
        {"role": "user", "content": "Tell me a story"}
    ],
    "stream": true
}'
```

------