

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Von Amazon Bedrock unterstützte Endgeräte
<a name="endpoints"></a>

Amazon Bedrock unterstützt verschiedene Endpunkte, je nachdem, ob Sie Steuerebenenbediener oder [Inferenzoperationen](inference.md) durchführen möchten.

**Operationen auf der Kontrollebene**

Amazon Bedrock Control Plane Operations kann mit dem Endpunkt verwendet werden: `bedrock.{region}.amazonaws.com.` Es kann für die Verwaltung von Ressourcen verwendet werden, z. B. für die Auflistung verfügbarer [Modelle](models.md), die Erstellung von Aufträgen für [benutzerdefinierte Modelle](custom-models.md) und die Verwaltung des [bereitgestellten Durchsatzes](prov-throughput.md). [Lesen Sie hier mehr über unsere Control Plane API.](https://docs.aws.amazon.com/general/latest/gr/bedrock.html)

**Inferenzoperationen**

Amazon Bedrock unterstützt die folgenden beiden primären Endpunkte für die programmgesteuerte Durchführung von Inferenzen:


| **Endpunkt** | **Unterstützt APIs** | **Beschreibung** | 
| --- | --- | --- | 
| bedrock-mantle.\$1region\$1.api.aws | [API für Antworten/API](bedrock-mantle.md) für [Chat-Abschlüsse](bedrock-mantle.md) | Regionsspezifische Endpunkte für die Erstellung von Inferenzanfragen für Modelle, die in Amazon Bedrock gehostet werden, mithilfe der OpenAI-kompatiblen Endpunkte. | 
| bedrock-runtime.\$1region\$1.amazonaws.com | [InvokeModel](inference-invoke.md)[/[Converse](inference-chat-completions.md)](conversation-inference.md)//Abgeschlossene Chats | Regionsspezifische Endpunkte für die Erstellung von Inferenzanfragen für Modelle, die in Amazon Bedrock gehostet werden, mithilfe von /Converse/Chat Completions. InvokeModel APIs Lesen Sie APIs [hier mehr über Amazon Bedrock Runtime.](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_Operations_Amazon_Bedrock_Runtime.html) | 

**Welchen Service-Endpunkt sollten Sie für Ihre Inferenz verwenden?**

Welchen Endpunkt Sie verwenden, hängt von Ihrem Anwendungsfall ab.


| **Endpunkt** | **Funktionen und Anwendungsfälle** | 
| --- | --- | 
| bedrock-mantle |  Unterstützt OpenAI-kompatibel APIs ([Responses API](bedrock-mantle.md), [Chat Completions](bedrock-mantle.md) API). **Verwendung für:** Einfache Migration von anderen Modellen, die APIs OpenAI-Compatible verwenden. **Funktionen:** Unterstützt sowohl die client- als auch die serverseitige Verwendung von Tools mit Lambda-Funktionen und ist mit ready-to-use Tools in Ihren Anwendungen konfiguriert. **Empfohlen für:** Neue Benutzer von Amazon Bedrock.  | 
| bedrock-runtime |  Unterstützt Amazon Bedrock nativ APIs ([Invoke API](inference-invoke.md), [Converse](conversation-inference.md) API). Unterstützt auch die OpenAI-kompatible [Chat Completions API](inference-chat-completions.md). **Verwenden Sie für:** Ausführung eines beliebigen Modells, das von Amazon Bedrock unterstützt wird. Die [Converse-API](conversation-inference.md) bietet eine einheitliche Schnittstelle für die Interaktion mit allen Modellen in Amazon Bedrock, und die [Invoke API](inference-invoke.md) bietet direkten Zugriff auf Modelle mit mehr Möglichkeiten, das Anfrage- und Antwortformat zu steuern. Sie können auch die [Chat Completions API verwenden, um mit Ihren Modellen](inference-chat-completions.md) zu interagieren. **Funktionen:** Unterstützt nur die clientseitige Verwendung von Tools mit Lambda-Funktionen und ist nicht mit Tools vorkonfiguriert. ready-to-use Ermöglicht es Ihnen, die Nutzung und die Kosten beim Aufrufen eines Modells zu verfolgen.  | 

Wenn Sie Amazon Bedrock noch nicht kennen, empfehlen wir Ihnen, mit dem `bedrock-mantle` Endpunkt zu beginnen.