

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Puntos de enlace compatibles con Amazon Bedrock
<a name="endpoints"></a>

Amazon Bedrock admite varios puntos de enlace en función de si desea realizar operadores de plano de control u operaciones de [inferencia](inference.md).

**Operaciones del plano de control**

Las operaciones del plano de control de Amazon Bedrock se pueden usar con el punto final: `bedrock.{region}.amazonaws.com.` se puede usar para administrar recursos, como enumerar los [modelos](models.md) disponibles, crear trabajos de [modelo personalizados](custom-models.md) y administrar el rendimiento [aprovisionado](prov-throughput.md). [Obtenga más información sobre nuestra API de plano de control aquí.](https://docs.aws.amazon.com/general/latest/gr/bedrock.html)

**Operaciones de inferencia**

Amazon Bedrock admite los dos puntos finales principales siguientes para realizar inferencias mediante programación:


| **Punto de conexión** | **Compatible APIs** | **Descripción** | 
| --- | --- | --- | 
| bedrock-mantle.\$1region\$1.api.aws | [API de respuestas/API](bedrock-mantle.md) de [finalización de chats](bedrock-mantle.md) | Puntos de enlace específicos de la región para realizar solicitudes de inferencia para modelos alojados en Amazon Bedrock mediante puntos de enlace compatibles con OpenAI. | 
| bedrock-runtime.\$1region\$1.amazonaws.com | [InvokeModel](inference-invoke.md)[/[Converse](inference-chat-completions.md)](conversation-inference.md)//Finalizaciones de chat | Puntos de enlace específicos de la región para realizar solicitudes de inferencia para modelos alojados en Amazon Bedrock mediante /Converse/Chat Completions. InvokeModel APIs Obtenga más información sobre Amazon Bedrock Runtime APIs [aquí.](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_Operations_Amazon_Bedrock_Runtime.html) | 

**¿Qué punto final de servicio debe utilizar para su inferencia?**

El punto final que utilice depende de su caso de uso.


| **Punto de conexión** | **Características y casos de uso** | 
| --- | --- | 
| bedrock-mantle |  Es compatible con OpenAI APIs (API de [respuestas, API](bedrock-mantle.md) de [finalización de chat](bedrock-mantle.md)). **Úselo para:** migrar fácilmente desde otros modelos que utilizan el compatible con APIs OpenAI. **Características:** admite el uso de herramientas tanto del lado del cliente como del servidor con funciones Lambda y viene configurado con ready-to-use herramientas en sus aplicaciones. **Recomendado para:** usuarios nuevos de Amazon Bedrock.  | 
| bedrock-runtime |  Es compatible con Amazon Bedrock nativo APIs (API de [invocación, API](inference-invoke.md) de [Converse](conversation-inference.md)). También es compatible con la API [Chat](inference-chat-completions.md) Completions, compatible con OpenAI. **Úselo para:** ejecutar cualquier modelo compatible con Amazon Bedrock. La [API de Converse](conversation-inference.md) proporciona una interfaz unificada para interactuar con todos los modelos de Amazon Bedrock y la [API de Invoke](inference-invoke.md) proporciona acceso directo a los modelos con más capacidad para controlar el formato de solicitud y respuesta. También puede usar la [API Chat Completions](inference-chat-completions.md) para interactuar con sus modelos. **Características:** solo admite el uso de herramientas del lado del cliente con funciones de Lambda y no viene preconfigurada con herramientas. ready-to-use Permite realizar un seguimiento del uso y los costes al invocar un modelo.  | 

Si es la primera vez que utiliza Amazon Bedrock, le recomendamos que empiece por el `bedrock-mantle` punto de conexión.