

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Endpoints compatíveis com o Amazon Bedrock
<a name="endpoints"></a>

O Amazon Bedrock oferece suporte a vários endpoints, dependendo se você deseja realizar operadores de plano de controle ou operações de [inferência](inference.md).

**Operações do plano de controle**

As operações do plano de controle do Amazon Bedrock podem ser usadas com o endpoint: `bedrock.{region}.amazonaws.com.` elas podem ser usadas para gerenciar recursos, como listar [modelos disponíveis, criar trabalhos de modelos](models.md) [personalizados](custom-models.md) e gerenciar a taxa de transferência [provisionada](prov-throughput.md). Leia mais sobre nossa API de plano de controle [aqui](https://docs.aws.amazon.com/general/latest/gr/bedrock.html).

**Operações de inferência**

O Amazon Bedrock oferece suporte aos dois endpoints principais a seguir para realizar inferências de forma programática:


| **Endpoint** | **Suportado APIs** | **Descrição** | 
| --- | --- | --- | 
| bedrock-mantle.\$1region\$1.api.aws | [API de respostas//API](bedrock-mantle.md) de [conclusão de bate-papo](bedrock-mantle.md) | Endpoints específicos da região para fazer solicitações de inferência para modelos hospedados no Amazon Bedrock usando endpoints compatíveis com OpenAI. | 
| bedrock-runtime.\$1region\$1.amazonaws.com | [InvokeModel](inference-invoke.md)/[Converse](conversation-inference.md)/Conclusões de [bate-papo](inference-chat-completions.md) | Endpoints específicos da região para fazer solicitações de inferência para modelos hospedados no Amazon Bedrock usando o /Converse/Chat Completions. InvokeModel APIs Leia mais sobre o Amazon Bedrock Runtime APIs [aqui.](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_Operations_Amazon_Bedrock_Runtime.html) | 

**Qual endpoint de serviço você deve usar para sua inferência?**

O endpoint que você usa depende do seu caso de uso.


| **Endpoint** | **Características e casos de uso** | 
| --- | --- | 
| bedrock-mantle |  Compatível com OpenAI APIs (API de [respostas, API](bedrock-mantle.md) de [conclusão de bate-papo](bedrock-mantle.md)). **Use para:** Migrar facilmente de outros modelos que usam o compatível com APIs OpenAI. **Características:** Suporta o uso de ferramentas do lado do cliente e do servidor com as funções Lambda e vem configurado com ready-to-use ferramentas em seus aplicativos. **Recomendado para:** Novos usuários do Amazon Bedrock.  | 
| bedrock-runtime |  Suporta Amazon Bedrock nativo APIs (API [Invoke, API](inference-invoke.md) [Converse](conversation-inference.md)). Também é compatível com a API de conclusão de [bate-papo](inference-chat-completions.md) compatível com OpenAI. **Use para:** Executar qualquer modelo compatível com o Amazon Bedrock. A [API Converse](conversation-inference.md) fornece uma interface unificada para interagir com todos os modelos no Amazon Bedrock e a [API Invoke](inference-invoke.md) fornece acesso direto aos modelos com mais capacidade de controlar o formato de solicitação e resposta. Você também pode usar a [API Chat Completions](inference-chat-completions.md) para interagir com seus modelos. **Características:** Suporta somente o uso de ferramentas do lado do cliente com funções Lambda e não vem pré-configurado com ferramentas. ready-to-use Permite que você acompanhe o uso e os custos ao invocar um modelo.  | 

Se você é novo no Amazon Bedrock, recomendamos que comece com o `bedrock-mantle` endpoint.