

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# APIs suportado pela Amazon Bedrock
<a name="apis"></a>

**Inferência suportada APIs **

O Amazon Bedrock fornece quatro padrões principais de API para realizar [inferências](inference.md) no Amazon Bedrock.


| **Método da API** | **Endpoint de serviço** | **Caso de uso mais adequado para** | **Característica chave** | 
| --- | --- | --- | --- | 
| [API de respostas](bedrock-mantle.md) (recomendada) | bedrock-mantle.<suffix> | Conversas sensacionais | Use a API de respostas para aplicativos modernos e agentes que exigem o uso de ferramentas integradas (pesquisa, interpretador de código), entradas multimodais e conversas com estado | 
| [Conclusões de bate-papo](bedrock-mantle.md) | bedrock-mantle.<suffix>(recomendado) e bedrock-runtime.<suffix> | Bate-papo sem estado em vários turnos | Use a [API Chat Completions](inference-chat-completions.md) para tarefas leves, sem estado e focadas em texto, nas quais você precisa de controle total sobre o gerenciamento do histórico de bate-papo e menor latência. | 
| [Método inverso](conversation-inference.md) | bedrock-runtime.<suffix> | Bate-papo em vários turnos/padronização | A [API Converse](conversation-inference.md) fornece uma interface unificada para interagir com todos os modelos no Amazon Bedrock. | 
| [Método de invocação](inference-invoke.md) | bedrock-runtime.<suffix> | Transações únicas/Cargas úteis grandes | A API Invoke fornece acesso direto aos modelos com mais capacidade de controlar o formato da solicitação e da resposta. | 

Nota: o sufixo é `{region}.amazonaws.com`

Leia mais sobre o [APIs suporte do Amazon Bedrock](inference-api.md).

**Decidindo entre APIs**

A API que você usa depende do seu caso de uso.


| **Caso de uso** | **API recomendada** | 
| --- | --- | 
| Migração de um endpoint compatível com a API OpenAI | Use a API compatível com OpenAI APIs: API de [respostas ou API](https://platform.openai.com/docs/api-reference/responses) de conclusão de [bate-papo](inference-chat-completions.md). De acordo com a OpenAI, a API [recomendada](https://platform.openai.com/docs/guides/migrate-to-responses) a longo prazo é a API de respostas. | 
| Usando modelos não compatíveis com endpoint compatível com OpenAI | [Use o Amazon Bedrock nativo APIs: [Converse](conversation-inference.md) e Invoke.](inference-invoke.md) Para obter mais informações, consulte [Enviar prompts e gerar respostas usando a API](inference-api.md). | 
| Interface consistente em todos os modelos | [API Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) - Funciona com todos os modelos que oferecem suporte a mensagens. Escreva o código uma vez e use-o com modelos diferentes. Por exemplo de código, consulte [exemplos da API Converse](https://docs.aws.amazon.com/bedrock/latest/userguide/conversation-inference.html#message-inference-examples). | 
| Acesso direto ao modelo com controle total | [API Invoke](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html) - Fornece acesso direto aos modelos com mais controle sobre o formato de solicitação e resposta. Use para gerar texto, imagens e incorporações. Por exemplo de código, consulte [exemplos de código do modelo Invoke](https://docs.aws.amazon.com/bedrock/latest/userguide/inference-invoke.html#inference-example-invoke). | 
| Novo no Amazon Bedrock | Comece com a [API de respostas](bedrock-mantle.md) | 

**Modelos compatíveis com cada API e endpoint**

Primeiro, navegue em nossos [modelos](models.md) para decidir o modelo que você deseja usar. Depois de decidir sobre o modelo que deseja usar, você pode ver o que APIs ele suporta e, com base nisso, escolher qual endpoint usar. O `bedrock-mantle` suporta a API de respostas e conclusão de bate-papo. O `bedrock-runtime` suporta as APIs Invoke e Converse.