

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Criar um prompt usando o Gerenciamento de Prompts
<a name="prompt-management-create"></a>

Ao criar um prompt, você tem as seguintes opções:
+ Escreva a mensagem do prompt que funciona como uma entrada para um FM gerar uma saída.
+ Use chaves duplas para incluir variáveis (como em *\$1\$1variable\$1\$1*) na mensagem de prompt que pode ser preenchida ao chamar o prompt.
+ Escolha um modelo com o qual invocar o prompt ou, se você planeja usar o prompt com um agente, deixe-o sem especificação. Se escolher um modelo, você também poderá modificar as configurações de inferência a serem usadas. Para consultar os parâmetros de inferência para diversos modelos, consulte[Parâmetros de solicitação de inferência e campos de resposta para modelos de base](model-parameters.md).

Todos os prompts comportam os seguintes parâmetros básicos de inferência:
+ **maxTokens**: o número máximo de tokens a serem permitidos na resposta gerada. 
+ **stopSequences**: uma lista de sequências de parada. Uma sequência de parada é uma sequência de caracteres que faz com que o modelo interrompa a geração da resposta. 
+ **temperature**: a probabilidade do modelo selecionar opções de maior probabilidade ao gerar uma resposta. 
+ **topP**: a porcentagem de candidatos mais prováveis que o modelo considera para o próximo token.

Se um modelo aceitar outros parâmetros de inferência, você poderá especificá-los como *campos adicionais* para seu prompt. Você deve fornecer os campos adicionais em um objeto JSON. O exemplo a seguir mostra como definir o `top_k`, que está disponível nos modelos Claude da Anthropic, mas não é um parâmetro básico de inferência. 

```
{
    "top_k": 200
}
```

Para ter informações sobre parâmetros de inferência de modelo, consulte [Parâmetros de solicitação de inferência e campos de resposta para modelos de base](https://docs.aws.amazon.com/bedrock/latest/userguide/model-parameters.html).

Definir um parâmetro de inferência básico como um campo adicional não substitui o valor definido no console.

Se o modelo escolhido para o prompt for compatível com a API [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) (para ter mais informações, consulte [Realizar uma conversa com as operações de API Converse](conversation-inference.md)), você pode incluir o seguinte ao criar o prompt:
+ Um prompt do sistema para fornecer instruções ou contexto ao modelo.
+ Prompts anteriores (mensagens do usuário) e respostas do modelo (mensagens do assistente) como histórico de conversação a ser considerado pelo modelo ao gerar uma resposta para a mensagem final do usuário.
+ (Se permitido pelo modelo) [Ferramentas](tool-use.md) para o modelo usar ao gerar a resposta.
+ (Se permitido pelo modelo) Use o [armazenamento em cache de prompts](prompt-caching.md) para reduzir os custos armazenando em cache os prompts grandes ou usados com frequência. Dependendo do modelo, é possível armazenar instruções do sistema, ferramentas e mensagens (usuário e assistente) em cache. O armazenamento em cache de prompts criará um ponto de verificação de cache para o prompt se o prefixo total do prompt atender ao número mínimo de tokens exigidos pelo modelo. Quando uma variável alterada é encontrada em um prompt, o armazenamento em cache de prompts cria outro ponto de verificação de cache (se o número de tokens de entrada atingir o mínimo exigido pelo modelo).

Para saber como criar um prompt usando o Gerenciamento de Prompts, escolha a guia correspondente ao método de sua preferência e siga as etapas:

------
#### [ Console ]

**Para criar um aviso**

1. Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console do Amazon Bedrock. Em seguida, abra o console do Amazon Bedrock em [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock).

1. No painel de navegação à esquerda, selecione **Gerenciamento de prompts**. Em seguida, escolha **Criar prompt**.

1. Forneça um nome para o prompt e uma descrição opcional.

1. Para criptografar o prompt com uma chave gerenciada pelo cliente, selecione **Personalizar configurações de criptografia (avançado)** na seção **Seleção de chave do KMS**. Se você omitir esse campo, o prompt será criptografado com uma Chave gerenciada pela AWS. Para ter mais informações, consulte [Chaves do AWS KMS](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html).

1. Escolha **Criar prompt**. O prompt é criado, e você vai até o **construtor de prompts** do prompt recém-criado, em que pode configurá-lo.

1. Você pode continuar o procedimento a seguir para configurar o prompt ou retornar ao construtor de prompts depois.

**Como configurar o prompt**

1. Se você ainda não estiver no construtor de prompts, faça o seguinte:

   1. Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console do Amazon Bedrock. Em seguida, abra o console do Amazon Bedrock em [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock).

   1. No painel de navegação à esquerda, selecione **Gerenciamento de prompts**. Em seguida, escolha um prompt na seção **Prompts**.

   1. Na seção **Rascunho do prompt**, escolha **Editar no construtor de prompts**.

1. Use o painel **Prompt** para criar o prompt. Insira o prompt na última caixa **Mensagem do usuário**. Se o modelo permitir o uso da API [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) ou da [API Messages do Claude da Anthropic](model-parameters-anthropic-claude-messages.md), você também poderá incluir um **prompt do sistema**, bem como **mensagens do usuário** e **mensagens do assistente** anteriores, para oferecer contexto.

   Ao escrever um prompt, é possível incluir variáveis entre chaves duplas (como em *\$1\$1variable\$1\$1*). Toda variável incluída por você é exibida na seção **Variáveis de teste**.

1. (Opcional) É possível modificar o prompt das seguintes maneiras:
   + No painel **Configurações**, faça o seguinte:

     1. Escolha um **recurso de IA generativa** para executar inferências.
**nota**  
Se você escolher um agente, só poderá testar o prompt no console. Para saber como testar um prompt com um agente na API, consulte [Testar um prompt usando o Gerenciamento de Prompts](prompt-management-test.md).

     1. Em **Parâmetros de inferência**, defina os parâmetros de inferência que deseja usar. 

     1. Se o modelo permitir [raciocínio](inference-reasoning.md), ative o **Raciocínio** para incluir o raciocínio do modelo na resposta. Em **Tokens de raciocínio**, é possível configurar o número de tokens de raciocínio que o modelo pode usar. 

     1. Em **Campos adicionais de solicitação de modelo**, escolha **Configurar** para especificar outros parâmetros de inferência, além daqueles que estão em **Parâmetros de inferência**. 

     1. Se o modelo escolhido permitir o uso de ferramentas, escolha **Configurar ferramentas** para usar ferramentas com o prompt.

     1. Se o modelo escolhido permitir [armazenamento em cache de prompts](prompt-caching.md), selecione uma das seguintes opções (a disponibilidade varia de acordo com o modelo):
        + **Nenhum**: nenhum armazenamento em cache de prompts é feito.
        + **Ferramentas**: somente as ferramentas no prompt são armazenadas em cache.
        + **Ferramentas e instruções do sistema**: as ferramentas e as instruções do sistema no prompt são armazenadas em cache.
        + **Ferramentas, instruções do sistema e mensagens**: as ferramentas, instruções do sistema e mensagens (usuário e assistente) no prompt são armazenadas em cache.
   + Para comparar diferentes variantes do prompt, escolha **Comparar variantes**. Você pode fazer o seguinte na página de comparação:
     + Para adicionar uma variante, escolha o sinal de adição. É possível adicionar até três variantes.
     + Depois de especificar os detalhes de uma variante, é possível especificar qualquer **Variável de teste** e escolher **Executar** para testar a saída da variante.
     + Para excluir uma variante, escolha os três pontos e selecione **Remover da comparação**.
     + Para substituir o rascunho de trabalho e sair do modo de comparação, escolha **Salvar como rascunho**. Todas as outras variantes serão excluídas.
     + Para sair do modo de comparação, escolha **Sair do modo de comparação**.

1. Você tem as seguintes opções para concluir a configuração do prompt:
   + Para salvar o prompt, escolha **Salvar rascunho**. Para obter mais informações sobre a versão do rascunho, consulte [Implantar um prompt em sua aplicação usando versões no Gerenciamento de Prompts](prompt-management-deploy.md).
   + Para excluir o prompt, escolha **Excluir**. Para obter mais informações, consulte [Excluir um prompt no Gerenciamento de Prompts](prompt-management-delete.md).
   + Para criar uma versão do prompt, escolha **Criar versão**. Para obter mais informações sobre versionamento de prompts, consulte [Implantar um prompt em sua aplicação usando versões no Gerenciamento de Prompts](prompt-management-deploy.md).

------
#### [ API ]

Para criar um prompt, envie uma solicitação [CreatePrompt](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreatePrompt.html) com um [endpoint de tempo de compilação do recurso Agentes para Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt).

Os seguintes campos são obrigatórios:


****  

| Campo | Descrição resumida | 
| --- | --- | 
| name | Um nome para o prompt. | 
| variants | Uma lista de diferentes configurações para o prompt (consulte abaixo). | 
| defaultVariant | O nome da variante padrão. | 

Cada variante na lista `variants` é um objeto [PromptVariant](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_PromptVariant.html) da seguinte estrutura geral:

```
{
        "name": "string",
        # modelId or genAiResource (see below)
        "templateType": "TEXT",
        "templateConfiguration": # see below,
        "inferenceConfiguration": {
            "text": {
                "maxTokens": int,
                "stopSequences": ["string", ...],
                "temperature": float,
                "topP": float
            }
        },
        "additionalModelRequestFields": {
            "key": "value",
            ...
        },
        "metadata": [
            {
                "key": "string",
                "value": "string"
            },
            ...
        ]
}
```

Preencha os campos da seguinte forma:
+ name: insira um nome para a variante.
+ Inclua um desses campos de acordo com o recurso de invocação de modelo utilizado:
  + modelId: para especificar um [modelo de base](models-supported.md) ou [perfil de inferência](cross-region-inference.md) a ser usado com o prompt, insira o respectivo ARN ou ID.
  + genAiResource: para especificar um [agente](agents.md), insira o respectivo ID ou ARN. O valor do `genAiResource` é um objeto JSON no seguinte formato:

    ```
    {
        "genAiResource": {
        "agent": {
            "agentIdentifier": "string"
        }   
    }
    ```
**nota**  
Se você incluir o campo `genAiResource`, só poderá testar o prompt no console. Para testar um prompt com um agente na API, você deve inserir o texto do prompt diretamente no campo `inputText` da solicitação [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_InvokeAgent.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_InvokeAgent.html).
+ templateType: digite `TEXT` ou `CHAT`. Só é possível usar `CHAT` com modelos compatíveis com a API [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html). Para usar o armazenamento em cache de prompts, é necessário utilizar o tipo de modelo `CHAT`.
+ templateConfiguration: o valor depende do tipo de modelo que você especificou:
  + Se você especificou `TEXT` como tipo de modelo, o valor deverá ser um objeto JSON [TextPromptTemplateConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_TextPromptTemplateConfiguration.html.html).
  + Se você especificou `CHAT` como tipo de modelo, o valor deverá ser um objeto JSON [ChatPromptTemplateConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ChatPromptTemplateConfiguration.html.html).
+ inferenceConfiguration: o campo `text` é associado a um [PromptModelInferenceConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_PromptModelInferenceConfiguration.html.html). Esse campo contém parâmetros de inferência que são comuns a todos os modelos. Para saber mais sobre parâmetros de inferência, consulte [Geração de resposta de influência com parâmetros de inferência](inference-parameters.md).
+ additionalModelRequestFields: use esse campo para especificar parâmetros de inferência específicos do modelo com o qual você está executando a inferência. Para saber mais sobre parâmetros de inferência específicos ao modelo, consulte [Parâmetros de solicitação de inferência e campos de resposta para modelos de base](model-parameters.md).
+ metadata: metadados a serem associados à variante do prompt. Você pode acrescentar pares de chave-valor à matriz para marcar a variante do prompt com metadados.

Os seguintes campos são opcionais:


****  

| Campo | Caso de uso | 
| --- | --- | 
| description | Para fornecer uma descrição do prompt. | 
| clientToken | Para garantir que a solicitação de API seja concluída apenas uma vez. Para obter mais informações, consulte [Ensuring idempotency](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 
| tags | Para associar tags ao fluxo. Para obter mais informações, consulte [Marcação de recursos do Amazon Bedrock](tagging.md). | 

A resposta cria uma versão `DRAFT` e exibe um ID e um ARN que você pode usar como identificador de prompts para outras solicitações de API relacionadas ao prompt.

------