

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Construir e armazenar prompts reutilizáveis com o Gerenciamento de Prompts do Amazon Bedrock
gerenciamento de prompts

O Amazon Bedrock oferece a capacidade de criar e salvar seus próprios prompts usando o Gerenciamento de Prompts para que você possa economizar tempo aplicando o mesmo prompt a diferentes fluxos de trabalho. Ao criar um prompt, é possível selecionar um modelo para executar a inferência nele e modificar os parâmetros de inferência a serem usados. É possível incluir variáveis no prompt para poder ajustá-lo para diferentes casos de uso.

Ao testar o prompt, você tem a opção de comparar diferentes variantes do prompt e escolher a variante que produz saídas mais adequadas para o caso de uso. Ao iterar no prompt, é possível salvar versões dele. Você integra um prompt à aplicação com a ajuda do recurso [Fluxos do Amazon Bedrock](flows.md).

Veja a seguir o fluxo de trabalho geral para usar o Gerenciamento de Prompts:

1. Crie um prompt no Gerenciamento de Prompts que deseja reutilizar em diferentes casos de uso. Inclua variáveis para fornecer flexibilidade no prompt do modelo.

1. Escolha um modelo, um perfil de inferência ou um agente para executar inferência no prompt e modifique as configurações de inferência conforme necessário.

1. Preencha os valores de teste das variáveis e execute o prompt. É possível criar variantes do prompt e comparar as saídas de diferentes variantes para escolher a melhor para o caso de uso.

1. Integre o prompt à sua aplicação de uma das seguintes maneiras:
   + Especifique o prompt ao [executar a inferência do modelo](inference.md).
   + Adicione um nó de prompt a um [fluxo](flows.md) e especifique o prompt.

**Topics**
+ [

## Definições de chaves
](#prompt-management-definitions)
+ [

# Regiões e modelos compatíveis com o Gerenciamento de Prompts
](prompt-management-supported.md)
+ [

# Pré-requisitos do gerenciamento de prompts
](prompt-management-prereq.md)
+ [

# Criar um prompt usando o Gerenciamento de Prompts
](prompt-management-create.md)
+ [

# Visualizar informações sobre prompts usando o Gerenciamento de Prompts
](prompt-management-view.md)
+ [

# Modificar um prompt usando o Gerenciamento de Prompts
](prompt-management-modify.md)
+ [

# Testar um prompt usando o Gerenciamento de Prompts
](prompt-management-test.md)
+ [

# Otimizar um prompt
](prompt-management-optimize.md)
+ [

# Implantar um prompt em sua aplicação usando versões no Gerenciamento de Prompts
](prompt-management-deploy.md)
+ [

# Excluir um prompt no Gerenciamento de Prompts
](prompt-management-delete.md)
+ [

# Executar exemplos de código do Gerenciamento de Prompts
](prompt-management-code-ex.md)

## Definições de chaves


A lista a seguir apresenta os conceitos básicos do Gerenciamento de Prompts:
+ **Prompt**: uma entrada fornecida a um modelo para orientá-lo para gerar uma resposta ou saída adequada.
+ **Variável**: um espaço reservado que pode ser incluído no prompt. É possível incluir valores para cada variável ao testar o prompt ou ao invocar o modelo em runtime.
+ **Variante do prompt**: uma configuração alternativa do prompt, incluindo sua mensagem ou as configurações de modelo ou de inferência usadas. É possível criar diferentes variantes de um prompt, testá-las e salvar a variante que deseja manter.
+ **Construtor de prompts**: uma ferramenta no console do Amazon Bedrock que permite criar, editar e testar prompts e suas variantes em uma interface visual.

# Regiões e modelos compatíveis com o Gerenciamento de Prompts
Regiões e modelos compatíveis

O gerenciamento imediato é suportado no seguinteRegiões da AWS:
+ ap-northeast-1
+ ap-northeast-2
+ ap-northeast-3
+ ap-south-1
+ ap-south-2
+ ap-southeast-1
+ ap-southeast-2
+ ca-central-1
+ eu-central-1
+ eu-central-2
+ eu-north-1
+ eu-south-1
+ eu-south-2
+ eu-west-1
+ eu-west-2
+ eu-west-3
+ sa-east-1
+ us-east-1
+ us-east-2
+ us-gov-east-1
+ us-gov-west-1
+ us-west-2

É possível usar o Gerenciamento de Prompts com qualquer modelo de texto compatível com a API [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html). Para ver uma lista dos modelos compatíveis, consulte [Modelos compatíveis e recursos do modelo](conversation-inference-supported-models-features.md).

**nota**  
[InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)e [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html)só funciona em solicitações do gerenciamento de prompts cuja configuração especifica um modelo Anthropic Claude or MetaLlama.

# Pré-requisitos do gerenciamento de prompts
Pré-requisitos

Para que um perfil use o Gerenciamento de Prompts, você precisa permitir que ele execute determinado conjunto de ações de API. Analise os seguintes pré-requisitos e atenda aos que se aplicam ao seu caso de uso:

1. Se sua função tiver a política [AmazonBedrockFullAccess](security-iam-awsmanpol.md#security-iam-awsmanpol-AmazonBedrockFullAccess)AWSgerenciada anexada, você poderá pular esta seção. Caso contrário, siga as etapas em [Atualizar a política de permissões de um perfil](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_update-role-permissions.html#id_roles_update-role-permissions-policy) e anexe a seguinte política a um perfil para fornecer permissões para executar ações relacionadas ao Gerenciamento de Prompts:

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [
           {
               "Sid": "PromptManagementPermissions",
               "Effect": "Allow",
               "Action": [
                   "bedrock:CreatePrompt",
                   "bedrock:UpdatePrompt",
                   "bedrock:GetPrompt",
                   "bedrock:ListPrompts",
                   "bedrock:DeletePrompt",
                   "bedrock:CreatePromptVersion",
                   "bedrock:OptimizePrompt",
                   "bedrock:GetFoundationModel",
                   "bedrock:ListFoundationModels",
                   "bedrock:GetInferenceProfile",
                   "bedrock:ListInferenceProfiles",
                   "bedrock:InvokeModel",
                   "bedrock:InvokeModelWithResponseStream",
                   "bedrock:RenderPrompt",
                   "bedrock:TagResource",
                   "bedrock:UntagResource",
                   "bedrock:ListTagsForResource"
               ],
               "Resource": "*"
           }
       ]
   }
   ```

------

   Para restringir ainda mais as permissões, você pode omitir ações ou especificar chaves de recurso e de condição que devem ser usadas para filtrar permissões. Para ter mais informações sobre ações, recursos e chaves de condição, consulte os tópicos a seguir na *Referência de autorização do serviço*.
   + [Ações definidas pelo Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-actions-as-permissions): saiba mais sobre as ações, os tipos de recurso para os quais é possível definir um escopo de ação no campo `Resource` e as chaves de condição nas quais você pode filtrar as permissões no campo `Condition`.
   + [Tipos de recursos definidos pelo Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-resources-for-iam-policies): saiba mais sobre os tipos de recurso no Amazon Bedrock.
   + [Chaves de condição para o Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-policy-keys): saiba mais sobre as chaves de condição no Amazon Bedrock.
**nota**  
Se você planeja implantar seu prompt usando a API [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html), consulte [Pré-requisitos para executar a inferência do modelo](inference-prereq.md) para saber quais permissões você deve configurar para invocar um prompt.
Se você planeja usar um [fluxo](flows.md) no recursos Fluxos do Amazon Bedrock para implantar seu prompt, consulte [Pré-requisitos do recurso Fluxos do Amazon Bedrock](flows-prereq.md) para saber quais permissões você deve configurar para criar um fluxo.

1. Se você planeja criptografar seu prompt com uma chave gerenciada pelo cliente em vez de usar uma Chave gerenciada pela AWS (para obter mais informações, consulte [AWS KMSchaves](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html)), crie as seguintes políticas:

   1. Siga as etapas em [Criação de uma política de chaves](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-overview.html) e anexe a seguinte política de chaves a uma chave KMS para permitir que o Amazon Bedrock criptografe e descriptografe um prompt com a chave, substituindo-a conforme necessário. *values* A política contém chaves de condição opcionais (consulte [Chaves de condição do Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-policy-keys) e [Chaves de contexto de condição globais da AWS](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-policy-keys)) no campo `Condition` que devem ser usadas como uma prática recomendada de segurança.

      ```
      {
          "Sid": "EncryptFlowKMS",
          "Effect": "Allow",
          "Principal": {
              "Service": "bedrock.amazonaws.com"
          },
          "Action": [
              "kms:GenerateDataKey",
              "kms:Decrypt"
          ],
          "Resource": "*",
          "Condition": {
              "StringEquals": {
                  "kms:EncryptionContext:aws:bedrock-prompts:arn": "arn:${partition}:bedrock:${region}:${account-id}:prompt/${prompt-id}"
              }
          }
      }
      ```

   1. Siga as etapas em [Atualizar a política de permissões de uma função](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_update-role-permissions.html#id_roles_update-role-permissions-policy) e anexe a política a seguir à função de gerenciamento de prompts, substituindo-a *values* conforme necessário, para permitir que ela gere e descriptografe a chave gerenciada pelo cliente para uma solicitação. A política contém chaves de condição opcionais (consulte [Chaves de condição do Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-policy-keys) e [Chaves de contexto de condição globais da AWS](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-policy-keys)) no campo `Condition` que devem ser usadas como uma prática recomendada de segurança.

      ```
      {
          "Sid": "KMSPermissions",
          "Effect": "Allow",
          "Action": [
              "kms:GenerateDataKey",
              "kms:Decrypt"
          ],
          "Resource": [
              "arn:aws:kms:${region}:${account-id}:key/${key-id}"
          ],
           "Condition": {
              "StringEquals": {
                  "aws:ResourceAccount": "${account-id}"
              }
          }
      }
      ```

# Criar um prompt usando o Gerenciamento de Prompts
Criar um prompt

Ao criar um prompt, você tem as seguintes opções:
+ Escreva a mensagem do prompt que funciona como uma entrada para um FM gerar uma saída.
+ Use chaves duplas para incluir variáveis (como em *\$1\$1variable\$1\$1*) na mensagem de prompt que pode ser preenchida ao chamar o prompt.
+ Escolha um modelo com o qual invocar o prompt ou, se você planeja usar o prompt com um agente, deixe-o sem especificação. Se escolher um modelo, você também poderá modificar as configurações de inferência a serem usadas. Para consultar os parâmetros de inferência para diversos modelos, consulte[Parâmetros de solicitação de inferência e campos de resposta para modelos de base](model-parameters.md).

Todos os prompts comportam os seguintes parâmetros básicos de inferência:
+ **maxTokens**: o número máximo de tokens a serem permitidos na resposta gerada. 
+ **stopSequences**: uma lista de sequências de parada. Uma sequência de parada é uma sequência de caracteres que faz com que o modelo interrompa a geração da resposta. 
+ **temperature**: a probabilidade do modelo selecionar opções de maior probabilidade ao gerar uma resposta. 
+ **topP**: a porcentagem de candidatos mais prováveis que o modelo considera para o próximo token.

Se um modelo aceitar outros parâmetros de inferência, você poderá especificá-los como *campos adicionais* para seu prompt. Você deve fornecer os campos adicionais em um objeto JSON. O exemplo a seguir mostra como definir o `top_k`, que está disponível nos modelos Claude da Anthropic, mas não é um parâmetro básico de inferência. 

```
{
    "top_k": 200
}
```

Para ter informações sobre parâmetros de inferência de modelo, consulte [Parâmetros de solicitação de inferência e campos de resposta para modelos de base](https://docs.aws.amazon.com/bedrock/latest/userguide/model-parameters.html).

Definir um parâmetro de inferência básico como um campo adicional não substitui o valor definido no console.

Se o modelo escolhido para o prompt for compatível com a API [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) (para ter mais informações, consulte [Realizar uma conversa com as operações de API Converse](conversation-inference.md)), você pode incluir o seguinte ao criar o prompt:
+ Um prompt do sistema para fornecer instruções ou contexto ao modelo.
+ Prompts anteriores (mensagens do usuário) e respostas do modelo (mensagens do assistente) como histórico de conversação a ser considerado pelo modelo ao gerar uma resposta para a mensagem final do usuário.
+ (Se permitido pelo modelo) [Ferramentas](tool-use.md) para o modelo usar ao gerar a resposta.
+ (Se permitido pelo modelo) Use o [armazenamento em cache de prompts](prompt-caching.md) para reduzir os custos armazenando em cache os prompts grandes ou usados com frequência. Dependendo do modelo, é possível armazenar instruções do sistema, ferramentas e mensagens (usuário e assistente) em cache. O armazenamento em cache de prompts criará um ponto de verificação de cache para o prompt se o prefixo total do prompt atender ao número mínimo de tokens exigidos pelo modelo. Quando uma variável alterada é encontrada em um prompt, o armazenamento em cache de prompts cria outro ponto de verificação de cache (se o número de tokens de entrada atingir o mínimo exigido pelo modelo).

Para saber como criar um prompt usando o Gerenciamento de Prompts, escolha a guia correspondente ao método de sua preferência e siga as etapas:

------
#### [ Console ]

**Para criar um aviso**

1. Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console do Amazon Bedrock. Em seguida, abra o console do Amazon Bedrock em [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock).

1. No painel de navegação à esquerda, selecione **Gerenciamento de prompts**. Em seguida, escolha **Criar prompt**.

1. Forneça um nome para o prompt e uma descrição opcional.

1. Para criptografar o prompt com uma chave gerenciada pelo cliente, selecione **Personalizar configurações de criptografia (avançado)** na seção **Seleção de chave do KMS**. Se você omitir esse campo, o prompt será criptografado com uma Chave gerenciada pela AWS. Para ter mais informações, consulte [Chaves do AWS KMS](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html).

1. Escolha **Criar prompt**. O prompt é criado, e você vai até o **construtor de prompts** do prompt recém-criado, em que pode configurá-lo.

1. Você pode continuar o procedimento a seguir para configurar o prompt ou retornar ao construtor de prompts depois.

**Como configurar o prompt**

1. Se você ainda não estiver no construtor de prompts, faça o seguinte:

   1. Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console do Amazon Bedrock. Em seguida, abra o console do Amazon Bedrock em [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock).

   1. No painel de navegação à esquerda, selecione **Gerenciamento de prompts**. Em seguida, escolha um prompt na seção **Prompts**.

   1. Na seção **Rascunho do prompt**, escolha **Editar no construtor de prompts**.

1. Use o painel **Prompt** para criar o prompt. Insira o prompt na última caixa **Mensagem do usuário**. Se o modelo permitir o uso da API [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) ou da [API Messages do Claude da Anthropic](model-parameters-anthropic-claude-messages.md), você também poderá incluir um **prompt do sistema**, bem como **mensagens do usuário** e **mensagens do assistente** anteriores, para oferecer contexto.

   Ao escrever um prompt, é possível incluir variáveis entre chaves duplas (como em *\$1\$1variable\$1\$1*). Toda variável incluída por você é exibida na seção **Variáveis de teste**.

1. (Opcional) É possível modificar o prompt das seguintes maneiras:
   + No painel **Configurações**, faça o seguinte:

     1. Escolha um **recurso de IA generativa** para executar inferências.
**nota**  
Se você escolher um agente, só poderá testar o prompt no console. Para saber como testar um prompt com um agente na API, consulte [Testar um prompt usando o Gerenciamento de Prompts](prompt-management-test.md).

     1. Em **Parâmetros de inferência**, defina os parâmetros de inferência que deseja usar. 

     1. Se o modelo permitir [raciocínio](inference-reasoning.md), ative o **Raciocínio** para incluir o raciocínio do modelo na resposta. Em **Tokens de raciocínio**, é possível configurar o número de tokens de raciocínio que o modelo pode usar. 

     1. Em **Campos adicionais de solicitação de modelo**, escolha **Configurar** para especificar outros parâmetros de inferência, além daqueles que estão em **Parâmetros de inferência**. 

     1. Se o modelo escolhido permitir o uso de ferramentas, escolha **Configurar ferramentas** para usar ferramentas com o prompt.

     1. Se o modelo escolhido permitir [armazenamento em cache de prompts](prompt-caching.md), selecione uma das seguintes opções (a disponibilidade varia de acordo com o modelo):
        + **Nenhum**: nenhum armazenamento em cache de prompts é feito.
        + **Ferramentas**: somente as ferramentas no prompt são armazenadas em cache.
        + **Ferramentas e instruções do sistema**: as ferramentas e as instruções do sistema no prompt são armazenadas em cache.
        + **Ferramentas, instruções do sistema e mensagens**: as ferramentas, instruções do sistema e mensagens (usuário e assistente) no prompt são armazenadas em cache.
   + Para comparar diferentes variantes do prompt, escolha **Comparar variantes**. Você pode fazer o seguinte na página de comparação:
     + Para adicionar uma variante, escolha o sinal de adição. É possível adicionar até três variantes.
     + Depois de especificar os detalhes de uma variante, é possível especificar qualquer **Variável de teste** e escolher **Executar** para testar a saída da variante.
     + Para excluir uma variante, escolha os três pontos e selecione **Remover da comparação**.
     + Para substituir o rascunho de trabalho e sair do modo de comparação, escolha **Salvar como rascunho**. Todas as outras variantes serão excluídas.
     + Para sair do modo de comparação, escolha **Sair do modo de comparação**.

1. Você tem as seguintes opções para concluir a configuração do prompt:
   + Para salvar o prompt, escolha **Salvar rascunho**. Para obter mais informações sobre a versão do rascunho, consulte [Implantar um prompt em sua aplicação usando versões no Gerenciamento de Prompts](prompt-management-deploy.md).
   + Para excluir o prompt, escolha **Excluir**. Para obter mais informações, consulte [Excluir um prompt no Gerenciamento de Prompts](prompt-management-delete.md).
   + Para criar uma versão do prompt, escolha **Criar versão**. Para obter mais informações sobre versionamento de prompts, consulte [Implantar um prompt em sua aplicação usando versões no Gerenciamento de Prompts](prompt-management-deploy.md).

------
#### [ API ]

Para criar um prompt, envie uma solicitação [CreatePrompt](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreatePrompt.html) com um [endpoint de tempo de compilação do recurso Agentes para Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt).

Os seguintes campos são obrigatórios:


****  

| Campo | Descrição resumida | 
| --- | --- | 
| name | Um nome para o prompt. | 
| variants | Uma lista de diferentes configurações para o prompt (consulte abaixo). | 
| defaultVariant | O nome da variante padrão. | 

Cada variante na lista `variants` é um objeto [PromptVariant](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_PromptVariant.html) da seguinte estrutura geral:

```
{
        "name": "string",
        # modelId or genAiResource (see below)
        "templateType": "TEXT",
        "templateConfiguration": # see below,
        "inferenceConfiguration": {
            "text": {
                "maxTokens": int,
                "stopSequences": ["string", ...],
                "temperature": float,
                "topP": float
            }
        },
        "additionalModelRequestFields": {
            "key": "value",
            ...
        },
        "metadata": [
            {
                "key": "string",
                "value": "string"
            },
            ...
        ]
}
```

Preencha os campos da seguinte forma:
+ name: insira um nome para a variante.
+ Inclua um desses campos de acordo com o recurso de invocação de modelo utilizado:
  + modelId: para especificar um [modelo de base](models-supported.md) ou [perfil de inferência](cross-region-inference.md) a ser usado com o prompt, insira o respectivo ARN ou ID.
  + genAiResource: para especificar um [agente](agents.md), insira o respectivo ID ou ARN. O valor do `genAiResource` é um objeto JSON no seguinte formato:

    ```
    {
        "genAiResource": {
        "agent": {
            "agentIdentifier": "string"
        }   
    }
    ```
**nota**  
Se você incluir o campo `genAiResource`, só poderá testar o prompt no console. Para testar um prompt com um agente na API, você deve inserir o texto do prompt diretamente no campo `inputText` da solicitação [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_InvokeAgent.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_InvokeAgent.html).
+ templateType: digite `TEXT` ou `CHAT`. Só é possível usar `CHAT` com modelos compatíveis com a API [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html). Para usar o armazenamento em cache de prompts, é necessário utilizar o tipo de modelo `CHAT`.
+ templateConfiguration: o valor depende do tipo de modelo que você especificou:
  + Se você especificou `TEXT` como tipo de modelo, o valor deverá ser um objeto JSON [TextPromptTemplateConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_TextPromptTemplateConfiguration.html.html).
  + Se você especificou `CHAT` como tipo de modelo, o valor deverá ser um objeto JSON [ChatPromptTemplateConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ChatPromptTemplateConfiguration.html.html).
+ inferenceConfiguration: o campo `text` é associado a um [PromptModelInferenceConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_PromptModelInferenceConfiguration.html.html). Esse campo contém parâmetros de inferência que são comuns a todos os modelos. Para saber mais sobre parâmetros de inferência, consulte [Geração de resposta de influência com parâmetros de inferência](inference-parameters.md).
+ additionalModelRequestFields: use esse campo para especificar parâmetros de inferência específicos do modelo com o qual você está executando a inferência. Para saber mais sobre parâmetros de inferência específicos ao modelo, consulte [Parâmetros de solicitação de inferência e campos de resposta para modelos de base](model-parameters.md).
+ metadata: metadados a serem associados à variante do prompt. Você pode acrescentar pares de chave-valor à matriz para marcar a variante do prompt com metadados.

Os seguintes campos são opcionais:


****  

| Campo | Caso de uso | 
| --- | --- | 
| description | Para fornecer uma descrição do prompt. | 
| clientToken | Para garantir que a solicitação de API seja concluída apenas uma vez. Para obter mais informações, consulte [Ensuring idempotency](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 
| tags | Para associar tags ao fluxo. Para obter mais informações, consulte [Marcação de recursos do Amazon Bedrock](tagging.md). | 

A resposta cria uma versão `DRAFT` e exibe um ID e um ARN que você pode usar como identificador de prompts para outras solicitações de API relacionadas ao prompt.

------

# Visualizar informações sobre prompts usando o Gerenciamento de Prompts
Visualizar informações sobre prompts

Para saber como visualizar informações sobre prompts usando o Gerenciamento de Prompts, escolha a guia correspondente ao método de sua preferência e siga as etapas:

------
#### [ Console ]

**Como visualizar informações sobre um prompt**

1. Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console do Amazon Bedrock. Em seguida, abra o console do Amazon Bedrock em [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock).

1. No painel de navegação à esquerda, selecione **Gerenciamento de prompts**. Em seguida, escolha um prompt na seção **Prompts**.

1. A página **Detalhes do prompt** inclui as seguintes seções:
   + **Visão geral**: contém informações gerais sobre o prompt e quando ele foi criado e atualizado pela última vez.
   + **Rascunho do prompt**: contém a mensagem do prompt e as configurações da última versão de rascunho salva do prompt.
   + **Versões do prompt**: uma lista de todas as versões do prompt que foram criadas. Para obter mais informações sobre as versões de prompts, consulte [Implantar um prompt em sua aplicação usando versões no Gerenciamento de Prompts](prompt-management-deploy.md).

------
#### [ API ]

Para ter informações sobre um prompt, envie uma solicitação [GetPrompt](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetPrompt.html) com um [endpoint de tempo de compilação do recurso Agentes para Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) e especifique o ARN ou o ID do prompt como o `promptIdentifier`. Para excluir uma versão específica do prompt, especifique o `DRAFT` ou o número da versão no campo `promptVersion`.

Para listar informações sobre seus agentes, envie uma solicitação [ListPrompts](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListPrompts.html) com um [endpoint de tempo de compilação do recurso Agentes para Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). É possível especificar os seguintes parâmetros opcionais:


****  

| Campo | Descrição breve | 
| --- | --- | 
| maxResults | O número máximo de resultados a serem apresentados em uma resposta. | 
| nextToken | Se houver mais resultados do que o número especificado no campo maxResults, a resposta exibirá um valor de nextToken. Para ver o próximo lote de resultados, envie o valor de nextToken em outra solicitação. | 

------

# Modificar um prompt usando o Gerenciamento de Prompts
Modificar um prompt

Para saber como modificar prompts usando o Gerenciamento de Prompts, escolha a guia correspondente ao método de sua preferência e siga as etapas:

------
#### [ Console ]

**Como modificar um prompt**

1. Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console do Amazon Bedrock. Em seguida, abra o console do Amazon Bedrock em [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock).

1. No painel de navegação à esquerda, selecione **Gerenciamento de prompts**. Em seguida, escolha um prompt na seção **Prompts**.

1. Para editar o **nome** ou a **descrição** do prompt, escolha **Editar** na seção **Visão geral**. Depois de fazer as edições, escolha **Salvar**.

1. Para modificar o prompt e suas configurações, escolha **Editar no construtor de prompts**

1. Para saber mais sobre as partes do prompt que você pode modificar, consulte [Criar um prompt usando o Gerenciamento de Prompts](prompt-management-create.md).

------
#### [ API ]

Para modificar um prompt, envie uma solicitação [UpdatePrompt](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_UpdatePrompt.html) com um [endpoint de tempo de compilação do recurso Agentes para Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Inclua os dois campos que deseja manter e os campos que deseja alterar.

------

# Testar um prompt usando o Gerenciamento de Prompts
Testar um prompt

Para saber como testar um prompt usando o Gerenciamento de Prompts, escolha a guia correspondente ao método de sua preferência e siga as etapas:

------
#### [ Console ]

**Como testar um prompt no Gerenciamento de Prompts**

1. Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console do Amazon Bedrock. Em seguida, abra o console do Amazon Bedrock em [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock).

1. No painel de navegação à esquerda, selecione **Gerenciamento de prompts**. Em seguida, escolha um prompt na seção **Prompts**.

1. Escolha **Editar no construtor de prompts** na seção **Rascunho do prompt** ou escolha uma versão do prompt na seção **Versões**.

1. (Opcional) Para fornecer valores para variáveis no prompt, selecione um modelo no painel **Configurações**. Insira um **Valor de teste** para cada variável no painel **Testar variáveis**.
**nota**  
Esses valores de teste são temporários e não serão salvos se você salvar o prompt.

1. Para testar o prompt, escolha **Executar** no painel **Janela de teste**.

1. Modifique o prompt ou suas configurações e execute o prompt novamente conforme necessário. Se o prompt estiver adequado, você poderá escolher **Criar versão** para criar um snapshot do prompt que possa ser usado na produção. Para obter mais informações, consulte [Implantar um prompt em sua aplicação usando versões no Gerenciamento de Prompts](prompt-management-deploy.md).

Também é possível testar o prompt das seguintes maneiras:
+ Para testar o prompt em um fluxo, inclua um nó de prompt no fluxo. Para obter mais informações, consulte [Criar e planejar um fluxo no Amazon Bedrock](flows-create.md) e [Tipos de nó para o fluxo](flows-nodes.md).
+ Se você não configurou seu prompt com um agente, ainda pode testar o prompt com um agente importando-o ao testar um agente. Para obter mais informações, consulte [Testar e solucionar problemas de comportamento do agente](agents-test.md).

------
#### [ API ]

Você pode invocar um prompt das seguintes maneiras:
+ Para executar inferência no prompt, envie uma solicitação [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html), [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html), [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) ou [ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html) com um [endpoint de runtime do Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-rt) e especifique o ARN do prompt no parâmetro `modelId`.
**nota**  
As seguintes restrições se aplicam quando você usa um prompt do Gerenciamento de Prompts com `Converse` ou `ConverseStream`:  
Não é possível incluir os campos `additionalModelRequestFields`, `inferenceConfig`, `system` ou `toolConfig`.
Se você incluir o campo `messages`, as mensagens serão anexadas após as mensagens definidas no prompt.
Se você incluir o campo `guardrailConfig`, a barreira de proteção será aplicada a todo o prompt. Se você incluir blocos `guardContent` no campo [ContentBlock](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ContentBlock.html), a barreira de proteção só será aplicada a esses blocos.
+ Para testar um prompt em um fluxo, crie ou edite um fluxo enviando [CreateFlow](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateFlow.html) ou [UpdateFlow](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_UpdateFlow.html) com um [endpoint de tempo de compilação do recurso Agentes para Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt). Inclua um SDK para JavaScript no Node.js do tipo `PromptNode` e inclua o ARN do prompt no campo `promptArn`. Em seguida, envie uma solicitação [InvokeFlow](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_InvokeFlow.html) com um [endpoint de runtime do recurso Agentes para Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-rt). Para obter mais informações, consulte [Criar e planejar um fluxo no Amazon Bedrock](flows-create.md) e [Tipos de nó para o fluxo](flows-nodes.md).
+ Para testar o prompt com um agente, use o console do Amazon Bedrock (consulte a guia **Console**) ou insira o texto do prompt no campo `inputText` de uma solicitação [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_InvokeAgent.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_InvokeAgent.html).

------

# Otimizar um prompt
Otimizar um prompt

O Amazon Bedrock oferece uma ferramenta para otimizar os prompts. A otimização reescreve os prompts para gerar resultados de inferência mais adequados ao seu caso de uso. Você pode escolher o modelo para o qual deseja otimizar o prompt e, em seguida, gerar um prompt revisto. 

Depois de enviar um prompt para otimização, o Amazon Bedrock analisa os componentes do prompt. Se a análise for bem-sucedida, ela reescreverá o prompt. Em seguida, você pode copiar e usar o texto do prompt otimizado. 

**nota**  
Para obter melhores resultados, recomendamos otimizar os prompts em inglês.

**Topics**
+ [

## Regiões e modelos compatíveis com otimização de prompts
](#prompt-management-optimize-supported)
+ [

## Enviar um prompt para otimização
](#prompt-management-optimize-submit)

## Regiões e modelos compatíveis com otimização de prompts
Regiões e modelos compatíveis

A tabela a seguir mostra o suporte do modelo para otimização imediata:


| Fornecedor | Modelo | ID do modelo | Suporte ao modelo de região única | 
| --- | --- | --- | --- | 
| Amazon | Nova Lite | amazônia. nova-lite-v1:0 |  ap-southeast-2 eu-west-2 us-east-1  | 
| Amazon | Nova Micro | amazônia. nova-micro-v1:0 |  ap-southeast-2 eu-west-2 us-east-1  | 
| Amazon | Nova Premier | amazônia. nova-premier-v1:0 |  | 
| Amazon | Nova Pro | amazônia. nova-pro-v1:0 |  ap-southeast-2 eu-west-2 us-east-1  | 
| Anthropic | Claude 3 Haiku | anthropic.claude-3-haiku-20240307-v1:0 |  ap-south-1 ap-southeast-2 ca-central-1 eu-central-1 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  | 
| Anthropic | Claude 3 Opus | anthropic.claude-3-opus-20240229-v 1:0 |  | 
| Anthropic | Claude 3 Sonnet | anthropic.claude-3-sonnet-20240229-v1:0 |  ap-south-1 ap-southeast-2 ca-central-1 eu-central-1 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  | 
| Anthropic | Claude 3.5 Haiku | anthropic.claude-3-5-haiku-20241022-v1:0 |  us-west-2  | 
| Anthropic | Claude 3.5 Sonnet | anthropic.claude-3-5-sonnet-20240620-v1:0 |  eu-central-1 us-east-1 us-west-2  | 
| Anthropic | Claude 3.5 Sonnet v2 | anthropic.claude-3-5-sonnet-20241022-v2:0 |  ap-southeast-2 us-west-2  | 
| Anthropic | Claude 3.7 Sonnet | anthropic.claude-3-7-sonnet-20250219-v 1:0 |  eu-west-2  | 
| Anthropic | Claude Opus 4 | anthropic.claude-opus-4-20250514-v1:0 |  | 
| Anthropic | Claude Sonnet 4 | anthropic.claude-sonnet-4-20250514-v1:0 |  | 
| DeepSeek | DeepSeek-R1 | deepseek.r1-v1:0 |  | 
| Meta | Llama 3 70B Instruct | meta.llama3-70 1:0 b-instruct-v |  ap-south-1 ca-central-1 eu-west-2 us-east-1 us-west-2  | 
| Meta | Llama 3.1 70B Instruct | meta.llama3-1-70 1:0 b-instruct-v |  us-west-2  | 
| Meta | Instrução Llama 3.2 11B | meta.llama3-2-11 1:0 b-instruct-v |  | 
| Meta | Llama 3.3 70B Instruct | meta.llama3-3-70 1:0 b-instruct-v |  | 
| Meta | Llama 4 Maverick 17B Instruct | b-instruct-vmeta.llama4-maverick-17 1:0 |  | 
| Meta | Llama 4 Scout 17B Instruct | b-instruct-vmeta.llama4-scout-17 1:0 |  | 
| Mistral AI | Mistral Large (24.02) | mistral.mistral-large-2402-v1:0 |  ap-south-1 ap-southeast-2 ca-central-1 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  | 
| Mistral AI | Mistral Large (24.07) | mistral.mistral-large-2407-v1:0 |  us-west-2  | 

## Enviar um prompt para otimização


Para saber como otimizar um prompt, escolha a guia correspondente ao método de sua preferência e siga as etapas:

------
#### [ Console ]

É possível otimizar um prompt usando um playground ou o Gerenciamento de Prompts no Console de gerenciamento da AWS. Primeiro você deve selecionar um modelo para poder otimizar um prompt. O prompt é otimizado para o modelo que você escolher.

**Como otimizar um prompt em um playground**

1. Para saber como escrever um prompt em um playground do Amazon Bedrock, siga as etapas em [Gerar respostas no console usando playgrounds](playgrounds.md).

1. Depois de escrever um prompt e selecionar um modelo, escolha o ícone de varinha (![\[Sparkle icon representing cleaning or refreshing functionality.\]](http://docs.aws.amazon.com/pt_br/bedrock/latest/userguide/images/icons/wand.png)). A caixa de diálogo **Otimizar prompt** é aberta e o Amazon Bedrock começa a otimizar o prompt.

1. Quando o Amazon Bedrock terminar de analisar e otimizar o prompt, você poderá comparar o prompt original lado a lado com o prompt otimizado nessa na caixa de diálogo.

1. Para substituir o prompt pelo prompt otimizado no playground, escolha **Usar prompt otimizado**. Para manter o prompt original, escolha **Cancelar**.

1. Para enviar o prompt e gerar uma resposta, escolha **Executar**.

**Como testar um prompt no Gerenciamento de Prompts**

1. Para saber como escrever um prompt usando o Gerenciamento de Prompts, siga as etapas em [Criar um prompt usando o Gerenciamento de Prompts](prompt-management-create.md).

1. Depois de escrever um prompt e selecionar um modelo, escolha **(![\[Sparkle icon representing cleaning or refreshing functionality.\]](http://docs.aws.amazon.com/pt_br/bedrock/latest/userguide/images/icons/wand.png)) Otimizar** na parte superior da caixa **Prompt**.

1. Quando o Amazon Bedrock termina de analisar e otimizar o prompt, o prompt otimizado é exibido como uma variante lado a lado com o prompt original.

1. Para usar o prompt otimizado em vez do original, selecione **Substituir prompt original**. Para manter o prompt original, selecione **Sair da comparação** e escolha salvar o prompt original.
**nota**  
Se você tiver três prompts na visualização de comparação e tentar otimizar outro prompt, será solicitado que você cancele e substitua o prompt original ou uma das variantes.

1. Para enviar o prompt e gerar uma resposta, escolha **Executar**.

------
#### [ API ]

Para otimizar uma solicitação, envie uma [OptimizePrompt](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_OptimizePrompt.html)solicitação com um [endpoint de tempo de execução do Agents for Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-rt). Forneça o prompt a ser otimizado no objeto `input` e especifique o modelo a ser otimizado no campo `targetModelId`.

O fluxo de resposta exibe os seguintes eventos:

1. [analyzePromptEvent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_AnalyzePromptEvent.html)— Aparece quando a solicitação termina de ser analisada. Contém uma mensagem que descreve a análise do prompt.

1. [optimizedPromptEvent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_OptimizedPromptEvent.html)— Aparece quando o prompt termina de ser reescrito. Contém o prompt otimizado.

Execute o seguinte exemplo de código para otimizar um prompt:

```
import boto3

# Set values here
TARGET_MODEL_ID = "anthropic.claude-3-sonnet-20240229-v1:0" # Model to optimize for. For model IDs, see https://docs.aws.amazon.com/bedrock/latest/userguide/model-ids.html
PROMPT = "Please summarize this text: " # Prompt to optimize

def get_input(prompt):
    return {
        "textPrompt": {
            "text": prompt
        }
    }
 
def handle_response_stream(response):
    try:
        event_stream = response['optimizedPrompt']
        for event in event_stream:
            if 'optimizedPromptEvent' in event:
                print("========================== OPTIMIZED PROMPT ======================\n")
                optimized_prompt = event['optimizedPromptEvent']
                print(optimized_prompt)
            else:
                print("========================= ANALYZE PROMPT =======================\n")
                analyze_prompt = event['analyzePromptEvent']
                print(analyze_prompt)
    except Exception as e:
        raise e
 
 
if __name__ == '__main__':
    client = boto3.client('bedrock-agent-runtime')
    try:
        response = client.optimize_prompt(
            input=get_input(PROMPT),
            targetModelId=TARGET_MODEL_ID
        )
        print("Request ID:", response.get("ResponseMetadata").get("RequestId"))
        print("========================== INPUT PROMPT ======================\n")
        print(PROMPT)
        handle_response_stream(response)
    except Exception as e:
        raise e
```

------

# Implantar um prompt em sua aplicação usando versões no Gerenciamento de Prompts
Implementar em sua aplicação usando versões

Ao salvar um prompt, você cria uma *versão de rascunho* dele. Para continuar iterando na versão de rascunho, você deve modificar o prompt e as respectivas configurações e salvá-lo.

Quando tudo estiver pronto para implantar um prompt na produção, crie uma versão dele para uso em sua aplicação. Uma versão é um snapshot do prompt que você cria em um momento em que está iterando no rascunho de trabalho do prompt. Crie versões do prompt quando o conjunto de configurações estiver adequado. As versões permitem que você alterne facilmente entre diferentes configurações do prompt e atualize sua aplicação com a versão mais adequada para o caso de uso.

**Topics**
+ [

# Criar uma versão de um prompt no Gerenciamento de Prompts
](prompt-management-version-create.md)
+ [

# Visualizar as informações sobre as versões de um prompt no Gerenciamento de Prompts
](prompt-management-version-view.md)
+ [

# Comparar versões de um prompt no Gerenciamento de Prompts
](prompt-management-version-compare.md)
+ [

# Excluir uma versão de prompt no Gerenciamento de Prompts
](prompt-management-version-delete.md)

# Criar uma versão de um prompt no Gerenciamento de Prompts
Criar uma versão

Para saber como criar uma versão de seu prompt, escolha a guia correspondente ao método de sua preferência e siga as etapas:

------
#### [ Console ]

Se estiver no construtor de prompts, poderá criar uma versão do prompt escolhendo **Criar versão**. Caso contrário, faça o seguinte:

**Como criar uma versão do prompt**

1. Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console do Amazon Bedrock. Em seguida, abra o console do Amazon Bedrock em [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock).

1. No painel de navegação à esquerda, selecione **Gerenciamento de prompts**. Em seguida, escolha um prompt na seção **Prompts**.

1. Na seção **Versões do prompt**, escolha **Criar versão** para tirar um snapshot da sua versão de rascunho.

------
#### [ API ]

Para criar uma versão do prompt, envie uma solicitação [CreatePromptVersion](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreatePromptVersion.html) com um [endpoint de tempo de compilação do recurso Agentes para Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) e especifique o ARN ou o ID do prompt como o `promptIdentifier`.

A resposta exibe um ID e um ARN para a versão. As versões são criadas de forma incremental, começando em 1.

------

# Visualizar as informações sobre as versões de um prompt no Gerenciamento de Prompts
Visualizar informações sobre versões

Para saber como visualizar informações sobre uma versão de seu prompt, escolha a guia correspondente ao método de sua preferência e siga as etapas:

------
#### [ Console ]

**Como visualizar informações sobre a prompt**

1. Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console do Amazon Bedrock. Em seguida, abra o console do Amazon Bedrock em [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock).

1. No painel de navegação à esquerda, selecione **Gerenciamento de prompts**. Em seguida, escolha um prompt na seção **Prompts**.

1. Na seção **Versões do prompt**, escolha uma versão.

1. Na página de **Detalhes da versão**, é possível ver informações sobre a versão, a mensagem do prompt e suas configurações. Para obter mais informações sobre como testar uma versão do prompt, consulte [Testar um prompt usando o Gerenciamento de Prompts](prompt-management-test.md).

------
#### [ API ]

Para ter informações sobre uma versão do prompt, envie uma solicitação [GetPrompt](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetPrompt.html) com um [endpoint de tempo de compilação do recurso Agentes para Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) e especifique o ARN ou o ID do prompt como o `promptIdentifier`. No campo `promptVersion`, especifique o número da versão.

------

# Comparar versões de um prompt no Gerenciamento de Prompts
Comparar versões

O console Amazon Bedrock oferece uma ferramenta para permitir que você compare versões de um prompt criadas no Gerenciamento de Prompts. A ferramenta destaca campos que existem em uma versão e não existem na outra.

**Como comparar versões de prompt**

1. Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console do Amazon Bedrock. Em seguida, abra o console do Amazon Bedrock em [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock).

1. No painel de navegação à esquerda, selecione **Gerenciamento de prompts**. Em seguida, escolha um prompt na seção **Prompts**.

1. Na seção **Versões**, marque as caixas de seleção ao lado de dois prompts para compará-los.

1. Escolha **Compare**.

1. Os objetos JSON que definem cada versão do prompt são mostrados lado a lado. As diferenças entre as versões são mostradas abaixo:
   + Os campos que existem em uma versão, mas não existem na outra, são marcados com o símbolo de adição (\$1) e destacados em verde.
   + Os campos que não existem em uma versão, mas existem na outra, são marcados com um símbolo de subtração (-) e destacados em vermelho.

1. Para comparar as respostas do modelo de saída para as diferentes versões, preencha **Testar variáveis** e escolha **Executar prompt**.

# Excluir uma versão de prompt no Gerenciamento de Prompts
Excluir uma versão

Para saber como excluir uma versão de seu prompt, escolha a guia correspondente ao método de sua preferência e siga as etapas:

------
#### [ Console ]

**Como excluir uma versão do prompt**

1. Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console do Amazon Bedrock. Em seguida, abra o console do Amazon Bedrock em [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock).

1. No painel de navegação à esquerda, selecione **Gerenciamento de prompts**. Em seguida, escolha um prompt na seção **Prompts**.

1. Na seção **Versões do prompt**, selecione uma versão e escolha **Excluir**.

1. Na página de **Detalhes da versão**, é possível ver informações sobre a versão, a mensagem do prompt e suas configurações. Para obter mais informações sobre como testar uma versão do prompt, consulte [Testar um prompt usando o Gerenciamento de Prompts](prompt-management-test.md).

1. Analise o aviso exibido, digite **confirmar** e escolha **Excluir**.

------
#### [ API ]

Para excluir uma versão do prompt, envie uma solicitação [DeletePrompt](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DeletePrompt.html) com um [endpoint de tempo de compilação do recurso Agentes para Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) e especifique o ARN ou o ID do prompt como o `promptIdentifier`. No campo `promptVersion`, especifique o número da versão a ser excluída.

------

# Excluir um prompt no Gerenciamento de Prompts
Excluir um prompt

Caso não precise mais de um prompt, você pode excluí-lo. Os prompts de exclusão são mantidos nos servidores da AWS por até 14 dias. Para saber como excluir um prompt usando o Gerenciamento de Prompts, escolha a guia correspondente ao método de sua preferência e siga as etapas:

------
#### [ Console ]

Se estiver na página **Detalhes de prompt** de um prompt ou no construtor de prompts, escolha **Excluir** para excluir um prompt.

**nota**  
Ao excluir um prompt, todas as suas versões também serão excluídas. Qualquer recurso que use o seu prompt pode apresentar erros de runtime. Lembre-se de desassociar o prompt de qualquer recurso que o esteja usando.

**Como excluir um prompt**

1. Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console do Amazon Bedrock. Em seguida, abra o console do Amazon Bedrock em [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock).

1. No painel de navegação à esquerda, selecione **Gerenciamento de prompts**.

1. Selecione um prompt e escolha **Excluir**.

1. Analise o aviso exibido, digite **confirmar** e escolha **Excluir**.

------
#### [ API ]

Para excluir um prompt, envie uma solicitação [DeletePrompt](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DeletePrompt.html) com um [endpoint de tempo de compilação do recurso Agentes para Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) e especifique o ARN ou o ID do prompt como o `promptIdentifier`. Para excluir uma versão específica do prompt, especifique o número da versão no campo `promptVersion`.

------

# Executar exemplos de código do Gerenciamento de Prompts
Executar exemplos de código

Para testar alguns exemplos de código do Gerenciamento de Prompts, escolha a guia correspondente ao método de sua preferência e siga as etapas. Os exemplos de código a seguir pressupõem que você configurou suas credenciais para usar a API da AWS. Se não tiver, consulte [Começar a usar a API](getting-started-api.md).

------
#### [ Python ]

1. Execute o seguinte trecho de código para carregar o AWS SDK para Python (Boto3), criar um cliente e criar um prompt que crie uma playlist de música usando duas variáveis (`genre` e `number`) fazendo uma solicitação [CreatePrompt](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreatePrompt.html) com um [endpoint de tempo de compilação do Agentes para Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt):

   ```
   # Create a prompt in Prompt management
   import boto3
   
   # Create an Amazon Bedrock Agents client
   client = boto3.client(service_name="bedrock-agent")
   
   # Create the prompt
   response = client.create_prompt(
       name="MakePlaylist",
       description="My first prompt.",
       variants=[
           { 
               "name": "Variant1",
               "modelId": "amazon.titan-text-express-v1",
               "templateType": "TEXT",
               "inferenceConfiguration": {
                   "text": {
                       "temperature": 0.8
                   }
               },
               "templateConfiguration": { 
                   "text": {
                       "text": "Make me a {{genre}} playlist consisting of the following number of songs: {{number}}."
                   }
               }
         }
       ]
   )
                           
   prompt_id = response.get("id")
   ```

1. Execute o seguinte trecho de código para ver o prompt que você acabou de criar (bem como qualquer outro prompt em sua conta) para fazer uma solicitação [ListPrompts](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListPrompts.html) com um [endpoint de tempo de compilação do Agentes para Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt):

   ```
   # List prompts that you've created
   client.list_prompts()
   ```

1. Você deve ver o ID do prompt que criou no campo `id` no objeto no campo `promptSummaries`. Execute o seguinte trecho de código para mostrar as informações do prompt que criou fazendo uma solicitação [GetPrompt](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetPrompt.html) com um [endpoint de tempo de compilação do Agentes para Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt):

   ```
   # Get information about the prompt that you created
   client.get_prompt(promptIdentifier=prompt_id)
   ```

1. Crie uma versão do prompt e obtenha seu ID executando o seguinte trecho de código para fazer uma solicitação [CreatePromptVersion](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreatePromptVersion.html) com um [endpoint de tempo de compilação do Agentes para Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt):

   ```
   # Create a version of the prompt that you created
   response = client.create_prompt_version(promptIdentifier=prompt_id)
                           
   prompt_version = response.get("version")
   prompt_version_arn = response.get("arn")
   ```

1. Visualize informações sobre a versão do prompt que você acabou de criar, bem como informações sobre a versão de rascunho, executando o seguinte trecho de código para fazer uma solicitação [ListPrompts](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_ListPrompts.html) com um [endpoint de tempo de compilação do Agentes para Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt):

   ```
   # List versions of the prompt that you just created
   client.list_prompts(promptIdentifier=prompt_id)
   ```

1. Visualize as informações da versão do prompt que acabou de criar executando um trecho de código para fazer uma solicitação [GetPrompt](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetPrompt.html) com um endpoint de tempo de compilação do Agentes para Amazon Bedrock:

   ```
   # Get information about the prompt version that you created
   client.get_prompt(
       promptIdentifier=prompt_id, 
       promptVersion=prompt_version
   )
   ```

1. Teste o prompt adicionando-o a um fluxo de acordo com as etapas em [Executar exemplos de código do recurso Fluxos do Amazon Bedrock](flows-code-ex.md). Na primeira etapa, ao criar o fluxo, execute o seguinte trecho de código para usar o prompt que você criou, em vez de definir um prompt em linha no fluxo (substitua o ARN da versão do prompt no campo `promptARN` pelo ARN da versão do prompt que criou):

   ```
   # Import Python SDK and create client
   import boto3
   
   client = boto3.client(service_name='bedrock-agent')
   
   FLOWS_SERVICE_ROLE = "arn:aws:iam::123456789012:role/MyPromptFlowsRole" # Flows service role that you created. For more information, see https://docs.aws.amazon.com/bedrock/latest/userguide/flows-permissions.html
   PROMPT_ARN = prompt_version_arn # ARN of the prompt that you created, retrieved programatically during creation.
   
   # Define each node
   
   # The input node validates that the content of the InvokeFlow request is a JSON object.
   input_node = {
       "type": "Input",
       "name": "FlowInput",
       "outputs": [
           {
               "name": "document",
               "type": "Object"
           }
       ]
   }
   
   # This prompt node contains a prompt that you defined in Prompt management.
   # It validates that the input is a JSON object that minimally contains the fields "genre" and "number", which it will map to the prompt variables.
   # The output must be named "modelCompletion" and be of the type "String".
   prompt_node = {
       "type": "Prompt",
       "name": "MakePlaylist",
       "configuration": {
           "prompt": {
               "sourceConfiguration": {
                   "resource": {
                       "promptArn": ""
                   }
               }
           }
       },
       "inputs": [
           {
               "name": "genre",
               "type": "String",
               "expression": "$.data.genre"
           },
           {
               "name": "number",
               "type": "Number",
               "expression": "$.data.number"
           }
       ],
       "outputs": [
           {
               "name": "modelCompletion",
               "type": "String"
           }
       ]
   }
   
   # The output node validates that the output from the last node is a string and returns it as is. The name must be "document".
   output_node = {
       "type": "Output",
       "name": "FlowOutput",
       "inputs": [
           {
               "name": "document",
               "type": "String",
               "expression": "$.data"
           }
       ]
   }
   
   # Create connections between the nodes
   connections = []
   
   #   First, create connections between the output of the flow input node and each input of the prompt node
   for input in prompt_node["inputs"]:
       connections.append(
           {
               "name": "_".join([input_node["name"], prompt_node["name"], input["name"]]),
               "source": input_node["name"],
               "target": prompt_node["name"],
               "type": "Data",
               "configuration": {
                   "data": {
                       "sourceOutput": input_node["outputs"][0]["name"],
                       "targetInput": input["name"]
                   }
               }
           }
       )
   
   # Then, create a connection between the output of the prompt node and the input of the flow output node
   connections.append(
       {
           "name": "_".join([prompt_node["name"], output_node["name"]]),
           "source": prompt_node["name"],
           "target": output_node["name"],
           "type": "Data",
           "configuration": {
               "data": {
                   "sourceOutput": prompt_node["outputs"][0]["name"],
                   "targetInput": output_node["inputs"][0]["name"]
               }
           }
       }
   )
   
   # Create the flow from the nodes and connections
   client.create_flow(
       name="FlowCreatePlaylist",
       description="A flow that creates a playlist given a genre and number of songs to include in the playlist.",
       executionRoleArn=FLOWS_SERVICE_ROLE,
       definition={
           "nodes": [input_node, prompt_node, output_node],
           "connections": connections
       }
   )
   ```

1. Exclua a versão do prompt que acabou de criar executando o seguinte trecho de código para fazer uma solicitação [DeletePrompt](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DeletePrompt.html) com um [endpoint de tempo de compilação do Agentes para Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt):

   ```
   # Delete the prompt version that you created
   client.delete_prompt(
       promptIdentifier=prompt_id, 
       promptVersion=prompt_version
   )
   ```

1. Exclua completamente o prompt que acabou de criar executando o seguinte trecho de código para fazer uma solicitação [DeletePrompt](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DeletePrompt.html) com um endpoint de tempo de compilação do Agentes para Amazon Bedrock:

   ```
   # Delete the prompt that you created
   client.delete_prompt(
       promptIdentifier=prompt_id
   )
   ```

------