Criar um prompt usando o Gerenciamento de Prompts - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Criar um prompt usando o Gerenciamento de Prompts

Ao criar um prompt, você tem as seguintes opções:

  • Escreva a mensagem do prompt que funciona como uma entrada para um FM gerar uma saída.

  • Use chaves duplas para incluir variáveis (como em {{variable}}) na mensagem de prompt que pode ser preenchida ao chamar o prompt.

  • Escolha um modelo com o qual invocar o prompt ou, se você planeja usar o prompt com um agente, deixe-o sem especificação. Se escolher um modelo, você também poderá modificar as configurações de inferência a serem usadas. Para consultar os parâmetros de inferência para diversos modelos, consulteParâmetros de solicitação de inferência e campos de resposta para modelos de base.

Todos os prompts comportam os seguintes parâmetros básicos de inferência:

  • maxTokens: o número máximo de tokens a serem permitidos na resposta gerada.

  • stopSequences: uma lista de sequências de parada. Uma sequência de parada é uma sequência de caracteres que faz com que o modelo interrompa a geração da resposta.

  • temperature: a probabilidade do modelo selecionar opções de maior probabilidade ao gerar uma resposta.

  • topP: a porcentagem de candidatos mais prováveis que o modelo considera para o próximo token.

Se um modelo aceitar outros parâmetros de inferência, você poderá especificá-los como campos adicionais para seu prompt. Você deve fornecer os campos adicionais em um objeto JSON. O exemplo a seguir mostra como definir o top_k, que está disponível nos modelos Claude da Anthropic, mas não é um parâmetro básico de inferência.

{ "top_k": 200 }

Para ter informações sobre parâmetros de inferência de modelo, consulte Parâmetros de solicitação de inferência e campos de resposta para modelos de base.

Definir um parâmetro de inferência básico como um campo adicional não substitui o valor definido no console.

Se o modelo escolhido para o prompt for compatível com a API Converse (para ter mais informações, consulte Realizar uma conversa com as operações de API Converse), você pode incluir o seguinte ao criar o prompt:

  • Um prompt do sistema para fornecer instruções ou contexto ao modelo.

  • Prompts anteriores (mensagens do usuário) e respostas do modelo (mensagens do assistente) como histórico de conversação a ser considerado pelo modelo ao gerar uma resposta para a mensagem final do usuário.

  • (Se permitido pelo modelo) Ferramentas para o modelo usar ao gerar a resposta.

  • (Se permitido pelo modelo) Use o armazenamento em cache de prompts para reduzir os custos armazenando em cache os prompts grandes ou usados com frequência. Dependendo do modelo, é possível armazenar instruções do sistema, ferramentas e mensagens (usuário e assistente) em cache. O armazenamento em cache de prompts criará um ponto de verificação de cache para o prompt se o prefixo total do prompt atender ao número mínimo de tokens exigidos pelo modelo. Quando uma variável alterada é encontrada em um prompt, o armazenamento em cache de prompts cria outro ponto de verificação de cache (se o número de tokens de entrada atingir o mínimo exigido pelo modelo).

Para saber como criar um prompt usando o Gerenciamento de Prompts, escolha a guia correspondente ao método de sua preferência e siga as etapas:

Console
Para criar um aviso
  1. Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console do Amazon Bedrock. Em seguida, abra o console do Amazon Bedrock em https://console.aws.amazon.com/bedrock/.

  2. No painel de navegação à esquerda, selecione Gerenciamento de prompts. Em seguida, escolha Criar prompt.

  3. Forneça um nome para o prompt e uma descrição opcional.

  4. Para criptografar o prompt com uma chave gerenciada pelo cliente, selecione Personalizar configurações de criptografia (avançado) na seção Seleção de chave do KMS. Se você omitir esse campo, o prompt será criptografado com uma Chave gerenciada pela AWS. Para ter mais informações, consulte Chaves do AWS KMS.

  5. Escolha Criar prompt. O prompt é criado, e você vai até o construtor de prompts do prompt recém-criado, em que pode configurá-lo.

  6. Você pode continuar o procedimento a seguir para configurar o prompt ou retornar ao construtor de prompts depois.

Como configurar o prompt
  1. Se você ainda não estiver no construtor de prompts, faça o seguinte:

    1. Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console do Amazon Bedrock. Em seguida, abra o console do Amazon Bedrock em https://console.aws.amazon.com/bedrock/.

    2. No painel de navegação à esquerda, selecione Gerenciamento de prompts. Em seguida, escolha um prompt na seção Prompts.

    3. Na seção Rascunho do prompt, escolha Editar no construtor de prompts.

  2. Use o painel Prompt para criar o prompt. Insira o prompt na última caixa Mensagem do usuário. Se o modelo permitir o uso da API Converse ou da API Messages do Claude da Anthropic, você também poderá incluir um prompt do sistema, bem como mensagens do usuário e mensagens do assistente anteriores, para oferecer contexto.

    Ao escrever um prompt, é possível incluir variáveis entre chaves duplas (como em {{variable}}). Toda variável incluída por você é exibida na seção Variáveis de teste.

  3. (Opcional) É possível modificar o prompt das seguintes maneiras:

    • No painel Configurações, faça o seguinte:

      1. Escolha um recurso de IA generativa para executar inferências.

        nota

        Se você escolher um agente, só poderá testar o prompt no console. Para saber como testar um prompt com um agente na API, consulte Testar um prompt usando o Gerenciamento de Prompts.

      2. Em Parâmetros de inferência, defina os parâmetros de inferência que deseja usar.

      3. Se o modelo permitir raciocínio, ative o Raciocínio para incluir o raciocínio do modelo na resposta. Em Tokens de raciocínio, é possível configurar o número de tokens de raciocínio que o modelo pode usar.

      4. Em Campos adicionais de solicitação de modelo, escolha Configurar para especificar outros parâmetros de inferência, além daqueles que estão em Parâmetros de inferência.

      5. Se o modelo escolhido permitir o uso de ferramentas, escolha Configurar ferramentas para usar ferramentas com o prompt.

      6. Se o modelo escolhido permitir armazenamento em cache de prompts, selecione uma das seguintes opções (a disponibilidade varia de acordo com o modelo):

        • Nenhum: nenhum armazenamento em cache de prompts é feito.

        • Ferramentas: somente as ferramentas no prompt são armazenadas em cache.

        • Ferramentas e instruções do sistema: as ferramentas e as instruções do sistema no prompt são armazenadas em cache.

        • Ferramentas, instruções do sistema e mensagens: as ferramentas, instruções do sistema e mensagens (usuário e assistente) no prompt são armazenadas em cache.

    • Para comparar diferentes variantes do prompt, escolha Comparar variantes. Você pode fazer o seguinte na página de comparação:

      • Para adicionar uma variante, escolha o sinal de adição. É possível adicionar até três variantes.

      • Depois de especificar os detalhes de uma variante, é possível especificar qualquer Variável de teste e escolher Executar para testar a saída da variante.

      • Para excluir uma variante, escolha os três pontos e selecione Remover da comparação.

      • Para substituir o rascunho de trabalho e sair do modo de comparação, escolha Salvar como rascunho. Todas as outras variantes serão excluídas.

      • Para sair do modo de comparação, escolha Sair do modo de comparação.

  4. Você tem as seguintes opções para concluir a configuração do prompt:

API

Para criar um prompt, envie uma solicitação CreatePrompt com um endpoint de tempo de compilação do recurso Agentes para Amazon Bedrock.

Os seguintes campos são obrigatórios:

Campo Descrição resumida
name Um nome para o prompt.
variants Uma lista de diferentes configurações para o prompt (consulte abaixo).
defaultVariant O nome da variante padrão.

Cada variante na lista variants é um objeto PromptVariant da seguinte estrutura geral:

{ "name": "string", # modelId or genAiResource (see below) "templateType": "TEXT", "templateConfiguration": # see below, "inferenceConfiguration": { "text": { "maxTokens": int, "stopSequences": ["string", ...], "temperature": float, "topP": float } }, "additionalModelRequestFields": { "key": "value", ... }, "metadata": [ { "key": "string", "value": "string" }, ... ] }

Preencha os campos da seguinte forma:

  • name: insira um nome para a variante.

  • Inclua um desses campos de acordo com o recurso de invocação de modelo utilizado:

    • modelId: para especificar um modelo de base ou perfil de inferência a ser usado com o prompt, insira o respectivo ARN ou ID.

    • genAiResource: para especificar um agente, insira o respectivo ID ou ARN. O valor do genAiResource é um objeto JSON no seguinte formato:

      { "genAiResource": { "agent": { "agentIdentifier": "string" } }
      nota

      Se você incluir o campo genAiResource, só poderá testar o prompt no console. Para testar um prompt com um agente na API, você deve inserir o texto do prompt diretamente no campo inputText da solicitação InvokeAgent.

  • templateType: digite TEXT ou CHAT. Só é possível usar CHAT com modelos compatíveis com a API Converse. Para usar o armazenamento em cache de prompts, é necessário utilizar o tipo de modelo CHAT.

  • templateConfiguration: o valor depende do tipo de modelo que você especificou:

  • inferenceConfiguration: o campo text é associado a um PromptModelInferenceConfiguration. Esse campo contém parâmetros de inferência que são comuns a todos os modelos. Para saber mais sobre parâmetros de inferência, consulte Geração de resposta de influência com parâmetros de inferência.

  • additionalModelRequestFields: use esse campo para especificar parâmetros de inferência específicos do modelo com o qual você está executando a inferência. Para saber mais sobre parâmetros de inferência específicos ao modelo, consulte Parâmetros de solicitação de inferência e campos de resposta para modelos de base.

  • metadata: metadados a serem associados à variante do prompt. Você pode acrescentar pares de chave-valor à matriz para marcar a variante do prompt com metadados.

Os seguintes campos são opcionais:

Campo Caso de uso
description Para fornecer uma descrição do prompt.
clientToken Para garantir que a solicitação de API seja concluída apenas uma vez. Para obter mais informações, consulte Ensuring idempotency.
tags Para associar tags ao fluxo. Para obter mais informações, consulte Marcação de recursos do Amazon Bedrock.

A resposta cria uma versão DRAFT e exibe um ID e um ARN que você pode usar como identificador de prompts para outras solicitações de API relacionadas ao prompt.