As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Criar um prompt usando o Gerenciamento de Prompts
Ao criar um prompt, você tem as seguintes opções:
-
Escreva a mensagem do prompt que funciona como uma entrada para um FM gerar uma saída.
-
Use chaves duplas para incluir variáveis (como em {{variable}}) na mensagem de prompt que pode ser preenchida ao chamar o prompt.
-
Escolha um modelo com o qual invocar o prompt ou, se você planeja usar o prompt com um agente, deixe-o sem especificação. Se escolher um modelo, você também poderá modificar as configurações de inferência a serem usadas. Para consultar os parâmetros de inferência para diversos modelos, consulteParâmetros de solicitação de inferência e campos de resposta para modelos de base.
Todos os prompts comportam os seguintes parâmetros básicos de inferência:
maxTokens: o número máximo de tokens a serem permitidos na resposta gerada.
stopSequences: uma lista de sequências de parada. Uma sequência de parada é uma sequência de caracteres que faz com que o modelo interrompa a geração da resposta.
temperature: a probabilidade do modelo selecionar opções de maior probabilidade ao gerar uma resposta.
topP: a porcentagem de candidatos mais prováveis que o modelo considera para o próximo token.
Se um modelo aceitar outros parâmetros de inferência, você poderá especificá-los como campos adicionais para seu prompt. Você deve fornecer os campos adicionais em um objeto JSON. O exemplo a seguir mostra como definir o top_k, que está disponível nos modelos Claude da Anthropic, mas não é um parâmetro básico de inferência.
{
"top_k": 200
}
Para ter informações sobre parâmetros de inferência de modelo, consulte Parâmetros de solicitação de inferência e campos de resposta para modelos de base.
Definir um parâmetro de inferência básico como um campo adicional não substitui o valor definido no console.
Se o modelo escolhido para o prompt for compatível com a API Converse (para ter mais informações, consulte Realizar uma conversa com as operações de API Converse), você pode incluir o seguinte ao criar o prompt:
-
Um prompt do sistema para fornecer instruções ou contexto ao modelo.
-
Prompts anteriores (mensagens do usuário) e respostas do modelo (mensagens do assistente) como histórico de conversação a ser considerado pelo modelo ao gerar uma resposta para a mensagem final do usuário.
-
(Se permitido pelo modelo) Ferramentas para o modelo usar ao gerar a resposta.
-
(Se permitido pelo modelo) Use o armazenamento em cache de prompts para reduzir os custos armazenando em cache os prompts grandes ou usados com frequência. Dependendo do modelo, é possível armazenar instruções do sistema, ferramentas e mensagens (usuário e assistente) em cache. O armazenamento em cache de prompts criará um ponto de verificação de cache para o prompt se o prefixo total do prompt atender ao número mínimo de tokens exigidos pelo modelo. Quando uma variável alterada é encontrada em um prompt, o armazenamento em cache de prompts cria outro ponto de verificação de cache (se o número de tokens de entrada atingir o mínimo exigido pelo modelo).
Para saber como criar um prompt usando o Gerenciamento de Prompts, escolha a guia correspondente ao método de sua preferência e siga as etapas:
- Console
-
Para criar um aviso
-
Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console do Amazon Bedrock. Em seguida, abra o console do Amazon Bedrock em https://console.aws.amazon.com/bedrock/.
-
No painel de navegação à esquerda, selecione Gerenciamento de prompts. Em seguida, escolha Criar prompt.
-
Forneça um nome para o prompt e uma descrição opcional.
-
Para criptografar o prompt com uma chave gerenciada pelo cliente, selecione Personalizar configurações de criptografia (avançado) na seção Seleção de chave do KMS. Se você omitir esse campo, o prompt será criptografado com uma Chave gerenciada pela AWS. Para ter mais informações, consulte Chaves do AWS KMS.
-
Escolha Criar prompt. O prompt é criado, e você vai até o construtor de prompts do prompt recém-criado, em que pode configurá-lo.
-
Você pode continuar o procedimento a seguir para configurar o prompt ou retornar ao construtor de prompts depois.
Como configurar o prompt
-
Se você ainda não estiver no construtor de prompts, faça o seguinte:
-
Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console do Amazon Bedrock. Em seguida, abra o console do Amazon Bedrock em https://console.aws.amazon.com/bedrock/.
-
No painel de navegação à esquerda, selecione Gerenciamento de prompts. Em seguida, escolha um prompt na seção Prompts.
-
Na seção Rascunho do prompt, escolha Editar no construtor de prompts.
-
Use o painel Prompt para criar o prompt. Insira o prompt na última caixa Mensagem do usuário. Se o modelo permitir o uso da API Converse ou da API Messages do Claude da Anthropic, você também poderá incluir um prompt do sistema, bem como mensagens do usuário e mensagens do assistente anteriores, para oferecer contexto.
Ao escrever um prompt, é possível incluir variáveis entre chaves duplas (como em {{variable}}). Toda variável incluída por você é exibida na seção Variáveis de teste.
-
(Opcional) É possível modificar o prompt das seguintes maneiras:
-
No painel Configurações, faça o seguinte:
-
Escolha um recurso de IA generativa para executar inferências.
-
Em Parâmetros de inferência, defina os parâmetros de inferência que deseja usar.
-
Se o modelo permitir raciocínio, ative o Raciocínio para incluir o raciocínio do modelo na resposta. Em Tokens de raciocínio, é possível configurar o número de tokens de raciocínio que o modelo pode usar.
-
Em Campos adicionais de solicitação de modelo, escolha Configurar para especificar outros parâmetros de inferência, além daqueles que estão em Parâmetros de inferência.
-
Se o modelo escolhido permitir o uso de ferramentas, escolha Configurar ferramentas para usar ferramentas com o prompt.
-
Se o modelo escolhido permitir armazenamento em cache de prompts, selecione uma das seguintes opções (a disponibilidade varia de acordo com o modelo):
-
Nenhum: nenhum armazenamento em cache de prompts é feito.
-
Ferramentas: somente as ferramentas no prompt são armazenadas em cache.
-
Ferramentas e instruções do sistema: as ferramentas e as instruções do sistema no prompt são armazenadas em cache.
-
Ferramentas, instruções do sistema e mensagens: as ferramentas, instruções do sistema e mensagens (usuário e assistente) no prompt são armazenadas em cache.
-
Para comparar diferentes variantes do prompt, escolha Comparar variantes. Você pode fazer o seguinte na página de comparação:
-
Para adicionar uma variante, escolha o sinal de adição. É possível adicionar até três variantes.
-
Depois de especificar os detalhes de uma variante, é possível especificar qualquer Variável de teste e escolher Executar para testar a saída da variante.
-
Para excluir uma variante, escolha os três pontos e selecione Remover da comparação.
-
Para substituir o rascunho de trabalho e sair do modo de comparação, escolha Salvar como rascunho. Todas as outras variantes serão excluídas.
-
Para sair do modo de comparação, escolha Sair do modo de comparação.
-
Você tem as seguintes opções para concluir a configuração do prompt:
- API
-
Para criar um prompt, envie uma solicitação CreatePrompt com um endpoint de tempo de compilação do recurso Agentes para Amazon Bedrock.
Os seguintes campos são obrigatórios:
| Campo |
Descrição resumida |
| name |
Um nome para o prompt. |
| variants |
Uma lista de diferentes configurações para o prompt (consulte abaixo). |
| defaultVariant |
O nome da variante padrão. |
Cada variante na lista variants é um objeto PromptVariant da seguinte estrutura geral:
{
"name": "string",
# modelId or genAiResource (see below)
"templateType": "TEXT",
"templateConfiguration": # see below,
"inferenceConfiguration": {
"text": {
"maxTokens": int,
"stopSequences": ["string", ...],
"temperature": float,
"topP": float
}
},
"additionalModelRequestFields": {
"key": "value",
...
},
"metadata": [
{
"key": "string",
"value": "string"
},
...
]
}
Preencha os campos da seguinte forma:
-
name: insira um nome para a variante.
-
Inclua um desses campos de acordo com o recurso de invocação de modelo utilizado:
-
modelId: para especificar um modelo de base ou perfil de inferência a ser usado com o prompt, insira o respectivo ARN ou ID.
-
genAiResource: para especificar um agente, insira o respectivo ID ou ARN. O valor do genAiResource é um objeto JSON no seguinte formato:
{
"genAiResource": {
"agent": {
"agentIdentifier": "string"
}
}
Se você incluir o campo genAiResource, só poderá testar o prompt no console. Para testar um prompt com um agente na API, você deve inserir o texto do prompt diretamente no campo inputText da solicitação InvokeAgent.
-
templateType: digite TEXT ou CHAT. Só é possível usar CHAT com modelos compatíveis com a API Converse. Para usar o armazenamento em cache de prompts, é necessário utilizar o tipo de modelo CHAT.
-
templateConfiguration: o valor depende do tipo de modelo que você especificou:
-
inferenceConfiguration: o campo text é associado a um PromptModelInferenceConfiguration. Esse campo contém parâmetros de inferência que são comuns a todos os modelos. Para saber mais sobre parâmetros de inferência, consulte Geração de resposta de influência com parâmetros de inferência.
-
additionalModelRequestFields: use esse campo para especificar parâmetros de inferência específicos do modelo com o qual você está executando a inferência. Para saber mais sobre parâmetros de inferência específicos ao modelo, consulte Parâmetros de solicitação de inferência e campos de resposta para modelos de base.
-
metadata: metadados a serem associados à variante do prompt. Você pode acrescentar pares de chave-valor à matriz para marcar a variante do prompt com metadados.
Os seguintes campos são opcionais:
| Campo |
Caso de uso |
| description |
Para fornecer uma descrição do prompt. |
| clientToken |
Para garantir que a solicitação de API seja concluída apenas uma vez. Para obter mais informações, consulte Ensuring idempotency. |
| tags |
Para associar tags ao fluxo. Para obter mais informações, consulte Marcação de recursos do Amazon Bedrock. |
A resposta cria uma versão DRAFT e exibe um ID e um ARN que você pode usar como identificador de prompts para outras solicitações de API relacionadas ao prompt.