Otimizar um prompt - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Otimizar um prompt

O Amazon Bedrock oferece uma ferramenta para otimizar os prompts. A otimização reescreve os prompts para gerar resultados de inferência mais adequados ao seu caso de uso. Você pode escolher o modelo para o qual deseja otimizar o prompt e, em seguida, gerar um prompt revisto.

Depois de enviar um prompt para otimização, o Amazon Bedrock analisa os componentes do prompt. Se a análise for bem-sucedida, ela reescreverá o prompt. Em seguida, você pode copiar e usar o texto do prompt otimizado.

nota

Para obter melhores resultados, recomendamos otimizar os prompts em inglês.

Regiões e modelos compatíveis com otimização de prompts

A tabela a seguir mostra o suporte do modelo para otimização imediata:

Fornecedor Modelo ID do modelo Suporte ao modelo de região única
Amazon Nova Lite amazônia. nova-lite-v1:0

ap-southeast-2

eu-west-2

us-east-1

Amazon Nova Micro amazônia. nova-micro-v1:0

ap-southeast-2

eu-west-2

us-east-1

Amazon Nova Premier amazônia. nova-premier-v1:0
Amazon Nova Pro amazônia. nova-pro-v1:0

ap-southeast-2

eu-west-2

us-east-1

Anthropic Claude 3 Haiku anthropic.claude-3-haiku-20240307-v1:0

ap-south-1

ap-southeast-2

ca-central-1

eu-central-1

eu-west-1

eu-west-2

eu-west-3

sa-east-1

us-east-1

us-west-2

Anthropic Claude 3 Opus anthropic.claude-3-opus-20240229-v 1:0

us-west-2

Anthropic Claude 3 Sonnet anthropic.claude-3-sonnet-20240229-v1:0

ap-south-1

ap-southeast-2

ca-central-1

eu-central-1

eu-west-1

eu-west-2

eu-west-3

sa-east-1

us-east-1

us-west-2

Anthropic Claude 3.5 Haiku anthropic.claude-3-5-haiku-20241022-v1:0

us-west-2

Anthropic Claude 3.5 Sonnet anthropic.claude-3-5-sonnet-20240620-v1:0

eu-central-1

us-east-1

us-west-2

Anthropic Claude 3.5 Sonnet v2 anthropic.claude-3-5-sonnet-20241022-v2:0

ap-southeast-2

us-west-2

Anthropic Claude 3.7 Sonnet anthropic.claude-3-7-sonnet-20250219-v 1:0

eu-west-2

Anthropic Claude Opus 4 anthropic.claude-opus-4-20250514-v1:0
Anthropic Claude Sonnet 4 anthropic.claude-sonnet-4-20250514-v1:0
DeepSeek DeepSeek-R1 deepseek.r1-v1:0
Meta Llama 3 70B Instruct meta.llama3-70 1:0 b-instruct-v

ap-south-1

ca-central-1

eu-west-2

us-east-1

us-west-2

Meta Llama 3.1 70B Instruct meta.llama3-1-70 1:0 b-instruct-v

us-west-2

Meta Instrução Llama 3.2 11B meta.llama3-2-11 1:0 b-instruct-v
Meta Llama 3.3 70B Instruct meta.llama3-3-70 1:0 b-instruct-v
Meta Llama 4 Maverick 17B Instruct b-instruct-vmeta.llama4-maverick-17 1:0
Meta Llama 4 Scout 17B Instruct b-instruct-vmeta.llama4-scout-17 1:0
Mistral AI Mistral Large (24.02) mistral.mistral-large-2402-v1:0

ap-south-1

ap-southeast-2

ca-central-1

eu-west-1

eu-west-2

eu-west-3

sa-east-1

us-east-1

us-west-2

Mistral AI Mistral Large (24.07) mistral.mistral-large-2407-v1:0

us-west-2

Enviar um prompt para otimização

Para saber como otimizar um prompt, escolha a guia correspondente ao método de sua preferência e siga as etapas:

Console

É possível otimizar um prompt usando um playground ou o Gerenciamento de Prompts no Console de gerenciamento da AWS. Primeiro você deve selecionar um modelo para poder otimizar um prompt. O prompt é otimizado para o modelo que você escolher.

Como otimizar um prompt em um playground
  1. Para saber como escrever um prompt em um playground do Amazon Bedrock, siga as etapas em Gerar respostas no console usando playgrounds.

  2. Depois de escrever um prompt e selecionar um modelo, escolha o ícone de varinha ( Sparkle icon representing cleaning or refreshing functionality. ). A caixa de diálogo Otimizar prompt é aberta e o Amazon Bedrock começa a otimizar o prompt.

  3. Quando o Amazon Bedrock terminar de analisar e otimizar o prompt, você poderá comparar o prompt original lado a lado com o prompt otimizado nessa na caixa de diálogo.

  4. Para substituir o prompt pelo prompt otimizado no playground, escolha Usar prompt otimizado. Para manter o prompt original, escolha Cancelar.

  5. Para enviar o prompt e gerar uma resposta, escolha Executar.

Como testar um prompt no Gerenciamento de Prompts
  1. Para saber como escrever um prompt usando o Gerenciamento de Prompts, siga as etapas em Criar um prompt usando o Gerenciamento de Prompts.

  2. Depois de escrever um prompt e selecionar um modelo, escolha ( Sparkle icon representing cleaning or refreshing functionality. ) Otimizar na parte superior da caixa Prompt.

  3. Quando o Amazon Bedrock termina de analisar e otimizar o prompt, o prompt otimizado é exibido como uma variante lado a lado com o prompt original.

  4. Para usar o prompt otimizado em vez do original, selecione Substituir prompt original. Para manter o prompt original, selecione Sair da comparação e escolha salvar o prompt original.

    nota

    Se você tiver três prompts na visualização de comparação e tentar otimizar outro prompt, será solicitado que você cancele e substitua o prompt original ou uma das variantes.

  5. Para enviar o prompt e gerar uma resposta, escolha Executar.

API

Para otimizar uma solicitação, envie uma OptimizePromptsolicitação com um endpoint de tempo de execução do Agents for Amazon Bedrock. Forneça o prompt a ser otimizado no objeto input e especifique o modelo a ser otimizado no campo targetModelId.

O fluxo de resposta exibe os seguintes eventos:

  1. analyzePromptEvent— Aparece quando a solicitação termina de ser analisada. Contém uma mensagem que descreve a análise do prompt.

  2. optimizedPromptEvent— Aparece quando o prompt termina de ser reescrito. Contém o prompt otimizado.

Execute o seguinte exemplo de código para otimizar um prompt:

import boto3 # Set values here TARGET_MODEL_ID = "anthropic.claude-3-sonnet-20240229-v1:0" # Model to optimize for. For model IDs, see https://docs.aws.amazon.com/bedrock/latest/userguide/model-ids.html PROMPT = "Please summarize this text: " # Prompt to optimize def get_input(prompt): return { "textPrompt": { "text": prompt } } def handle_response_stream(response): try: event_stream = response['optimizedPrompt'] for event in event_stream: if 'optimizedPromptEvent' in event: print("========================== OPTIMIZED PROMPT ======================\n") optimized_prompt = event['optimizedPromptEvent'] print(optimized_prompt) else: print("========================= ANALYZE PROMPT =======================\n") analyze_prompt = event['analyzePromptEvent'] print(analyze_prompt) except Exception as e: raise e if __name__ == '__main__': client = boto3.client('bedrock-agent-runtime') try: response = client.optimize_prompt( input=get_input(PROMPT), targetModelId=TARGET_MODEL_ID ) print("Request ID:", response.get("ResponseMetadata").get("RequestId")) print("========================== INPUT PROMPT ======================\n") print(PROMPT) handle_response_stream(response) except Exception as e: raise e