Gerar respostas no console usando playgrounds - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Gerar respostas no console usando playgrounds

Os playgrounds Amazon Bedrock são uma ferramenta Console de gerenciamento da AWS que fornece uma interface visual para experimentar a execução de inferência em diferentes modelos e o uso de configurações diferentes. Você pode usar os playgrounds para testar modelos e valores diferentes antes de integrá-los à aplicação.

Executar um prompt em um playground equivale a fazer uma ConverseStreamsolicitação InvokeModelInvokeModelWithResponseStream,, Converse ou na API.

O Amazon Bedrock oferece os seguintes playgrounds para você experimentar:

  • Chat/texto: envie prompts de texto e gere respostas ou interaja usando a fala. Você pode selecionar um dos seguintes modos:

    • Chat: envie um prompt de texto ou interaja usando a fala. Para prompts de texto, você também pode incluir imagens ou documentos para complementar o prompt. Os prompts subsequentes enviados incluirão os prompts anteriores como contexto, de maneira que a sequência de prompts e respostas se assemelhe a uma conversa.

    • Prompt único: envie um prompt de texto único e gere uma resposta para ele.

    nota

    Speech-to-speech modelos como o Amazon Nova Sonic só estão disponíveis no modo chat. O modo de comparação não é compatível com speech-to-speech modelos.

  • Imagem: envie um prompt de texto para gerar uma imagem. Você também pode enviar um prompt de imagem e especificar se deseja editá-lo ou gerar variações dele.

  • Multimodal (pré-visualização) — Envie solicitações de texto e gere conteúdo multimodal. Ele também suporta os modos de bate-papo e prompt único.

  • Chat/texto: envie prompts de texto e gere respostas ou interaja usando a fala. Você pode selecionar um dos seguintes modos:

    • Chat: envie um prompt de texto ou interaja usando a fala. Para prompts de texto, você também pode incluir imagens ou documentos para complementar o prompt. Os prompts subsequentes enviados incluirão os prompts anteriores como contexto, de maneira que a sequência de prompts e respostas se assemelhe a uma conversa.

    • Prompt único: envie um prompt de texto único e gere uma resposta para ele.

    nota

    Speech-to-speech modelos como o Amazon Nova Sonic só estão disponíveis no modo chat. O modo de comparação não é compatível com speech-to-speech modelos.

  • Imagem: envie um prompt de texto para gerar uma imagem. Você também pode enviar um prompt de imagem e especificar se deseja editá-lo ou gerar variações dele.

O procedimento a seguir descreve como enviar um prompt no playground, as opções que você pode ajustar e as ações que você poderá realizar depois que o modelo gerar uma resposta.

Como usar um playground
  1. Caso ainda não tenha feito isso, solicite acesso aos modelos que deseja usar. Para obter mais informações, consulte Acessar modelos de base do Amazon Bedrock.

  2. Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console Amazon Bedrock. Em seguida, abra o console Amazon Bedrock em https://console.aws.amazon.com/bedrock.

  3. No painel de navegação, em Playgrounds, escolha Chat/texto ou Imagem.

  4. Se você estiver no playground Chat/texto, selecione um Modo.

  5. Escolha Selecionar modelo e selecione um provedor, um modelo e um throughput a serem usados. Para ter mais informações sobe aumentar o throughput, consulte Aumentar o throughput com inferência entre regiões e Aumentar a capacidade de invocação do modelo com throughput provisionado no Amazon Bedrock.

  6. Envie as seguintes informações para gerar uma resposta:

    • Prompt: uma ou mais frases de texto que configuram um cenário, uma pergunta ou uma tarefa para um modelo. Para obter informações sobre como criar prompts, consulte Conceitos de engenharia de prompts.

      Se você estiver usando o modo de bate-papo do chat/text playground, alguns modelos (consulteModelos compatíveis e recursos do modelo) permitem que você inclua um arquivo das seguintes formas:

      • Selecione o ícone de anexo e escolha um arquivo para fazer upload.

      • Selecione o ícone de anexo e escolha um objeto do Amazon S3 para fazer upload.

      • Arraste um arquivo até o prompt.

      Inclua arquivos para complementar o prompt. Você pode consultar o arquivo no texto do prompt. Por exemplo, você pode escrever Summarize this document for me ou Tell me what's in this image. Você pode incluir os seguintes tipos de arquivo:

      • Documentos: adicione documentos para complementar o prompt. Para obter uma lista dos tipos de arquivo compatíveis, consulte o format campo em DocumentBlock.

        Atenção

        Os nomes de documento são vulneráveis a injeções de prompt, porque o modelo pode interpretá-los inadvertidamente como instruções. Por isso, é recomendável especificar um nome neutro.

      • Imagens: adicione imagens para complementar o prompt, se o modelo permitir entradas multimodais de imagem e texto. Para obter uma lista dos tipos de arquivo compatíveis, consulte o format campo no ImageBlock.

      • Imagens: adicione vídeos para complementar o prompt, se o modelo permitir entradas multimodais de vídeo e texto. Para obter uma lista dos tipos de arquivo compatíveis, consulte o format campo no VideoBlock.

    • Configurações: configurações ajustadas por você para modificar a resposta do modelo. Entre as configurações estão:

  7. (Opcional) Se um modelo suportar streaming, o comportamento padrão no chat/text playground é transmitir as respostas. Você pode desativar o streaming escolhendo o ícone de opções ( Vertical ellipsis icon representing a menu or more options. ) e modificando a opção Preferência de streaming.

  8. (Opcional) No modo de bate-papo do chat/text playground, você pode comparar respostas de diferentes modelos fazendo o seguinte:

    1. Ative o Modo de comparação.

    2. Escolha Selecionar modelo e selecione um provedor, um modelo e um throughput a serem usados.

    3. Escolha o ícone de configurações ( Three horizontal sliders with adjustable circular controls for settings or parameters. ) para modificar as configurações a serem usadas.

    4. Para adicionar mais modelos a serem comparados, escolha o ícone + à direita, selecione um modelo e modifique as configurações conforme necessário.

  9. (Opcional) Se um modelo permitir armazenamento em cache de prompts, você poderá abrir o painel Configurações e ativar o Armazenamento em cache de prompts para permitir o armazenamento em cache de suas entradas e das respostas do modelo e reduzir o custo e a latência. Para obter mais informações, consulte Armazenamento em cache de prompts para agilizar a inferência do modelo.

  10. Para executar o prompt, escolha Executar. O Amazon Bedrock não armazena nenhum texto, imagem ou documento que você forneça. Os dados são usados somente para gerar a resposta.

    nota

    Se a resposta violar a política de moderação de conteúdo, o Amazon Bedrock não a exibirá. Se você ativou o streaming, o Amazon Bedrock limpa toda a resposta caso ela gere conteúdo que viole a política. Para obter mais detalhes, acesse o console Amazon Bedrock, selecione Provedores e leia o texto na seção Limitações de conteúdo.

  11. O modelo exibe a resposta. Se você estiver usando o modo de bate-papo do chat/text playground, poderá enviar uma solicitação para responder à resposta e gerar outra resposta.

  12. Depois de gerar uma resposta, você terá as seguintes opções:

    • Para exportar a resposta como um arquivo JSON, escolha o ícone de opções ( Vertical ellipsis icon representing a menu or more options. ) e selecione Exportar como JSON.

    • Para exibir a solicitação de API feita por você, escolha o ícone de opções ( Vertical ellipsis icon representing a menu or more options. ) e selecione Visualizar solicitação de API.

    • No modo de bate-papo do chat/text playground, você pode ver as métricas na seção Métricas do modelo. As seguintes métricas de modelo estão disponíveis:

      • Latência: o tempo que leva entre o recebimento da solicitação pelo Amazon Bedrock e o momento em que a resposta é exibida (para respostas sem streaming) ou o momento em que o fluxo de respostas é concluído (para respostas de streaming).

      • Contagem de tokens de entrada: o número de tokens que são inseridos no modelo como entrada durante a inferência.

      • Contagem de tokens de saída: o número de tokens gerados em resposta a um prompt. Respostas mais longas e mais coloquiais exigem mais tokens.

      • Custo: o custo de processar a entrada e gerar tokens de saída.

      Para definir critérios de métricas aos quais você deseja que a resposta corresponda, escolha Definir critérios de métricas e defina condições para que o modelo corresponda. Depois que você aplica os critérios, a seção Métricas do modelo mostra quantos e quais critérios foram atendidos pela resposta.

      Se os critérios não forem atendidos, você poderá escolher um modelo diferente, reescrever o prompt ou modificar as configurações e reexecutar o prompt.