Consultar uma base de conhecimento e recuperar dados - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Consultar uma base de conhecimento e recuperar dados

Importante

As barreiras de proteção são aplicadas somente à entrada e à resposta gerada pelo LLM. Elas não são aplicados às referências recuperadas das bases de conhecimento em runtime.

Depois que sua base de conhecimento estiver configurada, você poderá consultá-la e recuperar partes dos dados de origem que sejam relevantes para a consulta usando a operação de API Retrieve. Também é possível usar um modelo de reclassificação em vez do classificador padrão das Bases de Conhecimento do Amazon Bedrock para classificar os fragmentos de origem quanto à relevância durante a recuperação.

Para saber como consultar uma base de conhecimento, escolha a guia correspondente ao método de sua preferência e siga as etapas:

Console
Como testar a base de conhecimento
  1. Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console Amazon Bedrock. Em seguida, abra o console Amazon Bedrock em https://console.aws.amazon.com/bedrock.

  2. No painel de navegação à esquerda, selecione Bases de conhecimento.

  3. Na seção Bases de conhecimento, execute uma das ações a seguir.

    • Escolha o botão de opção ao lado da base de conhecimento que deseja testar e selecione Testar base de conhecimento. Uma janela de teste é expandida à direita.

    • Escolha a base de conhecimento que deseja testar. Uma janela de teste é expandida à direita.

  4. Para testar a janela, desative a opção Gerar respostas para a consulta para exibir informações recuperadas diretamente da base de conhecimento.

  5. (Opcional) Selecione o ícone de configurações ( Three horizontal sliders with adjustable circular controls for settings or parameters. ) para abrir Configurações. Para ter mais informações configurações, consulte Configurar e personalizar consultas e geração de respostas.

  6. Insira uma consulta na caixa de texto da janela de chat e selecione Executar para retornar respostas da base de conhecimento.

  7. Os fragmentos de origem serão exibidos diretamente em ordem de relevância. As imagens extraídas da fonte de dados também podem ser exibidas como um fragmento da fonte.

  8. Para ver detalhes sobre os fragmentos exibidos, selecione Mostrar detalhes da fonte.

    • Para ver as configurações que definiu para a consulta, expanda Configurações de consulta.

    • Para ver detalhes sobre um fragmento de origem, expanda-o escolhendo a seta para a direita ( Play button icon with a triangular shape pointing to the right. ) ao lado dele. É possível editar as seguintes informações:

      • O texto bruto do fragmento de origem. Para copiar esse texto, escolha o ícone de cópia ( Icon representing a crop or resize function, with two overlapping rectangles. ). Se tiver usado o Amazon S3 para armazenar os dados, escolha o ícone de link externo ( Icon of a square with an arrow pointing outward from its top-right corner. ) para navegar ao objeto do S3 que contém o arquivo.

      • Os metadados associados ao fragmento de origem, se você usou o Amazon S3 para armazenar seus dados. As attribute/field chaves e os valores são definidos no .metadata.json arquivo associado ao documento de origem. Para ter mais informações, consulte a seção Metadados e filtragem em Configurar e personalizar consultas e geração de respostas.

Opções do chat
  • Ative a opção Gerar respostas para gerar respostas com base nos fragmentos de origem recuperados. Se você alterar a configuração, o texto na janela de chat será completamente apagado.

  • Para limpar a janela de chat, selecione o ícone de vassoura ( Magnifying glass icon with a checkmark inside, symbolizing search or inspection. ).

  • Para copiar toda a saída na janela de chat, selecione o ícone de cópia ( Icon representing a crop or resize function, with two overlapping rectangles. ).

API

Para consultar uma base de conhecimento e exibir somente texto relevante das fontes de dados, envie uma solicitação Retrieve com um endpoint de runtime do recurso Agentes para Amazon Bedrock.

Os seguintes campos são obrigatórios:

Campo Descrição básica
knowledgeBaseId Para especificar a base de conhecimento a ser consultada.
retrievalQuery Contém um campo text para especificar a consulta.
guardrailsConfiguration Incluir campos de configuração de barreiras de proteção, como guardrailsId e guardrailsVersion, para usar a barreira de proteção com a solicitação

Os seguintes campos são opcionais:

Campo Caso de uso
nextToken Para exibir o próximo lote de repostas (consulte os campos de resposta abaixo).
retrievalConfiguration Para incluir configurações de consulta para personalizar a pesquisa vetorial. Consulte KnowledgeBaseVectorSearchConfiguration para obter mais informações.

Você pode usar um modelo de reclassificação em relação ao modelo de classificação padrão do Amazon Bedrock Knowledge Bases incluindo o campo norerankingConfiguration. KnowledgeBaseVectorSearchConfiguration O rerankingConfiguration campo mapeia para um VectorSearchRerankingConfigurationobjeto, no qual você pode especificar o modelo de reclassificação a ser usado, quaisquer campos de solicitação adicionais a serem incluídos, atributos de metadados para filtrar documentos durante a reclassificação e o número de resultados a serem retornados após a reclassificação. Para obter mais informações, consulte VectorSearchRerankingConfiguration.

nota

Se o numberOfRerankedResults valor especificado for maior que o numberOfResults valor no KnowledgeBaseVectorSearchConfiguration, o número máximo de resultados que serão retornados será o valor paranumberOfResults. Uma exceção é se você usar a decomposição de consultas (para ter mais informações, consulte a seção Modificações de consulta em Configurar e personalizar consultas e geração de respostas. Se você usar a decomposição de consultas, numberOfRerankedResults pode ser até cinco vezes o valor de numberOfResults.

A resposta retorna os fragmentos de origem da fonte de dados como uma matriz de KnowledgeBaseRetrievalResultobjetos no retrievalResults campo. Cada um KnowledgeBaseRetrievalResultcontém os seguintes campos:

Campo Description
content Contém um fragmento de fonte de texto em text ou um fragmento de fonte de imagem no campo byteContent. Se o conteúdo for uma imagem, o URI de dados do conteúdo codificado em base64 será exibido no seguinte formato: data:image/jpeg;base64,${base64-encoded string}.
metadata Contém cada atributo de metadados como uma chave e o valor dos metadados como um valor JSON com o qual a chave está associada.
location Contém o URI ou URL do documento ao qual o fragmento de origem pertence.
score A pontuação de relevância do documento. É possível usar essa pontuação para analisar a classificação dos resultados.

Se o número de partes de origem exceder o que pode caber na resposta, um valor será exibido no campo nextToken. Use esse valor em outra solicitação para apresentar o próximo lote de resultados.

Se os dados recuperados contiverem imagens, a resposta também exibirá os seguintes cabeçalhos de resposta, que contêm metadados para fragmentos de origem exibidos na resposta:

  • x-amz-bedrock-kb-byte-content-source: contém o URI do Amazon S3 da imagem.

  • x-amz-bedrock-kb-description: contém a string codificada em base64 da imagem.

nota

Não é possível filtrar esses cabeçalhos de resposta de metadados ao configurar filtros de metadados.

Consultas multimodais

Para bases de conhecimento que usam modelos de incorporação multimodais, você pode consultar com imagens além de texto. O retrievalQuery campo suporta um multimodalInputList campo para consultas de imagens:

nota

Para obter uma orientação abrangente sobre como configurar e trabalhar com bases de conhecimento multimodais, incluindo a escolha entre as abordagens Nova e BDA, consulte. Crie uma base de conhecimento para conteúdo multimodal

{ "knowledgeBaseId": "EXAMPLE123", "retrievalQuery": { "text": "Find similar shoes", "multimodalInputList": [ { "content": { "byteContent": "base64-encoded-image-data" }, "modality": "IMAGE" } ] } }

Você também pode consultar com imagens somente omitindo o text campo:

{ "knowledgeBaseId": "EXAMPLE123", "retrievalQuery": { "multimodalInputList": [ { "content": { "byteContent": "base64-encoded-image-data" }, "modality": "IMAGE" } ] } }

Padrões comuns de consulta multimodal

Image-to-image pesquisar

Faça upload de uma imagem para encontrar imagens visualmente semelhantes. Exemplo: faça upload de uma foto de um tênis Nike vermelho para encontrar sapatos semelhantes em seu catálogo de produtos.

Texto + refinamento de imagem

Combine texto e imagens para obter resultados mais precisos. Exemplo: “Encontre sapatos semelhantes, mas com cores diferentes” junto com uma imagem de sapato enviada.

Pesquisa visual de documentos

Pesquise gráficos, diagramas ou elementos visuais nos documentos. Exemplo: faça upload de uma imagem de gráfico para encontrar gráficos semelhantes em sua coleção de documentos.

Escolhendo entre Nova e BDA para conteúdo multimodal

Ao trabalhar com conteúdo multimodal, escolha sua abordagem com base no tipo de conteúdo e nos padrões de consulta:

Matriz de decisão Nova x BDA
Tipo de conteúdo Use incorporações multimodais Nova Use o analisador Bedrock Data Automation (BDA)
Conteúdo de vídeo Foco na narrativa visual (esportes, anúncios, demonstrações), consultas sobre elementos visuais, conteúdo mínimo de fala Importante speech/narration (apresentações, reuniões, tutoriais), dúvidas sobre conteúdo falado, transcrições necessárias
Conteúdo de áudio Identificação de música ou efeitos sonoros, análise de áudio sem fala Podcasts, entrevistas, reuniões, qualquer conteúdo com discurso que exija transcrição
Conteúdo da imagem Pesquisas de similaridade visual, image-to-image recuperação, análise visual de conteúdo Extração de texto de imagens, processamento de documentos, requisitos de OCR
nota

As incorporações multimodais Nova não podem processar o conteúdo da fala diretamente. Se seus arquivos de áudio ou vídeo contiverem informações faladas importantes, use o analisador BDA para converter voz em texto primeiro ou escolha um modelo de incorporação de texto.

Limitações da consulta multimodal

  • Máximo de uma imagem por consulta na versão atual

  • As consultas de imagem só são suportadas com modelos de incorporação multimodais (Titan G1 ou Cohere Embed v3)

  • RetrieveAndGenerate A API não é compatível com bases de conhecimento com modelos de incorporação multimodais e buckets de conteúdo S3

  • Se você fornecer uma consulta de imagem para uma base de conhecimento usando modelos de incorporação somente de texto, um erro 4xx será retornado

Estrutura de resposta multimodal da API

As respostas de recuperação para conteúdo multimodal incluem metadados adicionais:

  • URI de origem: aponta para a localização original do bucket do S3

  • URI suplementar: aponta para a cópia em seu bucket de armazenamento multimodal

  • Metadados de registro de data e hora: incluídos em partes de vídeo e áudio para permitir um posicionamento preciso da reprodução

nota

Ao usar a API ou o SDK, você precisará lidar com a recuperação de arquivos e a navegação com carimbo de data/hora em seu aplicativo. O console lida com isso automaticamente com reprodução de vídeo aprimorada e navegação automática com carimbo de data/hora.

nota

Se você receber um erro informando que o prompt excede o limite de caracteres ao gerar respostas, é possível encurtar o prompt das seguintes maneiras: