As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Consultar uma base de conhecimento e recuperar dados
Importante
As barreiras de proteção são aplicadas somente à entrada e à resposta gerada pelo LLM. Elas não são aplicados às referências recuperadas das bases de conhecimento em runtime.
Depois que sua base de conhecimento estiver configurada, você poderá consultá-la e recuperar partes dos dados de origem que sejam relevantes para a consulta usando a operação de API Retrieve. Também é possível usar um modelo de reclassificação em vez do classificador padrão das Bases de Conhecimento do Amazon Bedrock para classificar os fragmentos de origem quanto à relevância durante a recuperação.
Para saber como consultar uma base de conhecimento, escolha a guia correspondente ao método de sua preferência e siga as etapas:
- Console
-
Como testar a base de conhecimento
-
Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console Amazon Bedrock. Em seguida, abra o console Amazon Bedrock em https://console.aws.amazon.com/bedrock.
-
No painel de navegação à esquerda, selecione Bases de conhecimento.
-
Na seção Bases de conhecimento, execute uma das ações a seguir.
-
Escolha o botão de opção ao lado da base de conhecimento que deseja testar e selecione Testar base de conhecimento. Uma janela de teste é expandida à direita.
-
Escolha a base de conhecimento que deseja testar. Uma janela de teste é expandida à direita.
-
-
Para testar a janela, desative a opção Gerar respostas para a consulta para exibir informações recuperadas diretamente da base de conhecimento.
-
(Opcional) Selecione o ícone de configurações (
) para abrir Configurações. Para ter mais informações configurações, consulte Configurar e personalizar consultas e geração de respostas. -
Insira uma consulta na caixa de texto da janela de chat e selecione Executar para retornar respostas da base de conhecimento.
-
Os fragmentos de origem serão exibidos diretamente em ordem de relevância. As imagens extraídas da fonte de dados também podem ser exibidas como um fragmento da fonte.
-
Para ver detalhes sobre os fragmentos exibidos, selecione Mostrar detalhes da fonte.
-
Para ver as configurações que definiu para a consulta, expanda Configurações de consulta.
-
Para ver detalhes sobre um fragmento de origem, expanda-o escolhendo a seta para a direita (
) ao lado dele. É possível editar as seguintes informações:-
O texto bruto do fragmento de origem. Para copiar esse texto, escolha o ícone de cópia (
). Se tiver usado o Amazon S3 para armazenar os dados, escolha o ícone de link externo (
) para navegar ao objeto do S3 que contém o arquivo. -
Os metadados associados ao fragmento de origem, se você usou o Amazon S3 para armazenar seus dados. As attribute/field chaves e os valores são definidos no
.metadata.jsonarquivo associado ao documento de origem. Para ter mais informações, consulte a seção Metadados e filtragem em Configurar e personalizar consultas e geração de respostas.
-
-
Opções do chat
-
Ative a opção Gerar respostas para gerar respostas com base nos fragmentos de origem recuperados. Se você alterar a configuração, o texto na janela de chat será completamente apagado.
-
Para limpar a janela de chat, selecione o ícone de vassoura (
). -
Para copiar toda a saída na janela de chat, selecione o ícone de cópia (
).
-
- API
-
Para consultar uma base de conhecimento e exibir somente texto relevante das fontes de dados, envie uma solicitação Retrieve com um endpoint de runtime do recurso Agentes para Amazon Bedrock.
Os seguintes campos são obrigatórios:
Campo Descrição básica knowledgeBaseId Para especificar a base de conhecimento a ser consultada. retrievalQuery Contém um campo textpara especificar a consulta.guardrailsConfiguration Incluir campos de configuração de barreiras de proteção, como guardrailsIdeguardrailsVersion, para usar a barreira de proteção com a solicitaçãoOs seguintes campos são opcionais:
Campo Caso de uso nextToken Para exibir o próximo lote de repostas (consulte os campos de resposta abaixo). retrievalConfiguration Para incluir configurações de consulta para personalizar a pesquisa vetorial. Consulte KnowledgeBaseVectorSearchConfiguration para obter mais informações. Você pode usar um modelo de reclassificação em relação ao modelo de classificação padrão do Amazon Bedrock Knowledge Bases incluindo o campo no
rerankingConfiguration. KnowledgeBaseVectorSearchConfiguration OrerankingConfigurationcampo mapeia para um VectorSearchRerankingConfigurationobjeto, no qual você pode especificar o modelo de reclassificação a ser usado, quaisquer campos de solicitação adicionais a serem incluídos, atributos de metadados para filtrar documentos durante a reclassificação e o número de resultados a serem retornados após a reclassificação. Para obter mais informações, consulte VectorSearchRerankingConfiguration.nota
Se o
numberOfRerankedResultsvalor especificado for maior que onumberOfResultsvalor no KnowledgeBaseVectorSearchConfiguration, o número máximo de resultados que serão retornados será o valor paranumberOfResults. Uma exceção é se você usar a decomposição de consultas (para ter mais informações, consulte a seção Modificações de consulta em Configurar e personalizar consultas e geração de respostas. Se você usar a decomposição de consultas,numberOfRerankedResultspode ser até cinco vezes o valor denumberOfResults.A resposta retorna os fragmentos de origem da fonte de dados como uma matriz de KnowledgeBaseRetrievalResultobjetos no
retrievalResultscampo. Cada um KnowledgeBaseRetrievalResultcontém os seguintes campos:Campo Description content Contém um fragmento de fonte de texto em textou um fragmento de fonte de imagem no campobyteContent. Se o conteúdo for uma imagem, o URI de dados do conteúdo codificado em base64 será exibido no seguinte formato:data:image/jpeg;base64,.${base64-encoded string}metadata Contém cada atributo de metadados como uma chave e o valor dos metadados como um valor JSON com o qual a chave está associada. location Contém o URI ou URL do documento ao qual o fragmento de origem pertence. score A pontuação de relevância do documento. É possível usar essa pontuação para analisar a classificação dos resultados. Se o número de partes de origem exceder o que pode caber na resposta, um valor será exibido no campo
nextToken. Use esse valor em outra solicitação para apresentar o próximo lote de resultados.Se os dados recuperados contiverem imagens, a resposta também exibirá os seguintes cabeçalhos de resposta, que contêm metadados para fragmentos de origem exibidos na resposta:
-
x-amz-bedrock-kb-byte-content-source: contém o URI do Amazon S3 da imagem. -
x-amz-bedrock-kb-description: contém a string codificada em base64 da imagem.
nota
Não é possível filtrar esses cabeçalhos de resposta de metadados ao configurar filtros de metadados.
Consultas multimodais
Para bases de conhecimento que usam modelos de incorporação multimodais, você pode consultar com imagens além de texto. O
retrievalQuerycampo suporta ummultimodalInputListcampo para consultas de imagens:nota
Para obter uma orientação abrangente sobre como configurar e trabalhar com bases de conhecimento multimodais, incluindo a escolha entre as abordagens Nova e BDA, consulte. Crie uma base de conhecimento para conteúdo multimodal
{ "knowledgeBaseId": "EXAMPLE123", "retrievalQuery": { "text": "Find similar shoes", "multimodalInputList": [ { "content": { "byteContent": "base64-encoded-image-data" }, "modality": "IMAGE" } ] } }Você também pode consultar com imagens somente omitindo o
textcampo:{ "knowledgeBaseId": "EXAMPLE123", "retrievalQuery": { "multimodalInputList": [ { "content": { "byteContent": "base64-encoded-image-data" }, "modality": "IMAGE" } ] } }Padrões comuns de consulta multimodal
- Image-to-image pesquisar
-
Faça upload de uma imagem para encontrar imagens visualmente semelhantes. Exemplo: faça upload de uma foto de um tênis Nike vermelho para encontrar sapatos semelhantes em seu catálogo de produtos.
- Texto + refinamento de imagem
-
Combine texto e imagens para obter resultados mais precisos. Exemplo: “Encontre sapatos semelhantes, mas com cores diferentes” junto com uma imagem de sapato enviada.
- Pesquisa visual de documentos
-
Pesquise gráficos, diagramas ou elementos visuais nos documentos. Exemplo: faça upload de uma imagem de gráfico para encontrar gráficos semelhantes em sua coleção de documentos.
Escolhendo entre Nova e BDA para conteúdo multimodal
Ao trabalhar com conteúdo multimodal, escolha sua abordagem com base no tipo de conteúdo e nos padrões de consulta:
Matriz de decisão Nova x BDA Tipo de conteúdo Use incorporações multimodais Nova Use o analisador Bedrock Data Automation (BDA) Conteúdo de vídeo Foco na narrativa visual (esportes, anúncios, demonstrações), consultas sobre elementos visuais, conteúdo mínimo de fala Importante speech/narration (apresentações, reuniões, tutoriais), dúvidas sobre conteúdo falado, transcrições necessárias Conteúdo de áudio Identificação de música ou efeitos sonoros, análise de áudio sem fala Podcasts, entrevistas, reuniões, qualquer conteúdo com discurso que exija transcrição Conteúdo da imagem Pesquisas de similaridade visual, image-to-image recuperação, análise visual de conteúdo Extração de texto de imagens, processamento de documentos, requisitos de OCR nota
As incorporações multimodais Nova não podem processar o conteúdo da fala diretamente. Se seus arquivos de áudio ou vídeo contiverem informações faladas importantes, use o analisador BDA para converter voz em texto primeiro ou escolha um modelo de incorporação de texto.
Limitações da consulta multimodal
-
Máximo de uma imagem por consulta na versão atual
-
As consultas de imagem só são suportadas com modelos de incorporação multimodais (Titan G1 ou Cohere Embed v3)
-
RetrieveAndGenerate A API não é compatível com bases de conhecimento com modelos de incorporação multimodais e buckets de conteúdo S3
-
Se você fornecer uma consulta de imagem para uma base de conhecimento usando modelos de incorporação somente de texto, um erro 4xx será retornado
Estrutura de resposta multimodal da API
As respostas de recuperação para conteúdo multimodal incluem metadados adicionais:
-
URI de origem: aponta para a localização original do bucket do S3
-
URI suplementar: aponta para a cópia em seu bucket de armazenamento multimodal
-
Metadados de registro de data e hora: incluídos em partes de vídeo e áudio para permitir um posicionamento preciso da reprodução
nota
Ao usar a API ou o SDK, você precisará lidar com a recuperação de arquivos e a navegação com carimbo de data/hora em seu aplicativo. O console lida com isso automaticamente com reprodução de vídeo aprimorada e navegação automática com carimbo de data/hora.
-
nota
Se você receber um erro informando que o prompt excede o limite de caracteres ao gerar respostas, é possível encurtar o prompt das seguintes maneiras:
-
Reduza o número máximo de resultados recuperados (isso reduz o que é preenchido para o espaço reservado $search_results$ no Modelos de prompt da base de conhecimento: orquestração e geração).
-
Recrie a fonte de dados com uma estratégia de fragmentação que usa fragmentos menores (isso reduz o que é preenchido para o espaço reservado $search_results$ no Modelos de prompt da base de conhecimento: orquestração e geração).
-
Encurte o modelo do prompt.
-
Encurte a consulta do usuário (isso reduz o que é preenchido para o espaço reservado $query$ no Modelos de prompt da base de conhecimento: orquestração e geração).