Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Interrogation d’une base de connaissances et extraction des données
Important
Les barrières de protection ne sont appliquées qu’à l’entrée et qu’à la réponse générée par le LLM. Elles ne sont pas appliqués aux références récupérées des bases de connaissances lors de l’exécution.
Une fois votre base de données configurée, vous pouvez l’interroger et extraire des fragments de vos données sources qui sont pertinentes pour la requête à l’aide de l’opération d’API Retrieve. Vous pouvez également utiliser un modèle de reclassement au lieu du modèle de classement de bases de données Amazon Bedrock par défaut pour classer les fragments de source en fonction de leur pertinence lors de leur récupération.
Pour découvrir comment interroger une base de connaissances, cliquez sur l’onglet correspondant à votre méthode préférée, puis suivez les étapes :
- Console
-
Pour tester votre base de connaissances
-
Connectez-vous au AWS Management Console avec une identité IAM autorisée à utiliser la console Amazon Bedrock. Ouvrez ensuite la console Amazon Bedrock à l'adresse https://console.aws.amazon.com/bedrock.
-
Dans le volet de navigation de gauche, sélectionnez Bases de connaissances.
-
Dans la section Bases de connaissances, effectuez l’une des actions suivantes :
-
Cliquez sur la case d’option en regard de la base de connaissances que vous souhaitez tester, puis sélectionnez Tester la base de connaissances. Une fenêtre de test s’ouvre sur la droite.
-
Choisissez la base de connaissances que vous souhaitez tester. Une fenêtre de test s’ouvre sur la droite.
-
-
Dans la fenêtre de test, désélectionnez Générer des réponses pour votre requête afin de renvoyer les informations extraites directement de votre base de connaissances.
-
(Facultatif) Sélectionnez l’icône de configuration (
) pour ouvrir Configurations. Pour en savoir plus sur la configuration, consultez Configuration et personnalisation de la génération de requêtes et de réponses. -
Entrez une requête dans la zone de texte de la fenêtre de chat et sélectionnez Exécuter pour renvoyer les réponses de la base de connaissances.
-
Les fragments sources sont renvoyés directement par ordre de pertinence. Les images extraites de votre source de données peuvent également être renvoyées sous forme de fragment source.
-
Pour consulter les informations des fragments renvoyés, sélectionnez Afficher les détails de la source.
-
Pour voir les configurations que vous avez définies pour la requête, développez Configurations des requêtes.
-
Pour afficher les détails d’un fragment source, développez-le en cliquant sur la flèche droite (
) près de celui-ci. Vous pouvez consulter les informations suivantes :-
Le texte brut issu du bloc source. Pour copier ce texte, cliquez sur l’icône de copie (
). Si vous avez utilisé Amazon S3 pour stocker vos données, cliquez sur l’icône de lien externe (
) pour accéder à l’objet S3 contenant le fichier. -
Les métadonnées associées au fragment source, si vous avez utilisé Amazon S3 pour stocker vos données. Les attribute/field clés et les valeurs sont définies dans le
.metadata.jsonfichier associé au document source. Pour plus d’informations, consultez la section Métadonnées et filtrage dans Configuration et personnalisation de la génération de requêtes et de réponses.
-
-
Options de chat
-
Passez à la génération de réponses en fonction des fragments source extraits en activant l’option Générer des réponses. Si vous modifiez ce paramètre, le texte de la fenêtre de chat s’efface complètement.
-
Pour effacer la fenêtre de discussion, sélectionnez l'icône en forme de balai (
). -
Pour copier tous les résultats dans la fenêtre de discussion, sélectionnez l'icône de copie (
).
-
- API
-
Pour interroger une base de connaissances et ne renvoyer que le texte pertinent provenant des sources de données, envoyez une demande Retrieve avec un point de terminaison d’exécution des agents Amazon Bedrock.
Les champs suivants sont obligatoires :
Champ Description de base knowledgeBaseId Requête à envoyer à la base de connaissances interroger. retrievalQuery Contient un champ textpermettant de spécifier la requête.guardrailsConfiguration Incluez des champs guardrailsConfiguration tels que guardrailsIdetguardrailsVersionpour utiliser votre barrière de protection dans la demandeLes champs suivants sont facultatifs :
Champ Cas d’utilisation nextToken Pour renvoyer le prochain lot de réponses (voir les champs de réponse ci-dessous). retrievalConfiguration Pour inclure des configurations de requête afin de personnaliser la recherche vectorielle. Pour plus d’informations, consultez KnowledgeBaseVectorSearchConfiguration. Vous pouvez utiliser un modèle de reclassement par rapport au modèle de classement par défaut des bases de connaissances Amazon Bedrock en incluant le
rerankingConfigurationchamp dans le. KnowledgeBaseVectorSearchConfiguration LererankingConfigurationchamp correspond à un VectorSearchRerankingConfigurationobjet, dans lequel vous pouvez spécifier le modèle de reclassement à utiliser, les champs de demande supplémentaires à inclure, les attributs de métadonnées pour filtrer les documents lors du reclassement et le nombre de résultats à renvoyer après le reclassement. Pour de plus amples informations, veuillez consulter VectorSearchRerankingConfiguration.Note
Si la
numberOfRerankedResultsvaleur que vous spécifiez est supérieure à celle du KnowledgeBaseVectorSearchConfiguration, le nombre maximum de résultats renvoyés est la valeur pournumberOfResults.numberOfResultsIl existe une exception si vous utilisez la décomposition des requêtes (pour plus d’informations, consultez la section Modifications des requêtes dans Configuration et personnalisation de la génération de requêtes et de réponses. Si vous utilisez la décomposition des requêtes,numberOfRerankedResultspeut être jusqu’à cinq fois supérieur ànumberOfResults.La réponse renvoie les fragments de la source de données sous la forme d'un tableau d'KnowledgeBaseRetrievalResultobjets dans le
retrievalResultschamp. Chacun KnowledgeBaseRetrievalResultcontient les champs suivants :Champ Description content Contient un fragment de source de texte dans le champ textou un fragment de source d’image dans le champbyteContent. Si le contenu est une image, l’URI de données du contenu codé en Base64 est renvoyé au formatdata:image/jpeg;base64,.${base64-encoded string}metadata Contient chaque attribut de métadonnées sous forme de clé et la valeur de métadonnées sous forme de valeur JSON à laquelle la clé correspond. location Contient l’URI ou l’URL du document auquel appartient le fragment source. score Le score de pertinence du document. Vous pouvez utiliser ce score pour analyser le classement des résultats. Si le nombre de fragments sources dépasse ce que peut contenir la réponse, une valeur est renvoyée dans le champ
nextToken. Utilisez cette valeur dans une autre demande pour renvoyer le prochain lot de résultats.Si les données récupérées contiennent des images, la réponse renvoie également les en-têtes de réponse suivants, qui contiennent les métadonnées des blocs source renvoyés dans la réponse :
-
x-amz-bedrock-kb-byte-content-source: contient l’URI d’Amazon S3 de l’image. -
x-amz-bedrock-kb-description: contient la chaîne encodée en Base64 pour l’image.
Note
Vous ne pouvez pas filtrer sur ces en-têtes de réponse de métadonnées lorsque vous configurez des filtres de métadonnées.
Requêtes multimodales
Pour les bases de connaissances utilisant des modèles d'intégration multimodaux, vous pouvez effectuer des requêtes à l'aide d'images en plus du texte. Le
retrievalQuerychamp prend en charge unmultimodalInputListchamp pour les requêtes d'images :Note
Pour des conseils complets sur la mise en place et l'utilisation de bases de connaissances multimodales, y compris le choix entre les approches Nova et BDA, voir. Création d'une base de connaissances pour le contenu multimodal
{ "knowledgeBaseId": "EXAMPLE123", "retrievalQuery": { "text": "Find similar shoes", "multimodalInputList": [ { "content": { "byteContent": "base64-encoded-image-data" }, "modality": "IMAGE" } ] } }Vous pouvez également effectuer une requête avec des images uniquement en omettant le
textchamp :{ "knowledgeBaseId": "EXAMPLE123", "retrievalQuery": { "multimodalInputList": [ { "content": { "byteContent": "base64-encoded-image-data" }, "modality": "IMAGE" } ] } }Modèles de requêtes multimodaux courants
- Image-to-image rechercher
-
Téléchargez une image pour trouver des images visuellement similaires. Exemple : téléchargez la photo d'une chaussure Nike rouge pour trouver des chaussures similaires dans votre catalogue de produits.
- Affinement du texte et de l'image
-
Combinez du texte et des images pour obtenir des résultats plus précis. Exemple : « Trouvez des chaussures similaires mais de couleurs différentes » avec une image de chaussure téléchargée.
- Recherche visuelle de documents
-
Recherchez des graphiques, des diagrammes ou des éléments visuels dans les documents. Exemple : téléchargez une image de graphique pour trouver des graphiques similaires dans votre collection de documents.
Choisir entre Nova et BDA pour le contenu multimodal
Lorsque vous travaillez avec du contenu multimodal, choisissez votre approche en fonction de votre type de contenu et de vos modèles de requête :
Matrice de décision Nova vs BDA Type de contenu Utilisez les intégrations multimodales Nova Utiliser l'analyseur Bedrock Data Automation (BDA) Contenu vidéo Concentration sur la narration visuelle (sports, publicités, démonstrations), requêtes sur des éléments visuels, contenu vocal minimal Important speech/narration (présentations, réunions, tutoriels), requêtes sur le contenu oral, besoin de transcriptions Contenu audio Identification de musique ou d'effets sonores, analyse audio non vocale Podcasts, interviews, réunions, tout contenu dont le discours doit être transcrit Contenu de l'image Recherches de similarité visuelle, image-to-image récupération, analyse de contenu visuel Extraction de texte à partir d'images, traitement des documents, exigences en matière d'OCR Note
Les intégrations multimodales Nova ne peuvent pas traiter directement le contenu vocal. Si vos fichiers audio ou vidéo contiennent des informations vocales importantes, utilisez d'abord l'analyseur BDA pour convertir la parole en texte, ou choisissez plutôt un modèle d'intégration de texte.
Limites liées aux requêtes multimodales
-
Maximum d'une image par requête dans la version actuelle
-
Les requêtes d'image ne sont prises en charge qu'avec les modèles d'intégration multimodaux (Titan G1 ou Cohere Embed v3)
-
RetrieveAndGenerate L'API n'est pas prise en charge pour les bases de connaissances comportant des modèles d'intégration multimodaux et des compartiments de contenu S3
-
Si vous fournissez une requête d'image à une base de connaissances à l'aide de modèles d'intégration contenant uniquement du texte, une erreur 4xx sera renvoyée
Structure de réponse d'API multimodale
Les réponses de récupération pour le contenu multimodal incluent des métadonnées supplémentaires :
-
URI source : pointe vers l'emplacement de votre compartiment S3 d'origine
-
URI supplémentaire : pointe vers la copie dans votre compartiment de stockage multimodal
-
Métadonnées d'horodatage : incluses pour les segments vidéo et audio afin de permettre un positionnement précis de la lecture
Note
Lorsque vous utilisez l'API ou le SDK, vous devez gérer la récupération des fichiers et la navigation par horodatage dans votre application. La console gère cela automatiquement grâce à une lecture vidéo améliorée et à une navigation automatique par horodatage.
-
Note
Si vous recevez un message d’erreur indiquant que l’invite dépasse la limite de caractères lors de la génération des réponses, vous pouvez raccourcir l’invite comme suit :
-
Réduisez le nombre maximum de résultats récupérés (cela raccourcit ce qui est rempli dans l’espace réservé $search_results$ dans Modèles d’invite de base de connaissances : orchestration et génération).
-
Recréez la source de données à l’aide d’une stratégie de découpage qui utilise des blocs plus petits (cela raccourcit ce qui est rempli dans l’espace réservé $search_results$ dans Modèles d’invite de base de connaissances : orchestration et génération).
-
Raccourcissez le modèle d’invite.
-
Raccourcissez la requête utilisateur (cela raccourcit ce qui est rempli dans l’espace réservé $query$ dans Modèles d’invite de base de connaissances : orchestration et génération).