Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Analyse de pages Web pour votre base de connaissances
Le robot d’indexation fourni par Amazon Bedrock se connecte aux URL que vous avez sélectionnées pour les utiliser dans votre base de connaissances Amazon Bedrock et les analyse. Vous pouvez analyser les pages du site Web conformément à la portée ou aux limites que vous avez définies pour les URL sélectionnées. Vous pouvez analyser les pages d’un site Web à l’aide de la console de gestion AWS pour Amazon Bedrock
Note
Le connecteur de source de données du robot d’indexation est en version préliminaire et peut faire l’objet de modifications.
Lorsque vous sélectionnez des sites Web à analyser, vous devez respecter la Politique d’AWS en matière d’utilisation acceptable
Le robot d’indexation respecte robots.txt conformément à la norme RFC 9309
Le nombre d’éléments de contenu de page Web et le nombre de Mo par élément de contenu pouvant être analysés sont limités. Consultez Quotas pour les bases de connaissances.
Fonctionnalités prises en charge
Le robot d’indexation se connecte aux pages HTML et les analyse à partir de l’URL d’origine, en parcourant tous les liens enfants sous le même domaine principal et le même chemin d’accès. Si l’une des pages HTML fait référence à des documents pris en charge, le robot d’indexation récupérera ces documents, qu’ils se trouvent ou non sous le même domaine principal. Vous pouvez modifier le comportement d’indexation en modifiant la configuration d’indexation. Consultez Configuration de la connexion.
Les éléments suivants sont pris en charge pour vous permettre de :
-
sélectionner plusieurs URL sources à analyser et définir la portée des URL afin d’analyser uniquement l’hôte ou d’inclure également les sous-domaines ;
-
analyser les pages Web statiques qui font partie de vos URL sources ;
-
spécifier un suffixe agent utilisateur personnalisé pour définir les règles de votre propre robot ;
-
inclure ou exclure certaines URL qui correspondent à un modèle de filtre ;
-
respecter les directives standard de robots.txt telles que « Autoriser » et « Interdire » ;
-
limiter la portée des URL à analyser et exclure éventuellement les URL qui correspondent à un modèle de filtre ;
-
limiter le taux d’indexation des URL et le nombre maximum de pages à analyser ;
-
consulter l’état des URL indexées dans Amazon CloudWatch.
Conditions préalables
Pour utiliser le robot d’indexation, assurez-vous de :
-
vérifier que vous êtes autorisé à analyser vos URL sources ;
-
vérifier que le chemin d’accès à robots.txt correspondant à vos URL sources n’empêche pas l’analyse des URL. Le robot d’indexation respecte les normes de robots.txt :
disallowpar défaut si robots.txt n’est pas trouvé pour le site Web. Le robot d’indexation respecte robots.txt conformément à la norme RFC 9309. Vous pouvez également spécifier un suffixe d’en-tête agent utilisateur personnalisé pour définir les règles de votre propre robot. Pour plus d’informations, consultez Accès à l’URL du robot d’indexation dans les instructions Configuration de la connexion de cette page ; -
activer la livraison des journaux CloudWatch Logs et suivre des exemples de journaux du robot d’indexation pour connaître l’état de votre tâche d’ingestion de données pour l’ingestion de contenu Web et savoir si certaines URL ne peuvent pas être récupérées.
Note
Lorsque vous sélectionnez des sites Web à analyser, vous devez respecter la Politique d’AWS en matière d’utilisation acceptable
Configuration de la connexion
Pour plus d’informations sur la portée de synchronisation pour l’indexation des URL, les filtres d’inclusion/exclusion, l’accès aux URL, la synchronisation incrémentielle et leur fonctionnement, sélectionnez les sections suivantes :
Vous pouvez limiter la portée des URL à analyser en fonction de la relation spécifique entre l’URL de chaque page et les URL d’origine. Pour accélérer les analyses, vous pouvez limiter les URL à celles qui ont le même hôte et le même chemin d’URL initial que l’URL d’origine. Pour des analyses plus étendues, vous pouvez choisir d’analyser les URL avec le même hôte ou dans n’importe quel sous-domaine de l’URL d’origine.
Choisissez parmi les options décrites ci-dessous.
-
Par défaut : limitez l’indexation aux pages Web qui appartiennent au même hôte et dont le chemin URL initial est le même. Par exemple, avec une URL d’origine « https://aws.amazon.com/bedrock/ », seuls ce chemin et les pages Web qui en découlent seront analysés, comme « https://aws.amazon.com/bedrock/agents/ ». Les URL sœurs telles que « https://aws.amazon.com/ec2/ » ne sont pas analysées, par exemple.
-
Hôte uniquement : limitez l’indexation aux pages Web appartenant au même hôte. Par exemple, si l’URL d’origine est « https://aws.amazon.com/bedrock/ », les pages Web contenant « https://aws.amazon.com » seront également analysées, comme « https://aws.amazon.com/ec2 ».
-
Sous-domaines : incluez l’indexation de toute page Web dont le domaine principal est celui de l’URL d’origine. Par exemple, si l’URL d’origine est « https://aws.amazon.com/bedrock/ », toute page Web contenant « amazon.com » (sous-domaine) sera analysée, comme « https://www.amazon.com ».
Note
Assurez-vous de ne pas indexer un nombre potentiellement excessif de pages Web. Il n’est pas recommandé d’analyser des sites Web volumineux, tels que wikipedia.org, sans filtres ni limites de portée. L’indexation de sites Web volumineux prendra beaucoup de temps.
Les types de fichiers pris en charge sont analysés quelle que soit leur portée et s’il n’existe aucun modèle d’exclusion pour le type de fichier.
Le robot d’indexation prend en charge les sites Web statiques.
Vous pouvez également limiter le taux d’indexation des URL afin de contrôler la limitation de la vitesse d’indexation. Vous définissez le nombre maximal d’URL à analyser par hôte et par minute. En outre, vous pouvez également définir le nombre maximal (jusqu’à 25 000) de pages Web à analyser. Notez que si le nombre total de pages Web provenant de vos URL sources dépasse le maximum défini, votre tâche de synchronisation/ingestion de sources de données échouera.
Vous pouvez inclure ou exclure certaines URL en fonction de votre portée. Les types de fichiers pris en charge sont analysés quelle que soit leur portée et s’il n’existe aucun modèle d’exclusion pour le type de fichier. Si vous spécifiez un filtre d’inclusion et un filtre d’exclusion et que les deux correspondent à une URL, le filtre d’exclusion est prioritaire et le contenu Web n’est pas analysé.
Important
Les filtres de modèles d’expression régulière problématiques qui entraînent un retour sur trace catastrophique et une vision prospective sont rejetés.
Exemple de modèle de filtre d’expression régulière pour exclure les URL se terminant par « .pdf » ou les pièces jointes de pages Web PDF : « .*\.pdf$ »
Vous pouvez utiliser le robot d’indexation pour explorer les pages des sites Web que vous êtes autorisé à analyser.
Lorsque vous sélectionnez des sites Web à analyser, vous devez respecter la Politique d’AWS en matière d’utilisation acceptable
Le robot d’indexation respecte robots.txt conformément à la norme RFC 9309
Vous pouvez spécifier à certains robots Agent utilisateur « d’autoriser » ou de « refuser » à l’agent utilisateur d’analyser vos URL sources. Vous pouvez modifier le fichier robots.txt de votre site Web pour contrôler la façon dont le robot d’indexation explore vos URL sources. Le robot recherchera d’abord les règles bedrockbot-UUID , puis les règles bedrockbot génériques dans le fichier robots.txt.
Vous pouvez également ajouter un suffixe Agent utilisateur qui peut être utilisé pour autoriser votre robot à figurer sur la liste des systèmes de protection contre les robots. Notez qu’il n’est pas nécessaire d’ajouter ce suffixe au fichier robots.txt pour s’assurer que personne ne puisse usurper la chaîne Agent utilisateur. Par exemple, pour autoriser le robot d’indexation à indexer tout le contenu du site Web et interdire l’indexation à tout autre robot, utilisez la directive suivante :
User-agent: bedrockbot-UUID # Amazon Bedrock Web Crawler Allow: / # allow access to all pages User-agent: * # any (other) robot Disallow: / # disallow access to any pages
Chaque fois que le robot d’indexation s’exécute, il récupère le contenu de toutes les URL accessibles depuis les URL sources et qui correspondent à la portée et aux filtres. Pour les synchronisations incrémentielles après la première synchronisation de l’ensemble du contenu, Amazon Bedrock mettra à jour votre base de connaissances avec du contenu nouveau et modifié, et supprimera l’ancien contenu qui n’est plus présent. Parfois, le robot d’indexation peut ne pas être en mesure de savoir si le contenu a été supprimé du site Web ; dans ce cas, il préférera conserver l’ancien contenu de votre base de connaissances.
Pour synchroniser votre source de données avec votre base de connaissances, utilisez l’API StartIngestionJob ou sélectionnez votre base de connaissances dans la console, puis sélectionnez Synchroniser dans la section Vue d’ensemble des sources de données.
Important
Toutes les données que vous synchronisez à partir de votre source de données sont accessibles à toute personne disposant des autorisations bedrock:Retrieve pour récupérer les données. Cela peut également inclure toutes les données dont les autorisations de source de données sont contrôlées. Pour plus d’informations, consultez Autorisations de la base de connaissances.