Créer des systèmes RAG avec Amazon Novaréation de systèmes RAG avec Amazon Nova - Amazon Nova

Créer des systèmes RAG avec Amazon Novaréation de systèmes RAG avec Amazon Nova

La génération à enrichissement contextuel (RAG) optimise la sortie d’un grand modèle de langage (LLM) en se référant à une base de connaissances faisant autorité en dehors de ses sources de données d’entraînement avant de générer une réponse. Cette approche permet de fournir au modèle des informations actuelles et d’assurer son ancrage dans des données exclusives à un domaine ou propriétaires. Elle fournit également une source d’informations contrôlable, que vous pouvez utiliser pour définir des contrôles d’accès à des contenus spécifiques et résoudre les problèmes dans les réponses.

RAG fonctionne en connectant un générateur (souvent un LLM) à une base de données de contenu (telle qu’un magasin de connaissances) via un extracteur. L’extracteur est chargé de trouver les informations pertinentes. Dans la plupart des applications métier, la base de données de contenu est un magasin de vecteurs, l’extracteur est un modèle de vectorisation et le générateur est un LLM. Pour plus d’informations, consultez Génération à enrichissement contextuel (RAG) et Bases de connaissances Bedrock.

Un système RAG comporte plusieurs composants. Ce guide se concentre sur la manière d’utiliser Amazon Nova comme LLM dans n’importe quel système RAG.

Vous pouvez utiliser les modèles Amazon Nova comme LLM dans un système RAG texte. Avec les modèles Amazon Nova, vous avez la possibilité de créer un système RAG avec les bases de connaissances Amazon Bedrock ou de créer votre propre système RAG. Vous pouvez également associer votre base de connaissances à un agent dans les agents Amazon Bedrock afin d’ajouter des capacités RAG à l’agent. Pour plus d’informations, consultez Automatiser les tâches dans votre application à l’aide d’agents conversationnels.