Generazione aumentata di messa a terra e recupero - AWS Guida prescrittiva

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Generazione aumentata di messa a terra e recupero

Affidabilità, precisione e spiegabilità sono essenziali per implementare i sistemi di intelligenza artificiale negli ambienti di produzione aziendali. I modelli Foundation (FMs) offrono funzionalità generali straordinarie. Tuttavia, vengono formati in aziende pubbliche su larga scala e spesso non conoscono i dati proprietari, le regole aziendali o le modifiche recenti.

Per colmare queste lacune di consapevolezza, AWS abilita Retrieval Augmented Generation (RAG) tramite Amazon Bedrock Knowledge Bases. RAG è un potente modello architettonico che basa le risposte FM su conoscenze esterne e specifiche del dominio, garantendo precisione fattuale e rilevanza contestuale.

RAG migliora l'output del Large Language Model (LLM) combinando due processi:

  • Recupero: utilizza un meccanismo di ricerca semantica (in genere basato su incorporamenti vettoriali) per identificare i contenuti pertinenti da una fonte di conoscenza curata (ad esempio, documenti interni, manuali dei prodotti e registri dei casi).

  • Genera: fornisci il contesto recuperato come parte del prompt al LLM, consentendogli di creare una risposta basata su tali informazioni autorevoli.

Questo approccio consente ai modelli di base «chiusi» di agire come se avessero accesso ai vostri dati aziendali in tempo reale e curati, senza bisogno di riqualificazione.

Ad esempio, un dipendente chiede a un assistente di intelligenza artificiale interno «Qual è la nostra politica di viaggio?» La risposta dell'assistente viene creata utilizzando la documentazione delle risorse umane (HR) ospitata in Amazon Simple Storage Service (Amazon S3), senza la necessità di perfezionare un modello.

Messa a terra in Amazon Bedrock

Amazon Bedrock supporta il grounding tramite la funzionalità Knowledge Bases, che consente agli sviluppatori di configurare e collegare gli archivi di contenuti aziendali ai modelli base senza dover gestire l'infrastruttura.

Le funzionalità chiave di grounding in Amazon Bedrock includono quanto segue:

  • Incorporamento automatico di documenti utilizzando provider FM supportati

  • Ricerca semantica tra documenti HTML PDFs, Word o file di testo archiviati in Amazon S3

  • Grounding senza regolazione fine perché il contenuto viene iniettato nella finestra contestuale del LLM

  • Funziona con Amazon Bedrock Agents per eseguire ragionamenti complessi o utilizzare strumenti in più fasi

Le fonti di base supportate nelle Knowledge Base di Amazon Bedrock includono quanto segue:

  • Amazon S3 (supporto nativo) e/o Web Crawler (in anteprima) Confluence Salesforce SharePoint

  • Indici preintegrati utilizzando archivi vettoriali come Amazon Aurora, Amazon Serverless, OpenSearch Amazon Neptune Analytics ed Enterprise Cloud. MongoDB Pinecone Redis

I modelli di supporto per la messa a terra in Amazon Bedrock includono quanto segue:

  • Tutto ciò LLMs che è compatibile con Amazon Bedrock supporta la messa a terra.

  • I modelli Amazon Nova sono ottimizzati per la base di testo, immagini e video utilizzando tecniche di recupero ibride.

  • L'output radicato può essere ulteriormente orchestrato dagli agenti di Amazon Bedrock per il ragionamento e il processo decisionale.

Integrazione con l'intelligenza artificiale agentica

RAG funziona particolarmente bene con gli agenti di Amazon Bedrock, permettendo loro di agire con intelligenza contestuale e consapevolezza delle policy. Di seguito è riportato un esempio di flusso di lavoro agentico:

  1. L'input dell'utente viene inviato ad Amazon EventBridge, che lo invia a un agente Amazon Bedrock.

  2. L'agente richiama una knowledge base per cercare documenti interni.

  3. Il contesto recuperato è incorporato nel prompt LLM.

  4. L'LLM genera un output basato su terra con riferimenti e tracciabilità.

  5. (Facoltativo) L'agente archivia l'output e le prove di supporto in memoria per azioni future.

Questo flusso di lavoro consente all'agente di ragionare in base al contesto e prendere decisioni spiegabili, colmando il divario tra l'intelligenza generica e l'applicazione specifica del dominio.

Aggiungere barriere per la sicurezza e la conformità

La messa a terra migliora la precisione, ma l'intelligenza artificiale di livello di produzione richiede controlli espliciti su ciò che il modello può e non può dire o fare. La funzionalità Amazon Bedrock Guardrails limita il comportamento degli agenti e applica le policy aziendali.

Le funzionalità dei guardrail includono quanto segue:

  • Filtri di contenuto: impedisci gli output che violano gli standard di sicurezza o conformità, incluso il mascheramento delle informazioni personali identificabili.

  • Argomenti di rifiuto: blocca categorie specifiche di risposte (ad esempio, nessun consiglio medico).

  • Ispezione tempestiva: identifica e rimuove gli input sensibili prima dell'inferenza.

  • Controllo degli accessi a livello utente: personalizza le risposte in base all'identità e ai ruoli utilizzando (IAM). AWS Identity and Access Management

  • Vincoli del contesto della sessione: evita la deriva del modello assegnando all'agente un'attività specifica.

Con i guardrail, le organizzazioni possono delegare in sicurezza il ragionamento e il processo decisionale agli agenti, mantenendo il controllo su tono, comportamento e confini.

Ragionamento automatizzato in aggiunta a RAG

I contenuti fondati non sono sufficienti. Gli agenti devono ragionare su quel contenuto. È qui che il ragionamento automatico basato su LLM diventa fondamentale. Il ragionamento automatizzato si concentra sul consentire agli agenti di ragionare in modo logico, ad esempio trarre conclusioni, prendere decisioni o risolvere problemi, senza l'intervento umano diretto.

Il ragionamento automatizzato consente quanto segue:

  • Sintesi: confronta, contrappone o riepiloga più documenti recuperati.

  • Logica multi-hop: collega i fatti tra documenti o sezioni per trarre conclusioni.

  • Processo decisionale: scegli tra dati in conflitto in base a regole o preferenze.

  • Risposte basate sull'evidenza: genera citazioni e giustificazioni per ogni decisione.

Queste funzionalità trasformano una risposta fondata in una risposta motivata e un agente Amazon Bedrock da uno strumento di recupero a un consulente sensibile al dominio.

Con strumenti come il concatenamento rapido, i cicli di riflessione-valutazione e l'orchestrazione multiagente, i sistemi di intelligenza artificiale agentica possono simulare modelli di ragionamento esperti, come diagnosi, triage, pianificazione o analisi del rischio.

Modelli Amazon Nova e generazione a terra

Con Amazon Nova Pro e Amazon Nova Premier, i flussi di lavoro RAG basati su basi si estendono agli input multimodali, consentendo agli agenti di interpretare e ragionare attraverso le seguenti fonti:

  • Documenti annotati e file PDF

  • Diagrammi, grafici e immagini incorporate

  • Schermate, moduli e visualizzazioni di dati strutturati

  • Trascrizioni video e slide deck

Questa funzionalità rende Amazon Nova la soluzione ideale per i settori che richiedono una conoscenza approfondita dei contenuti multimediali, come casi legali, valutazioni assicurative, cartelle cliniche o documenti normativi.

Sicurezza e governance in RAG

I modelli aziendali radicati introducono, ad esempio tramite RAG, basi di conoscenza o perfezionamento, nuove responsabilità. Stai inserendo i tuoi dati e il tuo contesto in un modello di base. Ciò introduce nuove responsabilità oltre alla semplice selezione del modello e alla rapida creazione. AWS consiglia i seguenti controlli, che collaborano con i guardrail per supportare un'implementazione aziendale sicura:

  • Garanzia della qualità dei dati di origine: le risposte fondate sono affidabili solo quanto i documenti, i database o i documenti su APIs cui si basano.

  • Classificazione e tracciabilità dei dati: classifica e contrassegna le fonti di contenuto, per mostrare da dove proviene una risposta fondata.

  • Controllo degli accessi: l'inserimento di documenti privati nei prompt comporta rischi per la sicurezza e la privacy. Limita l'accesso a documenti o incorporamenti specifici tramite IAM.

  • Gestione degli aggiornamenti e dei cambiamenti: una conoscenza approfondita deve evolversi con l'evoluzione dell'azienda. Sono necessarie politiche di controllo delle versioni, aggiornamento e reindicizzazione automatica per evitare che le informazioni risultino obsolete o distorte negli output del modello.

  • Governance dell'intelligenza integrata: ora stai implementando le conoscenze organizzative utilizzando l'intelligenza artificiale. Questa capacità comporta il dovere di convalidare, monitorare e governare il modo in cui viene espressa, specialmente in settori regolamentati come l'assistenza sanitaria e la finanza.

  • Pronta osservabilità: i sistemi messi a terra devono rispettare i diritti di proprietà intellettuale, i requisiti normativi e le esclusioni di responsabilità aziendali. Acquisisci tutte le catene di richieste, contesto e risposta per garantire la conformità.

  • Registrazione di audit: monitora il recupero e l'inferenza tramite log strutturati. AWS CloudTrail CloudWatch

  • Feedback degli utenti e cicli di correzione: le aziende hanno la responsabilità di consentire agli utenti di segnalare argomenti errati, risposte errate o fonti irrilevanti e di indirizzare tali feedback per migliorarne la pertinenza futura.

  • Controllo della memoria: scegli se mantenere le informazioni ricavate dalle deduzioni nel corso delle sessioni.

  • Ottimizzazione del budget dei token: quando Grounding aggiunge grandi porzioni di testo, aumenta l'utilizzo (e il costo) dei token. È necessario bilanciare la precisione del RAG e la rapidità di utilizzo, spesso attraverso la suddivisione in blocchi, il riepilogo o il filtraggio dei metadati.

Riepilogo di grounding e RAG

RAG è una strategia fondamentale per un'IA aziendale sicura e scalabile. Basando i modelli di base su conoscenze interne autorevoli, RAG trasforma modelli linguistici di grandi dimensioni da generatori generici in assistenti di intelligenza artificiale sensibili al dominio, allineati alle politiche e spiegabili. Questo approccio riduce le allucinazioni, impone la conformità alle politiche interne e consente risposte contestuali e basate sui fatti, rendendo l'IA generativa adatta sia alle applicazioni rivolte ai clienti che ai dipendenti.

Se combinati con il ragionamento automatico e i guardrail, i modelli fondati diventano non solo strumenti, ma agenti affidabili e responsabili. Con il supporto RAG serverless di Amazon Bedrock e le funzionalità multimodali di Amazon Nova, le organizzazioni possono scalare l'IA sicura e ad alte prestazioni in tutta l'azienda senza gestire l'infrastruttura.