Modello 5: flusso di lavoro basato sull'intelligenza artificiale degli agenti - AWS Guida prescrittiva

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Modello 5: flusso di lavoro basato sull'intelligenza artificiale degli agenti

I modelli linguistici di grandi dimensioni (LLMs) sono potenti, ma per impostazione predefinita sono illimitati. Non sono consapevoli dei dati proprietari, delle regole aziendali o dei vincoli operativi, il che li rende rischiosi per l'interazione diretta con utenti o sistemi.

Le aziende devono affrontare le seguenti sfide comuni:

  • LLMs allucinano quando non conoscono la risposta, il che comporta rischi per la fiducia e la conformità.

  • Le risposte non si basano su fatti, politiche o sullo stato in tempo reale specifici del dominio (ad esempio ordini, account e diritti).

  • L'automazione dinamica delle attività (ad esempio, la ricerca degli ordini, il triage del supporto e le operazioni IT) spesso richiede l'utilizzo di strumenti reali e non solo la generazione di testo. APIs

  • La creazione di router ad intenti tradizionali, gestori di dialoghi e flussi basati su regole è costosa, fragile e non scalabile.

Per affrontare queste sfide, le aziende vogliono agenti che ragionino in modo intelligente, agiscano in modo autonomo e rimangano con i piedi per terra.

Il flusso di lavoro basato sull'intelligenza artificiale degli agenti: intelligenza autonoma con fiducia e contesto

Il modello di flusso di lavoro basato sull'intelligenza artificiale degli agenti utilizza Amazon Bedrock Agents per orchestrare il ragionamento semantico, l'invocazione degli strumenti e la base delle conoscenze. Gli agenti consentono agli assistenti AI di accettare gli input degli utenti, comprendere le intenzioni e completare attività in più fasi utilizzando l'azienda e i documenti. APIs

A differenza dei semplici chatbot o dei prompt LLM statici, gli agenti Amazon Bedrock:

  • Interpreta gli obiettivi del linguaggio naturale.

  • Seleziona e richiama gli strumenti (utilizzando AWS Lambda le funzioni) in modo dinamico.

  • Cerca o consulta le knowledge base per rimanere ancorato alla realtà aziendale.

  • Fornisci risposte contestuali e in più fasi con tracciabilità e attuabilità.

L'architettura di riferimento implementa ogni livello come segue:

  • Attivazione di eventi: utilizza Amazon API Gateway, l'interfaccia utente di chatbot o il portale di supporto per attivare l'interazione degli agenti tramite Amazon Bedrock

  • Elaborazione: implementa Lambda per formattare l'input, applicare il contesto di sicurezza (ad esempio ruoli o autorizzazioni utente) e arricchire i metadati

  • Inferenza: utilizza l'agente Amazon Bedrock per ricevere il prompt, richiamare gli strumenti Lambda (ad esempiogetOrderStatus), eseguire il grounding tramite una knowledge base e assemblare una risposta finale

  • Postelaborazione: utilizza Lambda per ispezionare l'output dell'agente (ad esempio, inoltrare la richiesta in caso di «ordine perso» e avvisare il team di supporto)

  • Output: restituisce la risposta dell'agente all'interfaccia utente o la registra su Amazon Simple Storage Service (Amazon S3) o OpenSearch Amazon Service per audit, formazione o analisi

Caso d'uso: agente del servizio clienti al dettaglio

Un rivenditore globale desidera automatizzare le risposte alle domande più comuni dei clienti, ad esempio: «Dov'è il mio ordine?» , «Voglio restituire queste scarpe. «e «Devo pagare per la spedizione di reso?»

Le risposte dipendono da fattori quali i dati degli ordini in tempo reale del cliente, l'idoneità e le tempistiche di restituzione e le politiche specifiche della regione.

In risposta a questo caso d'uso, il flusso di lavoro basato sugli agenti segue questi passaggi:

  1. L'utente inserisce la richiesta utilizzando un'app o una chat.

  2. API Gateway indirizza la query all'agente Amazon Bedrock.

  3. L'agente esegue le seguenti azioni:

    • Analizza l'intento («richiesta di restituzione»)

    • Richiama uno strumento Lambda lookupOrderStatus

    • Esegue una ricerca delle politiche nella knowledge base

    • Chiamate, initiateReturn se idonee

    • Compone una risposta completa: «Il tuo reso è stato avviato. Aspettatevi di ricevere un'etichetta in un messaggio e-mail».

Tutte le azioni vengono radicate, registrate ed eseguite all'interno dei guardrail aziendali.

Caratteristiche principali di Amazon Bedrock Agents secondo questo schema

Per il modello di flusso di lavoro basato sull'intelligenza artificiale degli agenti, gli agenti Amazon Bedrock offrono le seguenti caratteristiche e vantaggi chiave:

  • La selezione degli strumenti consente a un agente di scegliere la funzione Lambda (strumento) corretta per ogni attività.

  • La memoria e lo stato della sessione consentono agli agenti di mantenere il contesto tra i turni.

  • Le risposte fondate recuperano dati autorevoli dalle knowledge base archiviate in Amazon S3.

  • Il ragionamento a catena di pensiero (CoT) consente a un agente di scomporre suggerimenti complessi in obiettivi secondari e agire in sequenza.

  • Il contesto di sicurezza consente di definire l'ambito degli strumenti in base al tenant, all'utente o al ruolo utilizzando (IAM) e parametri contestuali. AWS Identity and Access Management

Le migliori pratiche di governance e controllo per il modello di flusso di lavoro basato sull'intelligenza artificiale degli agenti

Per rendere i flussi di lavoro basati sull'intelligenza artificiale degli agenti pronti per le aziende, le organizzazioni devono prendere in considerazione i seguenti controlli:

  • Configurazioni degli agenti di controllo delle versioni (ad esempio strumenti, istruzioni e knowledge base).

  • Utilizza log strutturati e traccia IDs per la verificabilità.

  • Applica politiche tempestive, liste consentite e controlli di moderazione.

  • Definisci i flussi di fallback (ad esempio, passa a umano o reindirizza a domande frequenti statiche).

Questi controlli possono essere orchestrati utilizzando Lambda e AWS Step Functionsattorno al core EventBridge dell'agente.

Valore aziendale del modello di flusso di lavoro basato sull'intelligenza artificiale degli agenti

Questo modello offre valore nelle seguenti aree:

  • Esperienza del cliente: consente la risoluzione in modalità self-service del 70-80% delle richieste senza escalation

  • Efficienza operativa: riduce il volume dei ticket di assistenza e le spese generali di triage

  • Tempi di risoluzione: fornisce risposte immediate utilizzando dati reali, senza dover attendere l'intervento di agenti umani

  • Scalabilità: gestisce migliaia di interazioni simultanee senza aumentare il personale umano

  • Riutilizzo tra domini: applica lo stesso schema a più domini come supporto IT, helpdesk delle risorse umane, domande e risposte legali e altro ancora

Il flusso di lavoro basato sull'intelligenza artificiale degli agenti consente alle aziende di andare oltre le domande e risposte statiche e di passare all'automazione basata sugli obiettivi, senza sacrificare il controllo, la conformità o la precisione. Combinando il ragionamento LLM con l'esecuzione sicura e senza server delle API e il recupero delle conoscenze, Amazon Bedrock Agents offre funzionalità di intelligenza artificiale che agiscono, non si limitano a rispondere.

L'agente radicato è l'architettura dell'interazione aziendale intelligente, modulare, radicata e pronta per la scalabilità.