Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Modello 2: orchestrazione dell'intelligenza artificiale agentica con Amazon Bedrock
Mentre le aziende cercano di migliorare il coinvolgimento degli utenti, automatizzare i flussi di lavoro ricchi di contenuti e creare assistenti più intelligenti, devono affrontare una serie di sfide comuni:
-
La generazione di contenuti è laboriosa, incoerente e lenta (ad esempio, la stesura di testi di marketing, articoli di aiuto, riepiloghi dello stato).
-
Le interfacce utente richiedono esperienze conversazionali sempre più personalizzate che gli alberi logici tradizionali non sono in grado di supportare. FAQs
-
Gli sviluppatori faticano a integrare più sistemi, recuperare informazioni pertinenti e presentare risposte coerenti e ricche di contesto in tempo reale.
Gli strumenti di automazione tradizionali possono essere rigidi. Seguono regole fisse e non possono adattare i loro risultati in base al contesto, alle sfumature linguistiche o al tono dell'utente.
Il modello di orchestrazione dell'intelligenza artificiale agentica: flessibile, intelligente, orientato agli obiettivi
Il modello di orchestrazione agentic AI introduce l'orchestrazione basata su Large Language Model (LLM) in architetture serverless utilizzando Amazon Bedrock, consentendo ai modelli di base () di: FMs
-
Interpreta le istruzioni in linguaggio naturale.
-
Richiama gli strumenti o APIs se necessario.
-
Risultati fondamentali nella conoscenza aziendale.
-
Genera contenuti strutturati e personalizzati in modo dinamico.
Con gli agenti Amazon Bedrock, l'orchestrazione diventa autonoma e basata sugli obiettivi. L'LLM decide quali strumenti chiamare, quali informazioni recuperare e come formulare una risposta finale. L'approccio agentico basato sugli obiettivi è alla base degli assistenti digitali, delle pipeline di contenuti e delle interfacce intelligenti basati su LLM.
L'architettura di riferimento implementa ogni livello come segue:
-
Trigger di eventi: utilizza Amazon API Gateway per l'input degli utenti, i messaggi di chatbot o i trigger del flusso di lavoro aziendale
-
Preelaborazione: AWS Lambdaimplementa per formattare l'intento di input e indirizzare l'intento all'agente Amazon Bedrock appropriato
-
Orchestrazione: implementa l'agente Amazon Bedrock per analizzare il prompt, richiamare strumenti (ad esempio, Lambda e dati) e recuperare il contesto della knowledge base APIs
-
Inferenza: utilizza l'agente per richiamare l'FM (ad esempio, Anthropic Claude o Amazon Nova Pro) per generare la risposta
-
Postelaborazione: utilizza Lambda per registrare, convalidare o arricchire l'output prima della consegna
-
Output: fornisce una risposta al Web, all'app o la archivia in Amazon Simple Storage Service (Amazon S3) o Amazon OpenSearch Service.
Caso d'uso: generazione automatizzata di contenuti di marketing
Un team di marketing trascorre ore a scrivere riepiloghi dei prodotti, frammenti di ottimizzazione per i motori di ricerca (SEO) e testi di posta elettronica per il lancio di nuovi prodotti in più aree geografiche e lingue. Il copywriting manuale è costoso, lento e incoerente.
In questo caso d'uso, la soluzione di orchestrazione dell'IA generativa prevede i seguenti passaggi:
-
Un addetto al marketing inserisce dettagli minimi sul prodotto, come nome, caratteristiche e mercato di riferimento, tramite un modulo web.
-
API Gateway indirizza l'input a un agente Amazon Bedrock.
-
L'agente esegue le seguenti operazioni:
-
Richiede informazioni su una Knowledge Base per conoscere il tono del marchio, le descrizioni dei prodotti esistenti e le linee guida normative
-
Richiama una funzione Lambda per recuperare i dati di posizionamento competitivo dall'interno APIs
-
Compone una descrizione del prodotto localizzata e coerente con il marchio utilizzando Amazon Nova Pro
-
-
La copia generata viene restituita tramite l'interfaccia utente e archiviata in Amazon S3 per il controllo della qualità e la distribuzione.
L'intero flusso di lavoro è orchestrato in pochi secondi, con tracciabilità e adattabilità complete.
Perché l'orchestrazione con Amazon Bedrock Agents è importante
Con Amazon Bedrock Agents, gli sviluppatori definiscono strumenti e obiettivi, non flussi di lavoro complessi. L'LLM guida l'orchestrazione utilizzando il linguaggio naturale.
La tabella seguente confronta gli approcci di orchestrazione tradizionali con l'orchestrazione dell'intelligenza artificiale agentica utilizzando Amazon Bedrock Agents.
Challenge |
Approccio di orchestrazione tradizionale |
Orchestrazione dell'intelligenza artificiale agentica |
|---|---|---|
Input non strutturato |
Routing manuale |
LLMs interpreta il significato e l'intento. |
Coordinamento degli strumenti |
Logica di integrazione codificata |
L'agente sceglie gli strumenti in fase di esecuzione. |
Generazione di contenuti |
Impegno umano o modelli |
Generazione adattiva e su richiesta. |
Personalizzazione |
Regole statiche o segmenti di utenti |
Adattamento semanticamente fondato e in tempo reale. |
Considerazioni sulla governance per l'orchestrazione LLM
Da un'orchestrazione potente derivano responsabilità. Le imprese che adottano questo modello dovrebbero:
-
Richieste di versione e revisione, strumenti e configurazioni degli agenti.
-
Implementa il grounding utilizzando Amazon Bedrock Knowledge Bases.
-
Usa i ruoli IAM per controllare l'accesso degli agenti a funzioni e dati.
-
Abilita la registrazione e la moderazione per verificabilità e fiducia.
Utilizzando il modello di orchestrazione generativa dell'intelligenza artificiale basato su Amazon Bedrock, le aziende possono andare oltre i chatbot e i modelli ed entrare nel regno dell'intelligenza contestuale e automatizzata.
Dai contenuti di marketing alle risposte di supporto e alle comunicazioni interne alla documentazione di prodotto, questo modello consente creatività e processi decisionali scalabili. Fornisce l'affidabilità, l'osservabilità e la sicurezza che ci si aspetta negli ambienti cloud aziendali.
Valore aziendale del modello di orchestrazione generativa dell'IA
Il modello di orchestrazione generativa dell'IA offre valore nelle seguenti aree:
-
Velocità: riduce i tempi di creazione di contenuti da ore a secondi
-
Coerenza: mantiene il rispetto del tono, delle linee guida e delle politiche in tutte le lingue e in tutti i team
-
Scalabilità: consente ai team di piccole dimensioni di supportare le operazioni globali
-
Agilità: consente un facile adattamento a nuovi tipi di contenuti o flussi di utenti
-
Efficienza in termini di costi: riduce la dipendenza dai processi manuali e abbassa time-to-market