Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Strategie Model Context Protocol su AWS
Amazon Web Services (collaboratori)
Marzo 2026 (cronologia dei documenti)
Questa guida può aiutarti a sviluppare e implementare strategie MCP (Model Context Protocol) in tutta l'organizzazione per supportare il tuo percorso verso l'intelligenza artificiale agentica. Poiché gli agenti e i modelli linguistici diventano sempre più centrali nelle operazioni aziendali, la definizione di una strategia MCP è fondamentale per soluzioni agentiche di successo.
Questa guida esplora tre pilastri fondamentali per la creazione di una strategia MCP: progettazione di strumenti MCP, hosting di server MCP e governance MCP. Affrontando questi componenti interconnessi, le organizzazioni possono creare sistemi scalabili, sicuri ed efficaci per la gestione del contesto del modello in tutte le loro implementazioni di intelligenza artificiale. Queste linee guida forniscono informazioni utili e linee guida strategiche per le organizzazioni in qualsiasi fase del percorso di intelligenza artificiale di un'organizzazione, dalla sperimentazione iniziale alle implementazioni di produzione su vasta scala. Questo le aiuta a sviluppare soluzioni MCP personalizzate in linea con le loro esigenze e obiettivi specifici.
Queste best practice derivano da implementazioni reali di organizzazioni che implementano MCP su scala aziendale, da un'analisi degli attuali standard di specifica MCP e dalle lezioni apprese dalle applicazioni personalizzate Large Language Model (LLM) in produzione.
I sistemi di intelligenza artificiale utilizzano sistemi sempre più sofisticati e robusti LLMs in un'ampia varietà di casi d'uso. LLMs eccellono nella comprensione del linguaggio naturale, nella generazione di risposte simili a quelle umane e nel ragionamento su informazioni complesse. Tuttavia, per passare LLMs da interfacce conversazionali a sistemi in grado di svolgere in modo autonomo attività complesse, le organizzazioni stanno adottando architetture di intelligenza artificiale agentiche, sistemi di intelligenza artificiale in grado di percepire l'ambiente, ragionare sugli obiettivi, prendere decisioni autonome, orchestrare in più fasi e intraprendere azioni per raggiungere gli obiettivi per conto degli utenti. Questo approccio agentico aiuta le organizzazioni a creare sistemi di intelligenza artificiale in grado di comprendere l'intento dell'utente attraverso il linguaggio naturale, coordinarsi autonomamente tra più fonti di dati e strumenti e fornire esperienze personalizzate su una scala che non era possibile con i tradizionali modelli di richiesta-risposta. Per rendere questi agenti più capaci, le organizzazioni devono fornire l'accesso agli strumenti e ai dati esistenti per arricchire la comprensione contestuale dell'agente e consentirgli di agire per conto dell'utente.
MCP
Questa guida sintetizza le lezioni apprese dalle implementazioni MCP aziendali, fornendo consigli pratici in linea con il Well-Architected Framework.AWS
-
Sicurezza: isolamento dei token, credenziali ridotte, autorizzazione separata read/write
-
Eccellenza operativa: metriche di precisione nella selezione degli strumenti, set di dati eccezionali per i test di regressione
-
Affidabilità: limitazione della velocità per utente e per utensile, riduzione del carico
-
Efficienza delle prestazioni: strumenti basati sul flusso di lavoro, filtraggio degli strumenti, ricerca semantica per ridurre l'utilizzo delle finestre contestuali
-
Ottimizzazione dei costi: server MCP riutilizzabili tra i team, riduzione dei costi dei token per richiesta grazie al filtraggio degli strumenti
Destinatari principali
Questa guida è destinata ad architetti, sviluppatori e leader tecnologici che implementano soluzioni di intelligenza artificiale agentica nelle loro organizzazioni. Per comprendere i concetti di questa guida, è necessario comprendere come LLMs funziona e avere conoscenze di base su MCP, strumenti e progettazione rapida.
Obiettivi
Costruire sistemi di intelligenza artificiale Agentic pronti per la produzione significa risolvere insieme i problemi di governance, ottimizzazione e sicurezza per supportare le politiche dell'organizzazione. Di seguito viene spiegato in che modo questa guida affronta questi obiettivi:
-
Governance: senza una governance centralizzata, non è possibile rispondere alle domande di audit sui carichi di lavoro di intelligenza artificiale, tra cui quali agenti hanno avuto accesso a quali dati, con quali autorizzazioni e quando. Inoltre, non è possibile imporre il controllo delle versioni. La sezione sulla strategia di hosting MCP di questa guida spiega come gli utenti potrebbero utilizzare server MCP locali obsoleti con vulnerabilità note a causa della mancanza di applicazioni sistematiche.
Per i settori regolamentati, la governance è fondamentale. I revisori vogliono vedere l'applicazione delle politiche e il monitoraggio dell'utilizzo degli strumenti tra tutti gli agenti da un unico pannello. La governance MCP lo prevede.
Seguendo i consigli di questa guida, è possibile migliorare la precisione delle attività del 28-32% nei benchmark sottoposti a revisione paritaria. Per ulteriori informazioni, consulta MARCO: Multi-Agent Real-time Chat
Orchestration (sito web ACL Anthology). La governance non riguarda solo la conformità, ma migliora anche le prestazioni del sistema di intelligenza artificiale agentica. -
Ottimizzazione: i tuoi team potrebbero creare le stesse integrazioni più di una volta. Ad esempio, quando cinque team diversi scrivono il proprio script di interrogazione del database per consentire alla loro applicazione di intelligenza artificiale di comunicare con i propri database, si tratta di cinque volte il costo di sviluppo e cinque serie di bug da gestire. MCP ti consente di crearlo una sola volta e condividerlo con l'intera comunità di ingegneri. I risparmi aumentano man mano che aumenta il numero di agenti.
C'è anche un problema di costo per richiesta che la maggior parte dei team non nota all'inizio. Ogni definizione di strumento utilizza i token della finestra contestuale. Con 20 strumenti, spendi 5.000-10.000 token per invocazione solo per le descrizioni, oltre alle richieste degli utenti. Ciò aumenta la latenza e i costi di inferenza LLM e riduce la precisione poiché il modello fatica a scegliere lo strumento giusto dall'elenco degli strumenti disponibili.
Gli agenti che utilizzano strumenti wrapper strutturati sono circa tre volte più accurati nelle attività del database rispetto agli agenti che accedono APIs direttamente (per ulteriori informazioni, vedere Middleware for LLMs: Gli strumenti sono strumentali per
gli agenti linguistici in ambienti complessi). Il modo in cui si progettano e si presentano gli strumenti per un modello di intelligenza artificiale è importante. Questa guida consiglia di fornire agli strumenti schemi chiari, di applicarli ai flussi di lavoro effettivi anziché agli endpoint grezzi e di limitare le informazioni nella finestra contestuale. La sezione sulla strategia di progettazione degli strumenti MCP di questa guida approfondisce questi aspetti. -
Sicurezza e conformità: immaginate un sistema di intelligenza artificiale agentico che allucina una fase di pulizia e tenta di eliminare un database di produzione. Se l'agente ha ereditato le credenziali di amministratore complete dell'utente, l'eliminazione potrebbe andare a buon fine. Con l'isolamento dei token e le credenziali ridotte che garantiscono solo l'accesso in lettura e creazione, l'operazione fallisce in modo sicuro.
I flussi di lavoro regolamentati migliorano ulteriormente questa situazione. La guida fornisce alcuni esempi (pipeline sanitarie che richiedono la convalida HIPAA e l'anonimizzazione delle informazioni di identificazione personale prima di elaborare i dati dei pazienti). L'integrazione di tale logica negli strumenti MCP significa che la conformità avviene in modo deterministico ogni volta.