

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Framework
<a name="frameworks"></a>

[Foundations of agentic AI on AWS](https://docs.aws.amazon.com/prescriptive-guidance/latest/agentic-ai-foundations/) esamina i modelli e i flussi di lavoro fondamentali che consentono un comportamento autonomo e mirato. Alla base dell'implementazione di questi modelli c'è la scelta del framework. Un *framework* è la base software del codice già scritto che fornisce un ambiente strutturato e funzionalità comuni per la creazione e la gestione degli strumenti e delle funzionalità di orchestrazione necessari per creare agenti di intelligenza artificiale autonomi pronti per la produzione. 

I framework di intelligenza artificiale agentica offrono diverse funzionalità essenziali che trasformano le interazioni grezze con modelli di linguaggio di grandi dimensioni (LLM) in sistemi coordinati e intelligenti in grado di ragionare, collaborare e agire:
+ **L'orchestrazione degli agenti** coordina il flusso di informazioni e il processo decisionale tra uno o più agenti per raggiungere obiettivi complessi senza l'intervento umano.
+ **L'integrazione degli strumenti** consente agli agenti di interagire con sistemi esterni e fonti di dati per estendere le proprie funzionalità oltre l'elaborazione del linguaggio. APIs Per ulteriori informazioni, vedere [Panoramica degli strumenti](https://strandsagents.com/0.1.x/user-guide/concepts/tools/tools_overview/) nella Strands Agents documentazione.
+ La **gestione della memoria** fornisce uno stato persistente o basato sulla sessione per mantenere il contesto tra le interazioni, essenziale per attività di lunga durata o adattive. I framework più avanzati incorporano memoria a lungo termine per archiviare riepiloghi e preferenze degli utenti, consentendo esperienze agentiche personalizzate e contestualmente consapevoli. Per ulteriori informazioni, consulta [How to think](https://blog.langchain.com/how-to-think-about-agent-frameworks/) about agent framework sul blog. LangChain 
+ **La definizione del flusso di lavoro** supporta modelli strutturati come catene, routing, parallelizzazione e cicli di riflessione che consentono un ragionamento autonomo sofisticato.
+ **L'implementazione e il monitoraggio** facilitano la transizione dallo sviluppo alla produzione con l'osservabilità per i sistemi autonomi. Per ulteriori informazioni, consulta l'annuncio sulla [disponibilità AgentCore generale di Amazon Bedrock](https://aws.amazon.com/blogs/machine-learning/amazon-bedrock-agentcore-is-now-generally-available/).

Queste funzionalità sono implementate con approcci ed enfasi diversi in tutto il panorama del framework, ognuna delle quali offre vantaggi distinti per diversi casi d'uso di agenti autonomi e contesti organizzativi.

Questa sezione descrive e confronta i principali framework per la creazione di soluzioni di intelligenza artificiale agentiche, con particolare attenzione ai loro punti di forza, limiti e casi d'uso ideali per il funzionamento autonomo:
+ [Agenti Strands](strands-agents.md)
+ [LangChain e LangGraph](langchain-langgraph.md)
+ [Crew AI](crewai.md)
+ [AutoGen](autogen.md)
+ [LlamaIndex](llamaindex.md)
+ [Confronto tra framework di intelligenza artificiale agentica](comparing-agentic-ai-frameworks.md)

**Nota**  
Questa sezione tratta i framework che supportano specificamente l'agenzia dell'IA e non copre le interfacce frontend o l'IA generativa senza agenzia.

# Strands Agents
<a name="strands-agents"></a>

Strands Agents[è un SDK open source inizialmente rilasciato da AWS, come descritto nel blog Open Source.AWS](https://aws.amazon.com/blogs/opensource/introducing-strands-agents-an-open-source-ai-agents-sdk/) Strands Agentsè progettato per creare agenti di intelligenza artificiale autonomi con un approccio basato sul modello e fornisce un framework flessibile ed estensibile progettato per funzionare senza interruzioni Servizi AWS pur rimanendo aperto all'integrazione con componenti di terze parti. Strands Agents è ideale per creare soluzioni completamente autonome.

## Caratteristiche principali di Strands Agents
<a name="key-features-of-strands-agents"></a>

Strands Agentsinclude le seguenti funzionalità chiave:
+ **Progettazione incentrata** sul modello: basata sul concetto che il modello di base è il fulcro dell'intelligenza degli agenti e consente un ragionamento autonomo sofisticato. Per ulteriori informazioni, consulta [Agent Loop nella documentazione](https://strandsagents.com/latest/user-guide/concepts/agents/agent-loop/). Strands Agents
+ Modelli di **collaborazione multiagente: modelli** di coordinamento integrati come Swarm, Graph e Workflow che consentono la collaborazione e la governance scalabili su reti di agenti distribuite. Per ulteriori informazioni, consulta [Modelli multiagente](https://strandsagents.com/docs/user-guide/concepts/multi-agent/multi-agent-patterns/) nella documentazione di Strands Agents.
+ **Integrazione MCP**: supporto nativo per il [Model Context Protocol](https://modelcontextprotocol.io/) (MCP), che consente la fornitura di un contesto standardizzato per LLMs un funzionamento autonomo e coerente.
+ **Servizio AWS integrazione**: connessione perfetta ad Amazon Bedrock e altro Servizi AWS per AWS Step Functions flussi di lavoro autonomi completi. AWS Lambda Per ulteriori informazioni, consulta [AWS Weekly Roundup](https://aws.amazon.com/blogs/aws/aws-weekly-roundup-strands-agents-aws-transform-amazon-bedrock-guardrails-aws-codebuild-and-more-may-19-2025/) (blog).AWS 
+ **Selezione del modello Foundation**: supporta vari modelli di base tra cui Anthropic Claude, Amazon Nova (Premier, Pro, Lite e Micro) su Amazon Bedrock e altri per ottimizzare diverse capacità di ragionamento autonomo. Per ulteriori informazioni, consulta [Amazon Bedrock](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/) nella Strands Agents documentazione. 
+ **Integrazione dell'API LLM**: integrazione flessibile con diverse interfacce di servizio LLM tra cui Amazon Bedrock, OpenAI e altre per l'implementazione in produzione. Per ulteriori informazioni, consulta [Amazon Bedrock Basic Usage](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/#basic-usage) nella Strands Agents documentazione.
+ **Funzionalità multimodali**: supporto per più modalità tra cui l'elaborazione di testo, voce e immagini per interazioni complete con agenti autonomi. Per ulteriori informazioni, consulta [Amazon Bedrock Multimodal Support](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/#multimodal-support) nella Strands Agents documentazione.
+ **Ecosistema di strumenti**: ricco set di strumenti per Servizio AWS l'interazione, con estensibilità per strumenti personalizzati che ampliano le capacità autonome. Per ulteriori informazioni, vedere [Panoramica degli strumenti](https://strandsagents.com/0.1.x/user-guide/concepts/tools/tools_overview/) nella Strands Agents documentazione.

## Quando usare Strands Agents
<a name="when-to-use-strands-agents"></a>

Strands Agentsè particolarmente adatto per scenari con agenti autonomi, tra cui:
+ Organizzazioni che si basano su AWS un'infrastruttura che desiderano un'integrazione nativa Servizi AWS per flussi di lavoro autonomi
+ Team che richiedono funzionalità di sicurezza, scalabilità e conformità di livello aziendale per sistemi autonomi di produzione
+ Progetti che richiedono flessibilità nella selezione dei modelli tra diversi fornitori per attività autonome specializzate
+ Casi d'uso che richiedono una stretta integrazione con i AWS flussi di lavoro e le risorse esistenti per processi autonomi end-to-end

## Approccio di implementazione per Strands Agents
<a name="implementation-approach-for-strands-agents"></a>

Strands Agents[fornisce un approccio di implementazione semplice per gli stakeholder aziendali, come indicato nella sua Guida rapida.](https://strandsagents.com/0.1.x/user-guide/quickstart/) Il framework consente alle organizzazioni di:
+ Seleziona modelli base come Amazon Nova (Premier, Pro, Lite o Micro) su Amazon Bedrock in base a requisiti aziendali specifici.
+ Definisci strumenti personalizzati che si connettono ai sistemi e alle fonti di dati aziendali.
+ Elabora più modalità tra cui testo, immagini e voce.
+ Implementa agenti in grado di rispondere autonomamente alle domande aziendali ed eseguire attività.

Questo approccio di implementazione consente ai team aziendali di sviluppare e implementare rapidamente agenti autonomi senza una profonda esperienza tecnica nello sviluppo di modelli di intelligenza artificiale.

## Esempio reale di Strands Agents
<a name="real-world-example-of-strands-agents"></a>

AWS Transform for .NET lo utilizza per Strands Agents potenziare le proprie funzionalità di modernizzazione delle applicazioni, come descritto in [AWS Transform per.NET, il primo servizio di intelligenza artificiale agentica per modernizzare le applicazioni.NET](https://aws.amazon.com/blogs/aws/aws-transform-for-net-the-first-agentic-ai-service-for-modernizing-net-applications-at-scale/) su larga scala (Blog).AWS Questo servizio di produzione impiega più agenti autonomi specializzati. Gli agenti collaborano per analizzare le applicazioni.NET legacy, pianificare strategie di modernizzazione ed eseguire trasformazioni del codice verso architetture native del cloud senza l'intervento umano. [AWS Transform for .NET](https://aws.amazon.com/transform/net/) dimostra la disponibilità alla produzione dei sistemi autonomi aziendali. Strands Agents

# LangChain e LangGraph
<a name="langchain-langgraph"></a>

LangChainè uno dei framework più affermati nell'ecosistema di intelligenza artificiale agentica. LangGraph[estende le sue funzionalità per supportare flussi di lavoro complessi e basati sullo stato degli agenti, come descritto nel blog. LangChain](https://blog.langchain.dev/how-to-think-about-agent-frameworks/) Insieme, forniscono una soluzione completa per la creazione di sofisticati agenti di intelligenza artificiale autonomi con ricche capacità di orchestrazione per operazioni indipendenti.

## Caratteristiche principali di e LangChain LangGraph
<a name="key-features-of-langchain-and-langgraph"></a>

LangChaine LangGraph includono le seguenti funzionalità chiave:
+ **Ecosistema di componenti**: ampia libreria di componenti predefiniti per varie funzionalità di agenti autonomi, che consente lo sviluppo rapido di agenti specializzati. Per ulteriori informazioni, consulta [Quickstart](https://docs.langchain.com/oss/python/langchain/quickstart) nella LangChain documentazione.
+ **Selezione del modello Foundation**: supporto per diversi modelli di base, tra cui Anthropic Claude, Amazon Nova (Premier, Pro, Lite e Micro) su Amazon Bedrock e altri per diverse funzionalità di ragionamento. Per ulteriori informazioni, consulta [Ingressi e uscite nella documentazione](https://python.langchain.com/docs/concepts/chat_models/#inputs-and-outputs). LangChain
+ **Integrazione dell'API LLM**: interfacce standardizzate per più fornitori di servizi LLM (Large Language Model) tra cui Amazon Bedrock e altri per una OpenAI distribuzione flessibile. Per ulteriori informazioni, consulta [LLMs](https://python.langchain.com/docs/integrations/llms/) nella documentazione LangChain.
+ **Elaborazione multimodale: supporto integrato per l'elaborazione** di testo, immagini e audio per consentire ricche interazioni multimodali tra agenti autonomi. Per ulteriori informazioni, vedete [Multimodalità](https://python.langchain.com/docs/concepts/chat_models/#multimodality) nella documentazione. LangChain
+ **Flussi di lavoro basati su grafici**: LangGraph consentono di definire comportamenti complessi di agenti autonomi come macchine a stati, supportando una logica decisionale sofisticata. Per ulteriori informazioni, consulta l'annuncio di [LangGraphPlatform](https://blog.langchain.dev/langgraph-platform-ga/) GA.
+ **Astrazioni di memoria**: opzioni multiple per la gestione della memoria a breve e lungo termine, essenziali per gli agenti autonomi che mantengono il contesto nel tempo. Per ulteriori informazioni, consulta [Come aggiungere memoria ai chatbot nella documentazione.](https://python.langchain.com/docs/how_to/chatbots_memory/) LangChain
+ **Integrazione con strumenti**: ricco ecosistema di integrazioni di strumenti tra vari servizi e estensione delle funzionalità degli APIs agenti autonomi. Per ulteriori informazioni, consulta [Tools](https://python.langchain.com/docs/how_to/#tools) nella LangChain documentazione.
+ **LangGraph piattaforma**: soluzione gestita di implementazione e monitoraggio per ambienti di produzione, che supporta agenti autonomi a lunga durata. Per ulteriori informazioni, consulta l'annuncio di [LangGraphPlatform GA](https://blog.langchain.dev/langgraph-platform-ga/).

## Quando usare LangChain e LangGraph
<a name="when-to-use-langchain-and-langgraph"></a>

LangChaine LangGraph sono particolarmente adatti per scenari con agenti autonomi, tra cui:
+ Flussi di lavoro complessi di ragionamento in più fasi che richiedono un'orchestrazione sofisticata per un processo decisionale autonomo
+ Progetti che richiedono l'accesso a un ampio ecosistema di componenti e integrazioni predefiniti per diverse funzionalità autonome
+ Team con infrastruttura ed esperienza di machine Python learning (ML) esistenti che desiderano creare sistemi autonomi
+ Casi d'uso che richiedono una gestione dello stato complessa in sessioni di agenti autonomi di lunga durata

## Approccio di implementazione per LangChain e LangGraph
<a name="implementation-approach-for-langchain-and-langgraph"></a>

LangChaine LangGraph forniscono un approccio di implementazione strutturato per gli stakeholder aziendali, come dettagliato nella [LangGraphdocumentazione](https://python.langchain.com/docs/langgraph). Il framework consente alle organizzazioni di:
+ Definisci grafici sofisticati del flusso di lavoro che rappresentano i processi aziendali.
+ Crea modelli di ragionamento in più fasi con punti decisionali e logica condizionale.
+ Integra funzionalità di elaborazione multimodali per gestire diversi tipi di dati.
+ Implementa il controllo di qualità attraverso meccanismi di revisione e convalida integrati.

Questo approccio basato su grafici consente ai team aziendali di modellare processi decisionali complessi come flussi di lavoro autonomi. I team hanno una chiara visibilità su ogni fase del processo di ragionamento e la capacità di verificare i percorsi decisionali.

## Esempio reale di e LangChain LangGraph
<a name="real-world-example-of-langchain-and-langgraph"></a>

Vodafoneha implementato agenti autonomi utilizzando LangChain (eLangGraph) per migliorare i flussi di lavoro di ingegneria dei dati e operativi, come dettagliato nel case study [LangChainEnterprise](https://blog.langchain.com/customers-vodafone/). Hanno creato assistenti di intelligenza artificiale interni che monitorano in modo autonomo le metriche delle prestazioni, recuperano informazioni dai sistemi di documentazione e presentano informazioni utili, il tutto attraverso interazioni in linguaggio naturale.

L'Vodafoneimplementazione utilizza caricatori di documenti LangChain modulari, integrazione vettoriale e supporto per più LLMs (OpenAI, 3 e) per prototipare e confrontare rapidamente queste pipeline. LLaMA Gemini Sono stati quindi utilizzati per LangGraph strutturare l'orchestrazione multiagente implementando agenti secondari modulari. Questi agenti eseguono attività di raccolta, elaborazione, riepilogo e ragionamento. LangGraphhanno integrato questi agenti APIs nei loro sistemi cloud.

# CrewAI
<a name="crewai"></a>

CrewAIè un framework open source incentrato specificamente sull'orchestrazione autonoma multiagente, disponibile su. [GitHub](https://github.com/crewAIInc/crewAI) Fornisce un approccio strutturato alla creazione di team di agenti autonomi specializzati che collaborano per risolvere compiti complessi senza l'intervento umano. CrewAIenfatizza il coordinamento basato sui ruoli e la delega dei compiti.

## Caratteristiche principali di CrewAI
<a name="key-features-of-crewai"></a>

CrewAIoffre le seguenti funzionalità chiave:
+ **Progettazione degli agenti basata sui ruoli**: gli agenti autonomi sono definiti con ruoli, obiettivi e storie precedenti specifici per consentire competenze specializzate. Per ulteriori informazioni, consulta [Crafting Effective Agents nella documentazione](https://docs.crewai.com/en/guides/agents/crafting-effective-agents). CrewAI
+ **Delega delle attività**: meccanismi integrati per l'assegnazione autonoma delle attività agli agenti appropriati in base alle loro capacità. Per ulteriori informazioni, consulta [Tasks](https://docs.crewai.com/en/concepts/tasks) nella CrewAI documentazione.
+ **Collaborazione tra agenti**: framework per la comunicazione autonoma tra agenti e la condivisione delle conoscenze senza la mediazione umana. Per ulteriori informazioni, consulta [Collaborazione nella documentazione](https://docs.crewai.com/en/concepts/collaboration). CrewAI
+ **Gestione dei processi**: flussi di lavoro strutturati per l'esecuzione di attività autonome sequenziali e parallele. Per ulteriori informazioni, consulta [Processi](https://docs.crewai.com/en/concepts/processes) nella CrewAI documentazione.
+ **Selezione del modello di base**: supporto per vari modelli di base, tra cui Anthropic Claude, i modelli Amazon Nova (Premier, Pro, Lite e Micro) su Amazon Bedrock e altri per l'ottimizzazione per diverse attività di ragionamento autonomo. Per ulteriori informazioni, consulta [LLMs](https://docs.crewai.com/en/concepts/llms) nella documentazione CrewAI.
+ **Integrazione dell'API LLM**: integrazione flessibile con più interfacce di servizio LLM, tra cui Amazon BedrockOpenAI, e implementazioni di modelli locali. Per ulteriori informazioni, consulta gli esempi di configurazione del [provider](https://docs.crewai.com/en/concepts/llms#provider-configuration-examples) nella documentazione. CrewAI
+ **Supporto multimodale**: funzionalità emergenti per la gestione di testo, immagini e altre modalità per interazioni complete con agenti autonomi. Per ulteriori informazioni, consulta [Using Multimodal](https://docs.crewai.com/en/learn/multimodal-agents) Agents nella documentazione. CrewAI

## Quando usare CrewAI
<a name="when-to-use-crewai"></a>

CrewAIè particolarmente adatto per scenari con agenti autonomi, tra cui:
+ Problemi complessi che traggono vantaggio da competenze specializzate e basate sui ruoli che operano in modo autonomo 
+ Progetti che richiedono una collaborazione esplicita tra più agenti autonomi 
+ Casi d'uso in cui la scomposizione dei problemi basata sul team migliora la risoluzione autonoma dei problemi
+ Scenari che richiedono una chiara separazione delle preoccupazioni tra i diversi ruoli degli agenti autonomi

## Approccio di implementazione per CrewAI
<a name="implementation-approach-for-crewai"></a>

CrewAIfornisce un'implementazione basata sui ruoli dell'approccio dei team di agenti di intelligenza artificiale agli stakeholder aziendali, come descritto in [Getting Started](https://github.com/crewAIInc/crewAI?tab=readme-ov-file#getting-started) nella CrewAI documentazione. Il framework consente alle organizzazioni di:
+ Definisci agenti autonomi specializzati con ruoli, obiettivi e aree di competenza specifici.
+ Assegna attività agli agenti in base alle loro capacità specializzate.
+ Stabilisci dipendenze chiare tra le attività per creare flussi di lavoro strutturati.
+ Orchestra la collaborazione tra più agenti per risolvere problemi complessi.

Questo approccio basato sui ruoli rispecchia le strutture dei team umani, il che lo rende intuitivo da comprendere e implementare per i leader aziendali. Le organizzazioni possono creare team autonomi con aree di competenza specializzate che collaborano per raggiungere gli obiettivi aziendali, in modo simile a come operano i team umani. Tuttavia, il team autonomo può lavorare ininterrottamente senza l'intervento umano.

## Esempio reale di CrewAI
<a name="real-world-example-of-crewai"></a>

AWS [ha implementato sistemi multiagente autonomi utilizzando CrewAI integrato con Amazon Bedrock, come dettagliato nel CrewAI case study pubblicato.](https://www.crewai.com/case-studies/aws-powers-bedrock-agents-with-crewai) AWS e CrewAI ha sviluppato un framework sicuro e indipendente dal fornitore. L'architettura CrewAI open source «flows‑and‑crews» si integra perfettamente con i modelli di base, i sistemi di memoria e le barriere di conformità di Amazon Bedrock.

Gli elementi chiave dell'implementazione includono:
+ **Progetti e open source**, oltre a [progetti di riferimento CrewAI rilasciati](https://aws.amazon.com/blogs/machine-learning/build-agentic-systems-with-crewai-and-amazon-bedrock/) che associano CrewAI gli agenti ai modelli AWS e agli strumenti di osservabilità di Amazon Bedrock. Hanno inoltre rilasciato sistemi esemplari come un team di controllo della AWS sicurezza composto da più agenti, flussi di modernizzazione del codice e automazione del back‑office per i beni di consumo confezionati (CPG).
+ **Integrazione dello stack di osservabilità**: la soluzione integra il monitoraggio con Amazon CloudWatch e consente la tracciabilità e LangFuse il debug dal proof of concept alla produzione. AgentOps
+ **Dimostrato ritorno sull'investimento (ROI)**: i primi progetti pilota mostrano importanti miglioramenti: un'esecuzione più rapida del 70% per un grande progetto di modernizzazione del codice e una riduzione di circa il 90% dei tempi di elaborazione per un flusso di back‑office CPG.

# AutoGen
<a name="autogen"></a>

[https://www.microsoft.com/en-us/research/project/autogen/](https://www.microsoft.com/en-us/research/project/autogen/)è un framework open source rilasciato inizialmente da. Microsoft AutoGensi concentra sull'abilitazione di agenti di intelligenza artificiale autonomi conversazionali e collaborativi. Fornisce un'architettura flessibile per la creazione di sistemi multiagente con particolare attenzione alle interazioni asincrone e basate sugli eventi tra agenti per flussi di lavoro autonomi complessi.

## Caratteristiche principali di AutoGen
<a name="key-features-of-autogen"></a>

AutoGenoffre le seguenti funzionalità chiave:
+ **Agenti conversazionali**: basati su conversazioni in linguaggio naturale tra agenti autonomi, consentono un ragionamento sofisticato attraverso il dialogo. Per ulteriori informazioni, consulta [Multi-agent Conversation Framework](https://microsoft.github.io/autogen/docs/Use-Cases/agent_chat) nella documentazione. AutoGen
+ **Architettura asincrona**: progettazione basata sugli eventi per interazioni non bloccanti tra agenti autonomi, che supporta flussi di lavoro paralleli complessi. Per ulteriori informazioni, consulta [Risoluzione di più attività in una sequenza di chat asincrone nella](https://microsoft.github.io/autogen/0.2/docs/notebooks/agentchat_multi_task_async_chats/) documentazione. AutoGen
+ **H uman-in-the-loop** — Forte supporto alla partecipazione umana opzionale a flussi di lavoro degli agenti altrimenti autonomi, quando necessario. Per ulteriori informazioni, consulta [Consentire il feedback umano negli agenti](https://microsoft.github.io/autogen/0.2/docs/tutorial/human-in-the-loop/) nella AutoGen documentazione.
+ **Generazione ed esecuzione di codice**: funzionalità specializzate per agenti autonomi incentrati sul codice in grado di scrivere ed eseguire codice. Per ulteriori informazioni, consulta [Code Execution](https://microsoft.github.io/autogen/stable/user-guide/core-user-guide/design-patterns/code-execution-groupchat.html) nella AutoGen documentazione.
+ **Comportamenti personalizzabili**: configurazione flessibile e autonoma degli agenti e controllo delle conversazioni per diversi casi d'uso. Per ulteriori informazioni, consulta [agentchat.conversable\$1agent](https://microsoft.github.io/autogen/docs/reference/agentchat/conversable_agent) nella documentazione. AutoGen
+ **Selezione del modello Foundation**: supporto per vari modelli di base, tra cui Anthropic Claude, Amazon Nova (Premier, Pro, Lite e Micro) su Amazon Bedrock e altri per diverse funzionalità di ragionamento autonomo. Per ulteriori informazioni, consulta [LLM Configuration](https://microsoft.github.io/autogen/docs/topics/llm_configuration) nella documentazione. AutoGen
+ **Integrazione dell'API LLM**: configurazione standardizzata per più interfacce di servizio LLM, tra cui Amazon OpenAI Bedrock e. Azure OpenAI Per ulteriori informazioni, consulta [oai.openai\$1utils nel riferimento API](https://microsoft.github.io/autogen/docs/reference/oai/openai_utils). AutoGen
+ **Elaborazione multimodale: supporto per l'elaborazione** di testo e immagini per consentire ricche interazioni multimodali con agenti autonomi. Per ulteriori informazioni, consulta Interagire [con i modelli multimodali: GPT-4V](https://microsoft.github.io/autogen/0.2/docs/notebooks/agentchat_lmm_gpt-4v/) nella documentazione. AutoGen AutoGen

## Quando usare AutoGen
<a name="when-to-use-autogen"></a>

AutoGenè particolarmente adatto per scenari con agenti autonomi, tra cui:
+ Applicazioni che richiedono flussi conversazionali naturali tra agenti autonomi per ragionamenti complessi
+ Progetti che richiedono sia un funzionamento completamente autonomo che capacità opzionali di supervisione umana
+ Casi d'uso che prevedono la generazione, l'esecuzione e il debug di codice autonomi senza l'intervento umano
+ Scenari che richiedono modelli di comunicazione tra agenti autonomi flessibili e asincroni

## Approccio di implementazione per AutoGen
<a name="implementation-approach-for-autogen"></a>

AutoGenfornisce un approccio di implementazione conversazionale per gli stakeholder aziendali, come descritto in [Getting Started](https://microsoft.github.io/autogen/docs/Getting-Started) nella AutoGen documentazione. Il framework consente alle organizzazioni di:
+ Crea agenti autonomi che comunicano attraverso conversazioni in linguaggio naturale.
+ Implementa interazioni asincrone basate sugli eventi tra più agenti.
+ Combina un funzionamento completamente autonomo con la supervisione umana opzionale quando necessario.
+ Sviluppa agenti specializzati per diverse funzioni aziendali che collaborino attraverso il dialogo.

Questo approccio conversazionale rende il ragionamento del sistema autonomo trasparente e accessibile agli utenti aziendali. I responsabili delle decisioni possono osservare il dialogo tra gli agenti per capire come vengono raggiunte le conclusioni e, facoltativamente, partecipare alla conversazione quando è richiesto il giudizio umano.

## Esempio reale di AutoGen
<a name="real-world-example-of-autogen"></a>

Magentic-One[è un sistema multiagente generalista open source progettato per risolvere autonomamente attività complesse e in più fasi in diversi ambienti, come descritto nel blog AI Frontiers. Microsoft ](https://www.microsoft.com/en-us/research/articles/magentic-one-a-generalist-multi-agent-system-for-solving-complex-tasks/) Alla base c'è l'agente Orchestrator, che scompone gli obiettivi di alto livello e monitora i progressi utilizzando registri strutturati. Questo agente delega le attività secondarie ad agenti specializzati (comeWebSurfer,, FileSurfer and) e si adatta dinamicamente ripianificando quando necessario. Coder ComputerTerminal 

Il sistema è basato sul AutoGen framework ed è indipendente dal modello, l'impostazione predefinita è GPT-4o. Raggiunge prestazioni all'avanguardia su benchmark come, e, il tutto senza regolazioni specifiche per attività. GAIA AssistantBench WebArena Inoltre, supporta l'estensibilità modulare e una valutazione AutoGenBench rigorosa tramite suggerimenti.

# LlamaIndex
<a name="llamaindex"></a>

[https://www.llamaindex.ai/](https://www.llamaindex.ai/)è un framework di dati progettato specificamente per collegare modelli linguistici di grandi dimensioni (LLMs) con fonti di dati esterne per consentire sofisticate applicazioni di Retrieval Augmented Generation (RAG) e di intelligenza artificiale agentica. Il framework fornisce astrazioni e flussi di lavoro di sviluppo accelerati per sistemi agentici, modelli di orchestrazione personalizzati e integrazioni di sistema che riducono il rischio di soluzioni di intelligenza artificiale basate sulla conoscenza. time-to-production

## Caratteristiche principali di LlamaIndex
<a name="key-features-of-llamaindex"></a>

LlamaIndexoffre un set completo di funzionalità che lo rendono particolarmente adatto per le applicazioni di intelligenza artificiale agentica aziendale:
+ **Architettura incentrata sui dati**: eccelle nell'acquisizione, indicizzazione e recupero di informazioni da oltre 100 formati di dati, tra cui documenti Word, fogli di calcolo e altro ancora. PDFs Microsoft Il framework trasforma i dati aziendali in basi di conoscenza interrogabili ottimizzate per gli agenti di intelligenza artificiale. Per ulteriori informazioni, consulta la [documentazione relativa ad LlamaIndex](https://developers.llamaindex.ai/).
+ **Implementazione pronta per la produzione**: LlamaIndex offre sia framework open source che servizi gestitiLlamaCloud, fornendo funzionalità di livello aziendale tra cui controlli di sicurezza, scalabilità, integrazioni di osservabilità e flessibilità di implementazione. Per ulteriori informazioni, consulta la documentazione del [LlamaIndexframework](https://developers.llamaindex.ai/python/framework/). 
+ **Elaborazione avanzata** dei documenti: LlamaCloud offre funzionalità di analisi, estrazione, indicizzazione e recupero dei documenti che gestiscono layout complessi, tabelle annidate, contenuti multimodali e persino note scritte a mano. Questa sofisticata analisi consente agli agenti di lavorare in modo efficace con documenti aziendali reali che contengono grafici, diagrammi e formattazioni complesse. Per ulteriori informazioni, consulta la [documentazione relativa ad LlamaCloud](https://developers.llamaindex.ai/python/cloud/). 
+ Orchestrazione **dei flussi di lavoro: LlamaAgents fornisce un motore di orchestrazione asincrono** basato sugli eventi per la creazione di sistemi agentici in più fasi. I flussi di lavoro supportano modelli complessi tra cui loop, esecuzione parallela, ramificazione condizionale e stateful resumption, il che li rende ideali per interazioni sofisticate tra agenti. [Per ulteriori informazioni, consulta la documentazione sui flussi di lavoro. LlamaIndex](https://developers.llamaindex.ai/python/framework/understanding/workflows/)
+ **Funzionalità di recupero agentico**: modalità di recupero avanzate tra cui ricerca ibrida, ricerca semantica e routing automatico che determinano in modo intelligente la migliore strategia di recupero per ogni query. Il framework supporta il recupero composito su più knowledge base con riposizionamento per una maggiore precisione. [Per ulteriori informazioni, consultate la documentazione RAG. LlamaIndex](https://developers.llamaindex.ai/python/framework/understanding/rag/) 
+ **Osservabilità e valutazione**: LlamaIndex si integra con una varietà di strumenti di osservabilità e valutazione. Questa funzionalità di integrazione consente di tracciare ed eseguire il debug delle applicazioni, valutarne le prestazioni e monitorare i costi. [Per ulteriori informazioni, consulta la documentazione [Tracing and Debugging and Evaluating](https://developers.llamaindex.ai/python/framework/understanding/tracing_and_debugging/tracing_and_debugging/).](https://developers.llamaindex.ai/python/framework/module_guides/evaluating) LlamaIndex

## Quando usare LlamaIndex
<a name="when-to-use-llamaindex"></a>

LlamaIndexè particolarmente adatto per scenari di intelligenza artificiale agentica che enfatizzano i flussi di lavoro ad alta intensità di dati e la gestione della conoscenza:
+ Applicazioni con un elevato numero di documenti che richiedono agli agenti di elaborare, analizzare ed estrarre informazioni da grandi volumi di documenti aziendali come contratti, report, manuali e documenti normativi
+ Dalla prototipazione rapida a scenari di produzione in cui le organizzazioni desiderano creare e implementare rapidamente agenti incentrati sui documenti senza sovraccarichi di gestione dell'infrastruttura
+ Architetture RAG-first che danno priorità all'accuratezza del recupero e alla pertinenza del contesto, soprattutto quando si lavora con documenti complessi e multimodali contenenti tabelle, immagini e dati strutturati
+ Flussi di lavoro documentali multiagente che richiedono agenti specializzati per diversi aspetti dell'elaborazione dei documenti, come l'analisi, il riepilogo e il controllo della conformità

## Approccio di implementazione per LlamaIndex
<a name="implementation-approach-for-llamaindex"></a>

LlamaIndex fornisce sia elementi costitutivi di basso livello che astrazioni di alto livello che si adattano a diversi approcci di implementazione:
+ Sviluppo rapido di applicazioni RAG funzionali in poche righe di codice utilizzando applicazioni di alto livello. LlamaIndex APIs Questo approccio è LlamaIndex accessibile ai team aziendali e agli sviluppatori che si avvicinano per la prima volta all'intelligenza artificiale agentica. 
+ Integrazione aziendale tramite LlamaHub i sistemi aziendali più diffusi SharePoint, tra cui Amazon Simple Storage Service (Amazon S3), database e. APIs Questo approccio consente una perfetta integrazione con l'infrastruttura di dati esistente.
+ Opzioni di implementazione flessibili tra implementazioni open source con hosting autonomo per il massimo controllo o servizi LlamaCloud gestiti per ridurre i costi operativi e le funzionalità aziendali.
+ Le applicazioni possono iniziare con semplici motori di query e aggiungere progressivamente funzionalità agentiche, orchestrazione multiagente e flussi di lavoro complessi man mano che i requisiti evolvono. 

## Esempio reale di LlamaIndex
<a name="real-world-example-llamaindex"></a>

Questo esempio si concentra su una filiale di un'azienda aerospaziale specializzata in soluzioni operative e di navigazione aeronautica. Devono affrontare una sfida crescente che prevede la sperimentazione non coordinata di chatbot di intelligenza artificiale. Le sperimentazioni hanno portato a lavori ripetuti, lunghi cicli di sviluppo, ostacoli alla conformità e implementazioni isolate in tutta l'organizzazione. 

Hanno sviluppato un framework di agenti unificato, una soluzione riutilizzabile basata su modelli basata su un framework LlamaIndex open source che rende la creazione di agenti molto più efficiente. Hanno confrontato diversi framework concorrenti, sia orientati alla catena che basati su grafici. Alla fine, hanno scelto tre vantaggi fondamentali: LlamaIndex il design flessibile, i componenti modulari e i controlli di orchestrazione pronti per la produzione.

La piattaforma riduce i tempi di sviluppo e implementazione degli agenti dell'87% da 512 a 64 ore. Questa riduzione è stata ottenuta consentendo ai team di creare agenti con circa 50 righe di codice e un file di configurazione JSON. I team hanno sfruttato un framework unificato con sicurezza integrata, conformità e accesso privilegiato al sistema. Per ulteriori dettagli, consulta i case study [LlamaIndexdei clienti](https://www.llamaindex.ai/customers).

# Confronto tra framework di intelligenza artificiale agentica
<a name="comparing-agentic-ai-frameworks"></a>

Quando scegli un framework di intelligenza artificiale agentica per lo sviluppo di agenti autonomi, considera in che modo ciascuna opzione si allinea ai tuoi requisiti specifici. Considerate non solo le sue capacità tecniche ma anche la sua idoneità organizzativa, tra cui l'esperienza del team, l'infrastruttura esistente e i requisiti di manutenzione a lungo termine. Molte organizzazioni potrebbero trarre vantaggio da un approccio ibrido, che sfrutta più framework per diversi componenti del loro ecosistema di intelligenza artificiale autonomo.

La tabella seguente confronta i livelli di maturità (più forte, forte, adeguato o debole) di ciascun framework in base alle dimensioni tecniche chiave. Per ogni framework, la tabella include anche informazioni sulle opzioni di implementazione in produzione e sulla complessità della curva di apprendimento.


| 
| 
| **Framework** | **AWS integration** | **Supporto multiagente autonomo** | **Complessità del workflow autonomo** | **Funzionalità multimodali** | **Selezione del modello Foundation** | **Integrazione con l'API LLM** | **Distribuzione in produzione** | **Curva di apprendimento** | 
| --- |--- |--- |--- |--- |--- |--- |--- |--- |
| AutoGen | Debole | Forte | Forte | Sufficiente | adeguato | Forte | Fai da te (fai da te) | Ripido | 
| CrewAI | Debole | Forte | Sufficiente | Debole | Sufficiente | adeguato | FAI DA TE | Moderata | 
| LangChain/LangGraph | adeguato | Forte | Il più forte | Il più forte | Il più forte | Il più forte | Piattaforma per il fai da te | Ripido | 
|  LlamaIndex  |  Sufficiente  |  adeguato  |  Forte  |  Sufficiente  |  Forte  |  Forte  |  Piattaforma per fai da te  |  Moderata  | 
| Strands Agents | Il più forte | Forte | Il più forte | Forte | Forte | Il più forte | FAI DA TE | Moderata | 

## Considerazioni sulla scelta di un framework di intelligenza artificiale agentica
<a name="considerations-in-choosing-an-agentic-ai-framework"></a>

Nello sviluppo di agenti autonomi, considera i seguenti fattori chiave:
+ **AWS integrazione dell'infrastruttura**: le organizzazioni in cui hanno investito molto AWS trarranno i maggiori vantaggi dalle integrazioni native di Strands Agents with Servizi AWS per flussi di lavoro autonomi. Per ulteriori informazioni, consulta [AWS Weekly Roundup](https://aws.amazon.com/blogs/aws/aws-weekly-roundup-strands-agents-aws-transform-amazon-bedrock-guardrails-aws-codebuild-and-more-may-19-2025/) (blog).AWS 
+ **Selezione del modello di base**: valuta quale framework offre il supporto migliore per i tuoi modelli di base preferiti (ad esempio, i modelli Amazon Nova su Amazon Bedrock o Anthropic Claude), in base ai requisiti di ragionamento del tuo agente autonomo. Per ulteriori informazioni, consulta [Building Effective Agents sul sito Web](https://www.anthropic.com/engineering/building-effective-agents). Anthropic
+ **Integrazione dell'API LLM**: valuta i framework in base alla loro integrazione con le tue interfacce di servizio LLM (Large Language Model) preferite (ad esempio Amazon Bedrock o) per l'implementazione in produzione. OpenAI [Per ulteriori informazioni, consulta Model Interfaces nella documentazione.](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/#basic-usage)  Strands Agents
+ **Requisiti multimodali**: per gli agenti autonomi che devono elaborare testo, immagini e voce, considera le funzionalità multimodali di ciascun framework. Per ulteriori informazioni, vedete [Multimodalità](https://python.langchain.com/docs/concepts/chat_models/#multimodality) nella documentazione. LangChain
+ **Complessità del flusso di lavoro autonomo**: flussi di lavoro autonomi più complessi con una sofisticata gestione degli stati potrebbero favorire le funzionalità avanzate delle macchine a stati. di. LangGraph
+ Collaborazione **autonoma in team: i progetti che richiedono una collaborazione** autonoma esplicita e basata sui ruoli tra agenti specializzati possono trarre vantaggio dall'architettura orientata al team di. CrewAI
+ **Paradigma di sviluppo autonomo**: i team che preferiscono modelli conversazionali e asincroni per agenti autonomi potrebbero preferire l'architettura basata sugli eventi di. AutoGen
+ **Approccio gestito o basato sul codice**: le organizzazioni che desiderano un'esperienza completamente gestita con una codifica minima dovrebbero prendere in considerazione Amazon Bedrock Agents. Le organizzazioni che richiedono una personalizzazione più profonda potrebbero preferire Strands Agents altri framework con funzionalità specializzate che si allineano meglio ai requisiti specifici degli agenti autonomi.
+ **Preparazione alla produzione per sistemi autonomi**: prendete in considerazione le opzioni di implementazione, le funzionalità di monitoraggio e le funzionalità aziendali per gli agenti autonomi di produzione.