

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# フレームワーク
<a name="frameworks"></a>

[のエージェント AI の基礎 AWS](https://docs.aws.amazon.com/prescriptive-guidance/latest/agentic-ai-foundations/)は、自律的で目標指向の動作を可能にするコアパターンとワークフローを調べます。これらのパターンを実装する中心にあるのは、フレームワークの選択です。*フレームワーク*は、事前記述されたコードのソフトウェア基盤であり、構造化された環境と、本番環境対応の自律型 AI エージェントの構築に必要な構築と管理、ツール、オーケストレーション機能のための共通の機能を提供します。

効果的なエージェント AI フレームワークは、raw large language model (LLM) インタラクションを推論、コラボレーション、アクションが可能な調整されたインテリジェントシステムに変換するいくつかの重要な機能を提供します。
+ **エージェントオーケストレーション**は、単一または複数のエージェント間の情報の流れと意思決定を調整し、人間の介入なしに複雑な目標を達成します。
+ **ツール統合**により、エージェントは外部システム、APIs、データソースとやり取りして、言語処理を超えて機能を拡張できます。詳細については、 Strands Agentsドキュメントの[「ツールの概要](https://strandsagents.com/0.1.x/user-guide/concepts/tools/tools_overview/)」を参照してください。
+ **メモリ管理**は、永続的またはセッションベースの状態を提供し、インタラクション全体でコンテキストを維持します。これは、長時間実行されるタスクやアダプティブタスクに不可欠です。より高度なフレームワークには、概要とユーザー設定を保存する長期メモリが組み込まれているため、パーソナライズされたコンテキストに応じたエージェントエクスペリエンスが可能になります。詳細については、 LangChain ブログの[「エージェントフレームワークについて考える方法](https://blog.langchain.com/how-to-think-about-agent-frameworks/)」を参照してください。
+ **ワークフロー定義**は、高度な自律推論を可能にするチェーン、ルーティング、並列化、リフレクションループなどの構造化パターンをサポートします。
+ **デプロイとモニタリング**により、自律システムのオブザーバビリティを備えた開発から本番稼働への移行が容易になります。詳細については、[Amazon Bedrock AgentCore の一般提供](https://aws.amazon.com/blogs/machine-learning/amazon-bedrock-agentcore-is-now-generally-available/)に関するお知らせを参照してください。

これらの機能は、フレームワーク環境全体でさまざまなアプローチと重点を置いて実装され、それぞれがさまざまな自律型エージェントのユースケースと組織コンテキストに異なる利点を提供します。

このセクションでは、エージェント AI ソリューションを構築するための主要なフレームワークをプロファイリングして比較し、その長所、制限、自律運用の理想的なユースケースに焦点を当てます。
+ [ストランドエージェント](strands-agents.md)
+ [LangChain と LangGraph](langchain-langgraph.md)
+ [CrewAI](crewai.md)
+ [AutoGen](autogen.md)
+ [LlamaIndex](llamaindex.md)
+ [エージェント AI フレームワークの比較](comparing-agentic-ai-frameworks.md)

**注記**  
このセクションでは、AI の機関を特にサポートするフレームワークについて説明し、機関のないフロントエンドインターフェイスや生成 AI については説明しません。

# Strands Agents
<a name="strands-agents"></a>

Strands Agents は、オープンソース[AWS ブログ](https://aws.amazon.com/blogs/opensource/introducing-strands-agents-an-open-source-ai-agents-sdk/)で説明されているように AWS、 によって最初にリリースされたオープンソース SDK です。 Strands Agentsは、モデルファーストのアプローチで自律 AI エージェントを構築するように設計されています。 とシームレスに連携するように設計された柔軟で拡張可能なフレームワークを提供し AWS のサービス 、サードパーティーのコンポーネントとの統合にオープンなままです。Strands エージェントは、完全自律型ソリューションの構築に最適です。

## の主な機能 Strands Agents
<a name="key-features-of-strands-agents"></a>

Strands Agents には、次の主要な機能が含まれています。
+ **モデルファースト設計** – 基盤モデルがエージェントインテリジェンスの中核であるという概念に基づいて構築され、高度な自律型推論を可能にします。詳細については、 Strands Agentsドキュメントの[「エージェントループ](https://strandsagents.com/latest/user-guide/concepts/agents/agent-loop/)」を参照してください。
+ **マルチエージェントコラボレーションパターン** – 分散エージェントネットワーク全体でスケーラブルなコラボレーションとガバナンスを可能にする Swarm、Graph、Workflow パターンなどの組み込み調整モデル。詳細については、[「 Strands Agents ドキュメント」の「Multi-agent Patterns](https://strandsagents.com/docs/user-guide/concepts/multi-agent/multi-agent-patterns/)」を参照してください。
+ **MCP 統合** – [Model Context Protocol](https://modelcontextprotocol.io/) (MCP) のネイティブサポートにより、LLMs、一貫した自律オペレーションが可能になります。
+ **AWS のサービス 統合** – Amazon Bedrock、 など AWS のサービス へのシームレスな接続により AWS Lambda AWS Step Functions、包括的な自律型ワークフローを実現します。詳細については、[AWS 「週次ラウンドアップ (ブログ)](https://aws.amazon.com/blogs/aws/aws-weekly-roundup-strands-agents-aws-transform-amazon-bedrock-guardrails-aws-codebuild-and-more-may-19-2025/)」を参照してください。AWS 
+ **基盤モデルの選択** – Amazon Bedrock の Anthropic Claude、Amazon Nova (Premier、Pro、Lite、Micro) など、さまざまな基盤モデルをサポートして、さまざまな自律推論機能を最適化します。詳細については、 Strands Agentsドキュメントの[「Amazon Bedrock](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/)」を参照してください。
+ **LLM API 統合** – Amazon Bedrock、OpenAI など、本番デプロイ用のさまざまな LLM サービスインターフェイスとの柔軟な統合。詳細については、 Strands Agentsドキュメントの[「Amazon Bedrock の基本的な使用方法](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/#basic-usage)」を参照してください。
+ **マルチモーダル機能** – テキスト、音声、画像処理を含む複数のモダリティをサポートし、包括的な自律型エージェントインタラクションを実現します。詳細については、 Strands Agentsドキュメントの[「Amazon Bedrock マルチモーダルサポート](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/#multimodal-support)」を参照してください。
+ **ツールエコシステム** – AWS のサービス 対話のための豊富なツールセットと、自律機能を拡張するカスタムツールの拡張性。詳細については、 Strands Agentsドキュメントの[「ツールの概要](https://strandsagents.com/0.1.x/user-guide/concepts/tools/tools_overview/)」を参照してください。

## Strands Agents を使用する場合
<a name="when-to-use-strands-agents"></a>

Strands Agents は、次のような自律型エージェントのシナリオに特に適しています。
+ 自動ワークフロー AWS のサービス のために とのネイティブ統合を必要とする AWS インフラストラクチャ上に構築される組織
+ 本番稼働用自律システムのエンタープライズグレードのセキュリティ、スケーラビリティ、コンプライアンス機能を必要とするチーム
+ 特殊な自律タスクのために異なるプロバイダー間でモデル選択に柔軟性を必要とするプロジェクト
+ エンドツーエンドの自律プロセスのために既存の AWS ワークフローやリソースと緊密に統合する必要があるユースケース

## の実装アプローチ Strands Agents
<a name="implementation-approach-for-strands-agents"></a>

Strands Agents は、[クイックスタートガイド](https://strandsagents.com/0.1.x/user-guide/quickstart/)で説明されているように、ビジネスステークホルダーに簡単な実装アプローチを提供します。このフレームワークにより、組織は次のことが可能になります。
+ 特定のビジネス要件に基づいて、Amazon Bedrock の Amazon Nova (Premier、Pro、Lite、Micro) などの基盤モデルを選択します。
+ エンタープライズシステムとデータソースに接続するカスタムツールを定義します。
+ テキスト、画像、音声など、複数のモダリティを処理します。
+ ビジネスクエリに自律的に応答し、タスクを実行できるエージェントをデプロイします。

この実装アプローチにより、ビジネスチームは AI モデル開発に関する深い技術的専門知識を必要とせずに、自律型エージェントを迅速に開発およびデプロイできます。

## の実例 Strands Agents
<a name="real-world-example-of-strands-agents"></a>

AWS Transform for .NET Strands Agentsは、[AWS Transform 「 for .NET」で説明されているように、 を使用してアプリケーションのモダナイゼーション機能を強化します。これは、.NET アプリケーションを大規模にモダナイズするための最初のエージェント AI サービス](https://aws.amazon.com/blogs/aws/aws-transform-for-net-the-first-agentic-ai-service-for-modernizing-net-applications-at-scale/)です (AWS ブログ）。この本稼働サービスは、複数の特殊な自律型エージェントを採用しています。エージェントは連携して、レガシー .NET アプリケーションを分析し、モダナイゼーション戦略を計画し、人間の介入なしにクラウドネイティブアーキテクチャへのコード変換を実行します。 [AWS Transform for .NET](https://aws.amazon.com/transform/net/) は、エンタープライズ自律システムの Strands Agentsの本番稼働準備状況を示しています。

# LangChain および LangGraph
<a name="langchain-langgraph"></a>

LangChain は、エージェント AI エコシステムで最も確立されたフレームワークの 1 つです。 は、 [LangChain ブログ](https://blog.langchain.dev/how-to-think-about-agent-frameworks/)で説明されているように、その機能LangGraphを拡張して、複雑でステートフルなエージェントワークフローをサポートします。これらを組み合わせることで、独立した運用のための豊富なオーケストレーション機能を備えた高度な自律型 AI エージェントを構築するための包括的なソリューションを提供します。

## LangChain および の主な機能 LangGraph
<a name="key-features-of-langchain-and-langgraph"></a>

LangChain および には、次の主要な機能LangGraphが含まれています。
+ **コンポーネントエコシステム** – さまざまな自律型エージェント機能用の構築済みコンポーネントの広範なライブラリ。特殊なエージェントの迅速な開発を可能にします。詳細については、 LangChainドキュメントの[「クイックスタート](https://docs.langchain.com/oss/python/langchain/quickstart)」を参照してください。
+ **基盤モデルの選択** – Anthropic Claude、Amazon Bedrock の Amazon Nova モデル (Premier、Pro、Lite、Micro) など、さまざまな推論機能のためのさまざまな基盤モデルをサポートします。詳細については、 LangChainドキュメントの[「入力と出力](https://python.langchain.com/docs/concepts/chat_models/#inputs-and-outputs)」を参照してください。
+ **LLM API 統合** – Amazon Bedrock、 など、柔軟なデプロイOpenAIのための複数の大規模言語モデル (LLM) サービスプロバイダー向けの標準化されたインターフェイス。詳細については、 LangChainドキュメントの[LLMs](https://python.langchain.com/docs/integrations/llms/)」を参照してください。
+ **マルチモーダル処理** – テキスト、画像、オーディオ処理の組み込みサポートにより、リッチなマルチモーダル自律型エージェントインタラクションが可能になります。詳細については、 LangChainドキュメントの[「マルチモダリティ](https://python.langchain.com/docs/concepts/chat_models/#multimodality)」を参照してください。
+ **グラフベースのワークフロー** – 複雑な自律型エージェントの動作をステートマシンとして定義LangGraphし、高度な決定ロジックをサポートできます。詳細については、[LangGraph「プラットフォーム GA ](https://blog.langchain.dev/langgraph-platform-ga/)の発表」を参照してください。
+ **メモリ抽象化** – 短期および長期のメモリ管理のための複数のオプション。これは、時間の経過とともにコンテキストを維持する自律型エージェントに不可欠です。詳細については、 LangChainドキュメントの[「チャットボットにメモリを追加する方法](https://python.langchain.com/docs/how_to/chatbots_memory/)」を参照してください。
+ **ツール統合** – さまざまなサービスと APIs、自律型エージェント機能を拡張します。詳細については、 LangChainドキュメントの[「ツール](https://python.langchain.com/docs/how_to/#tools)」を参照してください。
+ **LangGraph プラットフォーム** – 長時間稼働の自律型エージェントをサポートする、本番環境向けのマネージドデプロイおよびモニタリングソリューション。詳細については、[LangGraph「プラットフォーム GA ](https://blog.langchain.dev/langgraph-platform-ga/)の発表」を参照してください。

## LangChain と を使用するタイミング LangGraph
<a name="when-to-use-langchain-and-langgraph"></a>

LangChain と LangGraphは、特に次のような自律型エージェントシナリオに適しています。
+ 自律的な意思決定に高度なオーケストレーションを必要とする複雑な複数ステップの推論ワークフロー
+ さまざまな自律機能のための構築済みのコンポーネントと統合の大規模なエコシステムへのアクセスを必要とするプロジェクト
+ 自動システムの構築を希望する既存の Pythonベースの機械学習 (ML) インフラストラクチャと専門知識を持つチーム
+ 長時間実行される自律型エージェントセッション全体で複雑な状態管理を必要とするユースケース

## LangChain と の実装アプローチ LangGraph
<a name="implementation-approach-for-langchain-and-langgraph"></a>

LangChain と は、 [LangGraphドキュメント](https://python.langchain.com/docs/langgraph)に詳述されているように、ビジネスステークホルダーに構造化された実装アプローチLangGraphを提供します。このフレームワークにより、組織は次のことが可能になります。
+ ビジネスプロセスを表す高度なワークフローグラフを定義します。
+ 決定ポイントと条件付きロジックを使用して、複数ステップの推論パターンを作成します。
+ マルチモーダル処理機能を統合して、さまざまなデータ型を処理します。
+ 組み込みのレビューおよび検証メカニズムを使用して、品質管理を実装します。

このグラフベースのアプローチにより、ビジネスチームは複雑な意思決定プロセスを自律型ワークフローとしてモデル化できます。チームは、推論プロセスの各ステップと、決定パスを監査する能力を明確に把握できます。

## と の実際の例 LangChain LangGraph
<a name="real-world-example-of-langchain-and-langgraph"></a>

Vodafone は、[LangChainエンタープライズのケーススタディ](https://blog.langchain.com/customers-vodafone/)で説明されているように、 LangChain (および LangGraph) を使用して自動エージェントを実装し、データエンジニアリングとオペレーションのワークフローを強化しています。パフォーマンスメトリクスを自律的にモニタリングし、ドキュメントシステムから情報を取得し、自然言語インタラクションを通じて実用的なインサイトを提示する内部 AI アシスタントを構築しました。

このVodafone実装では、LangChainモジュラードキュメントローダー、ベクトル統合、および複数の LLMs (OpenAI、LLaMA 3、および Gemini) のサポートを使用して、これらのパイプラインを迅速にプロトタイプ化およびベンチマークします。次に、モジュール式のサブエージェントLangGraphをデプロイして、マルチエージェントオーケストレーションを構造化するために使用されます。これらのエージェントは、収集、処理、要約、推論タスクを実行します。 APIs を通じてこれらのエージェントをクラウドシステムLangGraphに統合しました。

# CrewAI
<a name="crewai"></a>

CrewAI は、特に [GitHub](https://github.com/crewAIInc/crewAI) で利用可能な自律型マルチエージェントオーケストレーションに焦点を当てたオープンソースフレームワークです。これは、人間の介入なしに複雑なタスクを解決するために協力する特殊な自律型エージェントのチームを作成するための構造化されたアプローチを提供します。 CrewAI は、ロールベースの調整とタスクの委任を強調します。

## の主な機能 CrewAI
<a name="key-features-of-crewai"></a>

CrewAI には、次の主要な機能があります。
+ **ロールベースのエージェント設計** – 自律エージェントは、特殊な専門知識を実現するために、特定のロール、目標、バックストーリーで定義されます。詳細については、 CrewAIドキュメントの[「Crafting Effective Agents](https://docs.crewai.com/en/guides/agents/crafting-effective-agents)」を参照してください。
+ **タスクの委任** – 機能に基づいて適切なエージェントにタスクを自動的に割り当てるための組み込みメカニズム。詳細については、 CrewAIドキュメントの[「タスク](https://docs.crewai.com/en/concepts/tasks)」を参照してください。
+ **エージェントコラボレーション** – 人間による仲介のない、エージェント間の自律的なコミュニケーションと知識共有のためのフレームワーク。詳細については、 CrewAIドキュメントの[「コラボレーション](https://docs.crewai.com/en/concepts/collaboration)」を参照してください。
+ **プロセス管理** – シーケンシャルおよび並列の自律タスク実行のための構造化ワークフロー。詳細については、 CrewAIドキュメントの[「プロセス](https://docs.crewai.com/en/concepts/processes)」を参照してください。
+ **基盤モデルの選択** – Amazon Bedrock の Anthropic Claude、Amazon Nova モデル (Premier、Pro、Lite、Micro) など、さまざまな基盤モデルをサポートして、さまざまな自律推論タスクを最適化します。詳細については、 CrewAIドキュメントの[LLMs](https://docs.crewai.com/en/concepts/llms)」を参照してください。
+ **LLM API 統合** – Amazon Bedrock、、ローカルモデルのデプロイなどOpenAI、複数の LLM サービスインターフェイスとの柔軟な統合。詳細については、 CrewAIドキュメントの[「プロバイダー設定の例](https://docs.crewai.com/en/concepts/llms#provider-configuration-examples)」を参照してください。
+ **マルチモーダルサポート** – テキスト、画像、その他のモダリティを処理して、包括的な自律型エージェントインタラクションを実現するための新しい機能。詳細については、 CrewAIドキュメントの[「マルチモーダルエージェントの使用](https://docs.crewai.com/en/learn/multimodal-agents)」を参照してください。

## CrewAI を使用する場合
<a name="when-to-use-crewai"></a>

CrewAI は、次のような自律型エージェントのシナリオに特に適しています。
+ 専門的なロールベースの専門知識を自律的に活用できる複雑な問題 
+ 複数の自律型エージェント間の明示的なコラボレーションを必要とするプロジェクト 
+ チームベースの問題分解が自律的な問題解決を改善するユースケース
+ さまざまな自律エージェントロール間で懸念を明確に分離する必要があるシナリオ

## の実装アプローチ CrewAI
<a name="implementation-approach-for-crewai"></a>

CrewAI は、[「 ドキュメントの開始方法](https://github.com/crewAIInc/crewAI?tab=readme-ov-file#getting-started)」で説明されているように、ビジネスステークホルダー向けの AI エージェントアプローチのチームのロールベースの実装を提供します。 CrewAIこのフレームワークにより、組織は次のことが可能になります。
+ 特定のロール、目標、専門知識領域を持つ特殊な自律型エージェントを定義します。
+ 特殊な機能に基づいてエージェントにタスクを割り当てます。
+ タスク間に明確な依存関係を確立して、構造化ワークフローを作成します。
+ 複数のエージェント間のコラボレーションを調整して、複雑な問題を解決します。

このロールベースのアプローチは人間のチーム構造を反映しており、ビジネスリーダーは直感的に理解して実装できます。組織は、ヒューマンチームの運営方法と同様に、ビジネス目標を達成するために協力する専門分野を持つ自律型チームを作成できます。ただし、自律型チームは人間の介入なしに継続的に作業できます。

## の実例 CrewAI
<a name="real-world-example-of-crewai"></a>

AWS は、[CrewAI公開されたケーススタディ](https://www.crewai.com/case-studies/aws-powers-bedrock-agents-with-crewai)で説明されているように、Amazon Bedrock と統合された CrewAI を使用して自律型マルチエージェントシステムを実装 AWS し、ベンダーに依存しない安全なフレームワークCrewAIを開発しました。CrewAI オープンソースの「フローとクルー」アーキテクチャは、Amazon Bedrock 基盤モデル、メモリシステム、コンプライアンスガードレールとシームレスに統合されます。

実装の主な要素は次のとおりです。
+ **設計図とオープンソース** – AWS および は、CrewAIエージェントを Amazon Bedrock モデルとオブザーバビリティツールにマッピングするリファレンスデザインをCrewAIリリースしました。 [https://aws.amazon.com/blogs/machine-learning/build-agentic-systems-with-crewai-and-amazon-bedrock/](https://aws.amazon.com/blogs/machine-learning/build-agentic-systems-with-crewai-and-amazon-bedrock/)また、マルチエージェント AWS セキュリティ監査クルー、コードモダナイゼーションフロー、コンシューマーパッケージ製品 (CPG) バックオフィスオートメーションなどのサンプルシステムもリリースしました。
+ **オブザーバビリティスタック統合** – このソリューションは、Amazon CloudWatch、AgentOps、および によるモニタリングを埋め込みLangFuse、概念実証から本番稼働までのトレーサビリティとデバッグを可能にします。
+ **実証済みの投資利益率 (ROI)** – 初期のパイロットでは、大規模なコードモダナイゼーションプロジェクトの実行が 70 % 高速化され、CPG バックオフィスフローの処理時間が約 90 % 短縮されました。

# AutoGen
<a name="autogen"></a>

[https://www.microsoft.com/en-us/research/project/autogen/](https://www.microsoft.com/en-us/research/project/autogen/) は、 によって最初にリリースされたオープンソースフレームワークMicrosoftです。 は、会話型および共同型の自律型 AI エージェントを有効にすることにAutoGen重点を置いています。これは、複雑な自律ワークフローのためにエージェント間の非同期のイベント駆動型インタラクションに重点を置いたマルチエージェントシステムを構築するための柔軟なアーキテクチャを提供します。

## の主な機能 AutoGen
<a name="key-features-of-autogen"></a>

AutoGen には、次の主要な機能があります。
+ **会話エージェント** – 自律型エージェント間の自然言語会話を中心に構築され、対話を通じて高度な推論を可能にします。詳細については、 AutoGenドキュメントの[「マルチエージェント会話フレームワーク](https://microsoft.github.io/autogen/docs/Use-Cases/agent_chat)」を参照してください。
+ **非同期アーキテクチャ – **ノンブロッキングの自律型エージェントインタラクションのためのイベント駆動型設計で、複雑な並列ワークフローをサポートします。詳細については、 AutoGenドキュメントの[「非同期チャットのシーケンスでの複数のタスクの解決](https://microsoft.github.io/autogen/0.2/docs/notebooks/agentchat_multi_task_async_chats/)」を参照してください。
+ **Human-in-the-loop** – 必要に応じて、他の自律型エージェントワークフローへのオプションの人間の参加を強力にサポートします。詳細については、 AutoGenドキュメントの[「 エージェントでのヒューマンフィードバックの許可](https://microsoft.github.io/autogen/0.2/docs/tutorial/human-in-the-loop/)」を参照してください。
+ **コードの生成と実行** — コードを記述して実行できるコードに焦点を当てた自律型エージェント専用の機能。詳細については、 AutoGenドキュメントの[「コード実行](https://microsoft.github.io/autogen/stable/user-guide/core-user-guide/design-patterns/code-execution-groupchat.html)」を参照してください。
+ **カスタマイズ可能な動作** – さまざまなユースケースに対応する柔軟な自律型エージェント設定と会話制御。詳細については、 AutoGenドキュメントの [agentchat.conversable\$1agent](https://microsoft.github.io/autogen/docs/reference/agentchat/conversable_agent) を参照してください。
+ **基盤モデルの選択** – Anthropic Claude、Amazon Bedrock の Amazon Nova モデル (Premier、Pro、Lite、Micro) など、さまざまな基盤モデルをサポートし、さまざまな自律推論機能を提供します。詳細については、 AutoGenドキュメントの[「LLM 設定](https://microsoft.github.io/autogen/docs/topics/llm_configuration)」を参照してください。
+ **LLM API 統合** – Amazon Bedrock、、 OpenAIなどの複数の LLM サービスインターフェイスの標準化された設定Azure OpenAI。詳細については、 AutoGen API リファレンスの[「oai.openai\$1utils](https://microsoft.github.io/autogen/docs/reference/oai/openai_utils)」を参照してください。
+ **マルチモーダル処理** – リッチなマルチモーダル自律型エージェントインタラクションを可能にするテキストおよび画像処理をサポートします。詳細については、 AutoGenドキュメントの[「マルチモーダルモデルの使用: GPT-4VAutoGen](https://microsoft.github.io/autogen/0.2/docs/notebooks/agentchat_lmm_gpt-4v/)」を参照してください。

## AutoGen を使用する場合
<a name="when-to-use-autogen"></a>

AutoGen は、次のような自律型エージェントのシナリオに特に適しています。
+ 複雑な推論のために自律型エージェント間の自然な会話フローを必要とするアプリケーション
+ 完全自律型オペレーションとオプションの人的監視機能の両方を必要とするプロジェクト
+ 人間の介入なしでの自律的なコード生成、実行、デバッグを含むユースケース
+ 柔軟で非同期の自律型エージェントの通信パターンを必要とするシナリオ

## の実装アプローチ AutoGen
<a name="implementation-approach-for-autogen"></a>

AutoGen は、 AutoGenドキュメントの[「開始方法](https://microsoft.github.io/autogen/docs/Getting-Started)」で説明されているように、ビジネスステークホルダー向けの会話型実装アプローチを提供します。このフレームワークにより、組織は次のことが可能になります。
+ 自然言語の会話を通じて通信する自律型エージェントを作成します。
+ 複数のエージェント間でイベント駆動型の非同期インタラクションを実装します。
+ 必要に応じて、完全自律型オペレーションとオプションの人間による監視を組み合わせます。
+ 対話を通じてコラボレーションするさまざまなビジネス機能に特化したエージェントを開発します。

この会話型アプローチは、自律システムの推論をビジネスユーザーが透過的に利用できるようにします。意思決定者は、エージェント間の対話を観察して結論にどのように達するかを理解し、必要に応じて人間の判断が必要なときに会話に参加できます。

## の実例 AutoGen
<a name="real-world-example-of-autogen"></a>

Magentic-One は、[Microsoft AI Frontiers ブログ](https://www.microsoft.com/en-us/research/articles/magentic-one-a-generalist-multi-agent-system-for-solving-complex-tasks/)で説明されているように、さまざまな環境で複雑なマルチステップタスクを自律的に解決するように設計されたオープンソースのゼネラリストマルチエージェントシステムです。その中核となるのはオーケストレーターエージェントです。オーケストレーターエージェントは、高レベルの目標を分解し、構造化台帳を使用して進捗状況を追跡します。このエージェントは、サブタスクを特殊なエージェント (WebSurfer、、FileSurfer、 などComputerTerminal) に委任しCoder、必要に応じて再計画することで動的に適応します。

システムはAutoGenフレームワーク上に構築され、モデルに依存しず、デフォルトで GPT‐4o になります。GAIA、、 などのベンチマーク全体で、タスク固有の調整AssistantBenchWebArenaなしで最先端のパフォーマンスを実現します。さらに、提案によるモジュール式の拡張性と厳格な評価もサポートしていますAutoGenBench。

# LlamaIndex
<a name="llamaindex"></a>

[https://www.llamaindex.ai/](https://www.llamaindex.ai/) は、大規模言語モデル (LLMs) を外部データソースに接続して、高度な検索拡張生成 (RAG) およびエージェント AI アプリケーションを可能にするために特別に設計されたデータフレームワークです。このフレームワークは、エージェントシステム、カスタムオーケストレーションパターン、システム統合のための抽象化と高速開発ワークフローを提供し、ナレッジ駆動型 AI ソリューションのtime-to-productionします。

## の主な機能 LlamaIndex
<a name="key-features-of-llamaindex"></a>

LlamaIndex は、エンタープライズエージェント AI アプリケーションに特に適した包括的な機能を提供します。
+ **データ中心のアーキテクチャ** – PDFs、MicrosoftWord ドキュメント、スプレッドシートなど、100 を超えるデータ形式からの情報の取り込み、インデックス作成、取得に優れています。このフレームワークは、エンタープライズデータを AI エージェント用に最適化されたクエリ可能なナレッジベースに変換します。詳細については、[LlamaIndex のドキュメント](https://developers.llamaindex.ai/)を参照してください。
+ **本番環境に対応したデプロイ** – LlamaIndexは、 を通じてオープンソースフレームワークとマネージドサービスの両方を提供しLlamaCloud、セキュリティコントロール、スケーラビリティ、オブザーバビリティ統合、デプロイの柔軟性などのエンタープライズグレードの機能を提供します。詳細については、[LlamaIndexフレームワークのドキュメント](https://developers.llamaindex.ai/python/framework/)を参照してください。
+ **高度なドキュメント処理** – 複雑なレイアウト、ネストされたテーブル、マルチモーダルコンテンツ、さらには手書きのメモを処理するドキュメント解析、抽出、インデックス作成、検索機能LlamaCloudを提供します。この高度な解析により、エージェントはグラフ、図、複雑なフォーマットを含む実際のエンタープライズドキュメントを効果的に操作できます。詳細については、[LlamaCloud のドキュメント](https://developers.llamaindex.ai/python/cloud/)を参照してください。
+ **ワークフローオーケストレーション** – 複数ステップのエージェントシステムを構築するためのイベント駆動型の非同期ファーストオーケストレーションエンジンLlamaAgentsを提供します。ワークフローは、ループ、並列実行、条件分岐、ステートフル再開などの複雑なパターンをサポートしているため、高度なエージェントインタラクションに最適です。詳細については、[LlamaIndexワークフローのドキュメント](https://developers.llamaindex.ai/python/framework/understanding/workflows/)を参照してください。
+ **エージェント取り出し機能** – ハイブリッド検索、セマンティック検索、自動ルーティングなどの高度な取り出しモード。各クエリに最適な取り出し戦略をインテリジェントに決定します。フレームワークは、精度を高めるために再ランク付けして、複数のナレッジベースにわたる複合取得をサポートします。詳細については、[LlamaIndexRAG ドキュメント](https://developers.llamaindex.ai/python/framework/understanding/rag/)を参照してください。
+ **オブザーバビリティと評価** – さまざまなオブザーバビリティと評価ツールとLlamaIndex統合されます。この統合機能は、アプリケーションのトレースとデバッグ、パフォーマンスの評価、コストのモニタリングに役立ちます。詳細については、[「トレースとデバッグと評価](https://developers.llamaindex.ai/python/framework/understanding/tracing_and_debugging/tracing_and_debugging/)」のLlamaIndexドキュメントを参照してください。 [https://developers.llamaindex.ai/python/framework/module_guides/evaluating](https://developers.llamaindex.ai/python/framework/module_guides/evaluating)

## LlamaIndex を使用する場合
<a name="when-to-use-llamaindex"></a>

LlamaIndex は、データ集約型のワークフローとナレッジ管理を強調するエージェント AI シナリオに特に適しています。
+ エージェントが契約、レポート、マニュアル、規制申請などの大量のエンタープライズドキュメントからインサイトを処理、分析、抽出する必要があるドキュメントの多いアプリケーション
+ 組織が大規模なインフラストラクチャ管理オーバーヘッドなしでドキュメント中心のエージェントを迅速に構築してデプロイしたい実稼働シナリオへの迅速なプロトタイプ
+ 特にテーブル、イメージ、構造化データを含む複雑なマルチモーダルドキュメントを操作する場合、取得精度とコンテキストの関連性を優先する RAG ファーストアーキテクチャ
+ 解析、分析、要約、コンプライアンスチェックなど、ドキュメント処理のさまざまな側面で特殊なエージェントを必要とするマルチエージェントドキュメントワークフロー

## の実装アプローチ LlamaIndex
<a name="implementation-approach-for-llamaindex"></a>

LlamaIndex は、さまざまな実装アプローチに対応する低レベルの構成要素と高レベルの抽象化の両方を提供します。
+ LlamaIndex 高レベル APIs。このアプローチにより、エージェント AI を初めて使用するビジネスチームや開発者がLlamaIndexアクセスできるようになります。
+ SharePoint、Amazon Simple Storage Service (Amazon S3)、データベース、APIs などの一般的なエンタープライズシステム向けの LlamaHub を介したエンタープライズ統合。このアプローチにより、既存のデータインフラストラクチャとシームレスに統合できます。
+ 最大限の制御のためのオープンソースのセルフホストデプロイと、運用上のオーバーヘッドとエンタープライズ機能を削減するためのLlamaCloudマネージドサービス間の柔軟なデプロイオプション。
+ アプリケーションはシンプルなクエリエンジンから開始し、要件の進化に応じてエージェント機能、マルチエージェントオーケストレーション、複雑なワークフローを段階的に追加できます。

## の実例 LlamaIndex
<a name="real-world-example-llamaindex"></a>

この例では、航空ナビゲーションおよび運用ソリューションを専門とする航空会社の子会社に焦点を当てています。調整されていない AI チャットボットトライアルを試すという課題の増大に対処する必要があります。トライアルにより、組織全体で作業が繰り返され、開発サイクルが長くなり、コンプライアンスの障害が発生し、実装が分離されました。

エージェント作成をはるかに効率的にするLlamaIndexオープンソースフレームワーク上に構築された、再利用可能なテンプレートベースのソリューションである統合エージェントフレームワークを開発しました。チェーン指向とグラフベースの競合するフレームワークをいくつか比較しました。最終的に、柔軟な設計、モジュラーコンポーネント、本番稼働対応のオーケストレーションコントロールという 3 つの重要な利点を選択LlamaIndexしました。

このプラットフォームは、エージェントの開発とデプロイの時間を 512 時間から 64 時間に 87% 短縮します。この削減は、チームが約 50 行のコードと JSON 設定ファイルを使用してエージェントを構築できるようにすることで実現されました。チームは、セキュリティ、コンプライアンス、特権システムアクセスが組み込まれた統合フレームワークを活用しました。詳細については、[LlamaIndex「 カスタマーのケーススタディ](https://www.llamaindex.ai/customers)」を参照してください。

# エージェント AI フレームワークの比較
<a name="comparing-agentic-ai-frameworks"></a>

自律型エージェント開発用のエージェント AI フレームワークを選択するときは、各オプションが特定の要件にどのように適合するかを検討してください。技術的な能力だけでなく、チームの専門知識、既存のインフラストラクチャ、長期的なメンテナンス要件など、組織の適合性も考慮してください。多くの組織は、自律型 AI エコシステムのさまざまなコンポーネントに複数のフレームワークを活用して、ハイブリッドアプローチの恩恵を受ける可能性があります。

次の表は、主要な技術的側面における各フレームワークの成熟度レベル (最強、強、適切、弱) を比較したものです。この表には、フレームワークごとに、本番デプロイオプションと学習曲線の複雑さに関する情報も含まれています。


| 
| 
| **Framework** | **AWS 統合** | **自動マルチエージェントサポート** | **自律ワークフローの複雑さ** | **マルチモーダル機能** | **基盤モデルの選択** | **LLM API 統合** | **本番稼働用デプロイ** | **学習曲線** | 
| --- |--- |--- |--- |--- |--- |--- |--- |--- |
| AutoGen | 弱い | 強力 | 強力 | 適切 | 適切 | 強力 | 自分で行う (DIY) | 急勾配 | 
| CrewAI | 弱い | 強力 | 適切 | 弱い | 適切 | 適切 | DIY | 中 | 
| LangChain/LangGraph | 適切 | 強力 | 最強 | 最強 | 最強 | 最強 | プラットフォームまたは DIY | 急勾配 | 
|  LlamaIndex  |  適切  |  適切  |  強力  |  適切  |  強力  |  強力  |  プラットフォームまたは DIY  |  中  | 
| Strands Agents | 最強 | 強力 | 最強 | 強力 | 強力 | 最強 | DIY | 中 | 

## エージェント AI フレームワークの選択に関する考慮事項
<a name="considerations-in-choosing-an-agentic-ai-framework"></a>

自律型エージェントを開発するときは、次の主要な要因を考慮してください。
+ **AWS インフラストラクチャ統合** – に大きく投資されている組織は AWS 、自律型ワークフロー AWS のサービス のために Strands Agentsと のネイティブ統合から最も恩恵を受けます。詳細については、[AWS 「週次ラウンドアップ (ブログ)](https://aws.amazon.com/blogs/aws/aws-weekly-roundup-strands-agents-aws-transform-amazon-bedrock-guardrails-aws-codebuild-and-more-may-19-2025/)」を参照してください。AWS 
+ **基盤モデルの選択** – 自律型エージェントの推論要件に基づいて、優先基盤モデル (Amazon Bedrock の Amazon Nova モデルや Anthropic Claude など) に最適なサポートを提供するフレームワークを検討します。詳細については、 Anthropicウェブサイトの[「効果的なエージェントの構築](https://www.anthropic.com/engineering/building-effective-agents)」を参照してください。
+ **LLM API 統合** – 本番デプロイ用の任意の大規模言語モデル (LLM) サービスインターフェイス (Amazon Bedrock や などOpenAI) との統合に基づいてフレームワークを評価します。詳細については、 ドキュメントの[「モデルインターフェイス](https://strandsagents.com/latest/user-guide/concepts/model-providers/amazon-bedrock/#basic-usage) Strands Agents」を参照してください。
+ **マルチモーダル要件** – テキスト、画像、音声を処理する必要がある自律型エージェントの場合は、各フレームワークのマルチモーダル機能を検討してください。詳細については、 LangChainドキュメントの[「マルチモダリティ](https://python.langchain.com/docs/concepts/chat_models/#multimodality)」を参照してください。
+ **自律型ワークフローの複雑さ** — 高度な状態管理を備えたより複雑な自律型ワークフローは、 の高度なステートマシン機能を優先する可能性がありますLangGraph。
+ **自律型チームコラボレーション** – 専門エージェント間の明示的なロールベースの自律型コラボレーションを必要とするプロジェクトは、 のチーム指向アーキテクチャの恩恵を受けることができますCrewAI。
+ **自律型開発パラダイム** – 自律型エージェントの会話型非同期パターンを好むチームは、 のイベント駆動型アーキテクチャを好むかもしれませんAutoGen。
+ **マネージド型またはコードベースのアプローチ** – 最小限のコーディングでフルマネージド型のエクスペリエンスを希望する組織は、Amazon Bedrock エージェントを検討する必要があります。より詳細なカスタマイズを必要とする組織は、特定の自律型エージェントの要件により適した特殊な機能を備えた Strands Agentsやその他のフレームワークを好む場合があります。
+ **自律システムの本番稼働準備** — 本番稼働用自律エージェントのデプロイオプション、モニタリング機能、エンタープライズ機能を検討します。