でのエージェント AI 用のサーバーレスアーキテクチャの構築 AWS - AWS 規範ガイダンス

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

でのエージェント AI 用のサーバーレスアーキテクチャの構築 AWS

Aaron Sempf、Amazon Web Services

2026 年 1 月 (ドキュメント履歴)

AI とサーバーレスコンピューティングの収束により、最新のエンタープライズアーキテクチャの環境が再構築されています。これに応じて、組織はインテリジェントな機能を大規模に提供しようと努めています。運用上のオーバーヘッドを減らし、イノベーションを加速し、ユーザーの行動やシステムイベントにリアルタイムで適応できるアプリケーションをデプロイするというプレッシャーが高まっています。

のサーバーレス AI は、インテリジェントでアダプティブなクラウドネイティブシステムへの根本的な移行 AWS を表します。適切な戦略とツールを使用することで、組織はイノベーションサイクルの迅速化、コストの削減、スケーラビリティの向上を実現できます。このアプローチは、次世代のエンタープライズコンピューティングの最前線に立っています。 AWS は、フルマネージド AI サービスとイベント駆動型のサーバーレスインフラストラクチャの組み合わせを通じて、この移行を可能にしています。

このガイドでは、AI ネイティブのサーバーレスアーキテクチャを構築するための戦略的および技術的な基盤の概要を説明します AWS。これらのアーキテクチャはスケーラブルで費用対効果が高く、インフラストラクチャの管理を複雑にすることなくリアルタイムのインテリジェンスを提供できます。

対象者

このガイドは、最新のクラウドネイティブアプリケーション内で AI 駆動型ソフトウェアエージェントの能力を活用しようとしているアーキテクト、デベロッパー、テクノロジーリーダーを対象としています。

目的

このガイドは以下を行う際に役立ちます。

  • エージェント AI ソリューション開発に使用できる AWS ネイティブサービスを理解する

  • クラウドスケールの信頼性でエージェント AI を運用化する

  • AI の実行をビジネス成果とコストモデルに合わせる

  • 安全で管理された AI 導入のためのフレームワークを確立する

このコンテンツシリーズについて

このガイドは、 でのエージェント AI に関するシリーズの一部です AWS。詳細とこのシリーズの他のガイドについては、 AWS 「 規範ガイダンス」ウェブサイトの 「エージェント AI 」を参照してください。

サーバーレス AI のビジネスケース

サーバーレスコンピューティングは、最新の AI ワークロードに最適な基盤を提供します。AI アプリケーションでは、特に不正検出、レコメンデーションエンジン、ドキュメントの概要、カスタマーサービスの自動化などのユースケースで、断続的でコンピューティング負荷の高い推論が必要になることがよくあります。従来のインフラストラクチャモデルは、予測不可能なワークロードや急増するワークロードを管理する場合、コストが高く、運用が複雑になる可能性があります。

対照的に、サーバーレスアーキテクチャには大きな利点があります。自動的にスケールし、オンデマンドで実行し、運用オーバーヘッドを削減し、使用したリソースに対してのみ課金します。これらの機能により、サーバーレスアーキテクチャは、AI を最新のクラウドネイティブアプリケーションに埋め込むのに適しています。 は、サーバーレス機能と AI 機能を組み合わせたサービスの包括的なポートフォリオ AWS を提供します。これらのサービスにはAmazon SageMaker Serverless Inference や Amazon Bedrock が含まれます。Amazon Bedrock は、フルマネージド型の API ベースのインターフェイスを通じて基盤モデルへのアクセスを提供します。Amazon Bedrock AgentCore は、Amazon Bedrock をモデルアクセスを超えて、自律型エージェントを構築、デプロイ、管理するための完全なランタイムに拡張します。

さらに、 AWS Lambda 俊敏性、コスト整合性、本番稼働対応の AI システムの開発 AWS Step Functions を可能にします。Amazon Bedrock、SageMaker Serverless Inference、AgentCore などのサービスとペアリングすると、統合された推論、メモリ、コネクタ機能が提供され、開発者は AWS のサービス および外部システム間で計画、行動、コラボレーションできるエージェントを作成できます。これらのツールは、AI ワークロードをサーバーレスのイベント駆動型アーキテクチャ内で強力にサポートします。

AI ワークロード、特に推論は、多くの場合、予測不可能でバースト的です。従来のアーキテクチャでは、インフラストラクチャの過剰プロビジョニング、コストの増加、スケーリングの複雑さにつながります。サーバーレスモデルは、以下を提供することでこれらの問題を解決します。

  • 伸縮自在なスケーラビリティ – リソースは需要に応じて自動的にスケーリングされます。

  • コスト最適化 – アイドル状態のコンピューティングには料金はかかりません。実行時間に対してのみ支払います。

  • 運用オーバーヘッドの削減 — 運用、管理、他のテクノロジー、プロセス、リソースへの依存関係が少なくなります。

  • 市場投入までの時間を短縮 – 開発者は、サーバーを管理する代わりに、ビジネスロジックとモデルのパフォーマンスに集中できます。

  • 高可用性と組み込みレジリエンス – AWS サーバーレスサービスは、デフォルトでこれらの機能を提供します。

これらの機能により、サーバーレスは、不正検出やパーソナライズされたレコメンデーションからドキュメント分析や会話型 AI まで、さまざまなユースケースに AI モデルをデプロイするのに自然に適しています。

AWS のサービス サーバーレス AI の強化

AWS は、チームがインテリジェンスをアプリケーションに埋め込み、ワークフローをオーケストレーションし、インフラストラクチャを管理せずにイベントに対応するのに役立つ堅牢なマネージドサービススイートを提供します。

  • を使用するとAWS Lambda、サーバーをプロビジョニングすることなく、イベント駆動型のコンピューティングワークロードを大規模に実行できます。AI の前処理と後処理、軽量推論ロジックに最適です。

  • Amazon SageMaker Serverless Inference を使用して、機械学習 (ML) モデルをデプロイし、自動スケーリングとアイドル料金なしでリアルタイム予測を行います。

  • Amazon Bedrock は、生成 AI ワークロード用の単一の API を通じて、AI21 Labs、、AnthropicCohereDeepSeekLuma AIMistral AI、、 poolside (近日公開)、Stability AITwelveLabsWriter、、Amazon Metaなどの主要な AI 企業の基盤モデルにアクセスできます。

  • Amazon Bedrock エージェントを使用すると、自然言語を使用して、モデルがタスクを通じて関数の呼び出しと理由をオーケストレーションする AI 駆動型ワークフローを構築できます。

  • Amazon Bedrock AgentCore は、マルチエージェントシステムの構築とスケーリングを簡素化する基本的なランタイム、メモリ、コネクタ機能を提供します。AgentCore をサーバーレス設計に統合することで、デベロッパーはカスタムオーケストレーションや状態処理を管理する AWS ことなく、適応性の高いコンテキスト対応エージェントをネイティブに 上に構築できます。

  • Amazon EventBridge を使用すると、AI ワークフローを自動的にトリガーする疎結合のイベント駆動型アーキテクチャを構築できます。

  • AWS Step Functions を使用して、マルチステップ AI パイプラインをオーケストレーションし、ビジュアルワークフロー AWS のサービス を使用して接続します。

  • AWS IoT Greengrass および Lambda@Edge を使用すると、モデルとロジックをエッジにデプロイして、IoT およびグローバルアプリケーションで低レイテンシーの推論を行うことができます。