翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
エッジ AI とグローバル推論ディストリビューション
クラウドベースの推論はほとんどのエンタープライズユースケースに対応しますが、特定のシナリオでは、リアルタイムのレスポンス、オフライン機能、またはデータソースやユーザーへの近接性が必要です。このような場合、デバイス上またはデバイスの近くで AI ロジックを実行するエッジ AI は、サーバーレスクラウドアーキテクチャを強力に補完します。
AWS は、次の 2 つの主要なサーバーレステクノロジーを通じてエッジ AI をサポートしています。
-
Lambda@Edge は、Amazon CloudFront を使用して AWS エッジロケーションで推論ロジックをグローバルに実行します。
例 – グローバル e コマースサイトは、Lambda@Edge 関数を使用して、ユーザーの場所と言語に基づいてホームページコンテンツをパーソナライズします。その結果、最も近い CloudFront エッジロケーションから、カスタマイズされたエクスペリエンスが即座に提供されます。
-
AWS IoT Greengrass は、接続されたデバイスでローカル AI 実行を有効にします。
例 – スマートアプライアンスは、リアルタイム診断 AWS IoT Greengrass のために にデプロイされたモデルを使用し、必要に応じて、または接続が許可されているときにインサイトをクラウドに同期します。
これらのテクノロジーを組み合わせることで、サーバーレス AI の到達範囲を、低レイテンシー、帯域幅重視、オフライン環境、グローバルに分散されたユーザーベースに拡張できます。
Lambda@Edge: CDN レイヤーのグローバル推論
Lambda@Edge を使用することで、デベロッパーは CloudFront エッジロケーションで AWS Lambda 関数を実行できます。このアプローチにより、エンドユーザーのレイテンシーが軽減され、コンテキスト対応で超高速な AI エクスペリエンスが可能になります。
Lambda@Edge の主な機能は次のとおりです。
-
ビューワーリクエストやオリジンレスポンスなどの CloudFront イベントに応答して CDN レイヤーでロジックを実行します
-
ユーザー、場所、デバイスに応じて、ウェブページのパーソナライズやレコメンデーションなどのコンテンツをカスタマイズします
-
AI 推論を中央へのルーティングなしでコンテンツ配信に直接統合 AWS リージョン
-
インフラストラクチャをプロビジョニングせずにグローバルにデプロイする
Lambda@Edge のユースケースの例
Lambda@Edge では、次の主要なユースケースが有効になります。
-
e コマースパーソナライゼーション – ユーザー ID と動作に基づいて動的な製品レコメンデーションを提供します。
-
メディアストリーミング – リージョンポリシーに基づいてレコメンデーションと親コントロールを調整します。
-
マーケティングキャンペーン – 各ロケーションのバナー、コンテンツ、オファーをカスタマイズします。
-
多言語ユーザーエクスペリエンス (UX) – Amazon Bedrock LLM で翻訳されたコンテンツをインラインで提供するためのユーザーの場所と言語を検出します。
推論ロジックをできるだけユーザーの近くに配置することで、Lambda@Edge はハイパーパーソナライズされた AI 駆動型のフロントエンド配信をサポートしており、大規模なコンシューマーアプリケーションに最適です。
Lambda@Edge は、非同期ルーティングおよびキャッシュ戦略を使用して速度とインテリジェンスを組み合わせることで、Amazon Bedrock または SageMaker Serverless Inference と連携してよく使用されます。
AWS IoT Greengrass: エッジでのローカル推論
AWS IoT Greengrass は、Lambda 関数、ML 推論、カスタムコードの実行に使用できる軽量ランタイムです。産業用コントローラー、カメラ、医療デバイス、スマートアプライアンスなどのエッジデバイスで動作します。
の主な機能 AWS IoT Greengrass は次のとおりです。
-
クラウドから切断された場合でも、Lambda 関数をローカルで実行します。
-
ML モデルを (SageMaker またはカスタムトレーニングを通じて) パッケージ化し、デバイス上で直接推論を実行します。
-
安全なover-the-airデプロイと設定管理を通じて更新を合理化します。
-
を AWS のサービス (Amazon S3、Amazon CloudWatch など) と統合して AWS IoT Core、一元的なモニタリングを行います。
のユースケースの例 AWS IoT Greengrass
AWS IoT Greengrass は、次のような複数の業界のエッジで推論アプリケーションを有効にします。
-
製造 — 雲のラウンドトリップなしでカメラ入力の欠陥を検出します。
-
ヘルスケア – 断続的な接続を持つクリニックで、患者を監視し、診断を実行します。
-
農業 – ドローン映像を使用して作物の条件を分類します。
-
エネルギー – 異常検出モデルを使用してパイプラインとタービンをモニタリングします。
AWS IoT Greengrass は、クラウド側の管理、オブザーバビリティ、同期を提供しながら、これらのワークロードをクラウドレイテンシーとは無関係に高速、回復力、独立させることができます。を使用すると AWS IoT Greengrass、デベロッパーはクラウドで使用されているのと同じ Lambda 関数をデプロイできるため、一元化された分散システム間で継続性が生まれます。
グローバル AI とローカル AI: 階層型実行戦略
企業は Lambda@Edge と を組み合わせて AWS IoT Greengrass 、階層型エッジ AI システムを作成できます。このハイブリッドアーキテクチャにより、レイテンシーの感度、モデルサイズ、接続性、コンプライアンス要件に応じて、適切なレイヤーでインテリジェントな意思決定を行うことができます。次の表に、このアーキテクチャの階層、 AWS テクノロジー、ロールを示します。
Tier |
AWS テクノロジー |
テクノロジーロール |
|---|---|---|
デバイスエッジ |
AWS IoT Greengrass |
|
ネットワークエッジ |
Lambda@Edge |
|
クラウドコア |
Amazon Bedrock、Amazon SageMaker サーバーレス推論、および AWS Step Functions |
|
エッジ AI の概要
Edge AI はサーバーレスアーキテクチャの自然な進化であり、接続の課題に対して低レイテンシーの推論、コンテキストに応じたパーソナライゼーション、回復性をもたらします。 AWS IoT Greengrass と Lambda@Edge を使用すると、組織は以下を実現できます。
-
開発者は、データセンターを超えてサーバーレスの原則を拡張できます。
-
企業は、ユーザーやデータソースの近くに AI パイプラインをデプロイして維持できます。
-
AI ロジックは、ロケーション対応、自律、高度にスケーラブルになります。
AI は、スマートシティからフィールドロボット、グローバルメディア配信まで、さまざまな分野に普及しています。この進化をサポートするために、これらはどこでも実行される分散型のインテリジェントなアプリケーションを構築する上で基本的な役割を果たし AWS のサービス ます。