Edge-KI und globale Inferenzverteilung - AWS Präskriptive Leitlinien

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Edge-KI und globale Inferenzverteilung

Cloud-basierte Inferenz eignet sich zwar für die meisten Anwendungsfälle in Unternehmen, bestimmte Szenarien erfordern jedoch Echtzeitantworten, Offline-Funktionen oder die Nähe zur Datenquelle oder zum Benutzer. In diesen Fällen bietet Edge-KI, bei der KI-Logik auf oder in der Nähe des Geräts ausgeführt wird, eine leistungsstarke Ergänzung zur serverlosen Cloud-Architektur.

AWS unterstützt Edge-KI durch zwei wichtige serverlose Technologien:

  • Lambda @Edge führt mithilfe von Amazon Inferenzlogik global an AWS Edge-Standorten aus. CloudFront

    Beispiel — Eine globale E-Commerce-Website verwendet eine Lambda @Edge -Funktion, um Homepage-Inhalte basierend auf dem Standort und der Sprache des Benutzers zu personalisieren. Dadurch werden maßgeschneiderte Erlebnisse sofort vom nächstgelegenen CloudFront Edge-Standort aus bereitgestellt.

  • AWS IoT Greengrassermöglicht die lokale KI-Ausführung auf verbundenen Geräten.

    Beispiel: Eine intelligente Appliance verwendet ein Modell, das AWS IoT Greengrass für Echtzeitdiagnosen eingesetzt wurde, und synchronisiert Erkenntnisse bei Bedarf oder wenn die Konnektivität dies zulässt, mit der Cloud.

Zusammen erweitern diese Technologien die Reichweite der serverlosen KI auf Umgebungen mit niedriger Latenz, die auf Bandbreite angewiesen sind oder offline sind, sowie auf global verteilte Benutzerbasen.

Lambda @Edge: Globale Inferenz auf der CDN-Ebene

Mithilfe von Lambda @Edge können Entwickler AWS Lambda Funktionen an CloudFront Edge-Standorten ausführen. Dieser Ansatz reduziert die Latenz für Endbenutzer und ermöglicht KI-Erlebnisse, die kontextsensitiv und extrem schnell sind.

Zu den wichtigsten Funktionen von Lambda @Edge gehören:

  • Führt Logik auf der CDN-Ebene als Reaktion auf CloudFront Ereignisse wie Viewer-Anfrage und Origin-Antwort aus

  • Passt Inhalte wie Webseitenpersonalisierung und Empfehlungen an Benutzer, Standort und Gerät an

  • Integriert KI-Inferenz direkt in die Bereitstellung von Inhalten, ohne dass sie an eine zentrale Stelle weitergeleitet werden müssen AWS-Region

  • Wird weltweit ohne Bereitstellung einer Infrastruktur bereitgestellt

Anwendungsbeispiele für Lambda @Edge

Lambda @Edge ermöglicht die folgenden wichtigen Anwendungsfälle:

  • E-Commerce-Personalisierung — Stellen Sie dynamische Produktempfehlungen bereit, die auf der Benutzer-ID und dem Nutzerverhalten basieren.

  • Medienstreaming — Passen Sie Empfehlungen und Kindersicherungen an die regionalen Richtlinien an.

  • Marketingkampagnen — Passen Sie Banner, Inhalte und Angebote für jeden Standort individuell an.

  • Mehrsprachiges Benutzererlebnis (UX) — Ermitteln Sie den Standort und die Sprache des Benutzers, um von Amazon Bedrock LLM übersetzte Inhalte inline bereitzustellen.

Indem die Inferenzlogik so nah wie möglich am Benutzer platziert wird, unterstützt Lambda @Edge eine hyperpersonalisierte, KI-gesteuerte Frontend-Bereitstellung, die sich ideal für umfangreiche Verbraucheranwendungen eignet.

Lambda @Edge wird häufig zusammen mit Amazon Bedrock oder SageMaker Serverless Inference verwendet, indem asynchrone Routing- und Caching-Strategien verwendet werden, um Geschwindigkeit mit Intelligenz zu kombinieren.

AWS IoT Greengrass: Lokale Inferenz am Rand

AWS IoT Greengrass ist eine schlanke Runtime, mit der Kunden Lambda-Funktionen, ML-Inferenz und benutzerdefinierten Code ausführen können. Sie funktioniert auf Edge-Geräten wie industriellen Steuerungen, Kameras, medizinischen Geräten oder intelligenten Geräten.

Zu den wichtigsten Funktionen von AWS IoT Greengrass gehören:

  • Führt Lambda-Funktionen lokal aus, auch wenn keine Verbindung zur Cloud besteht.

  • Paketiert ML-Modelle (durch SageMaker oder durch benutzerdefiniertes Training), um Inferenzen direkt auf dem Gerät durchzuführen.

  • Optimiert Updates durch sicheres over-the-air Bereitstellungs- und Konfigurationsmanagement.

  • Lässt sich in AWS-Services (z. B. Amazon S3 und Amazon CloudWatch) integrieren AWS IoT Core, um eine zentrale Überwachung zu ermöglichen.

Anwendungsbeispiele von AWS IoT Greengrass

AWS IoT Greengrass ermöglicht Inferenzanwendungen am Netzwerkrand in verschiedenen Branchen, z. B. in den folgenden:

  • Fertigung — Erkennen Sie Fehler anhand von Kameraeingaben ohne Cloud-Roundtrips.

  • Gesundheitswesen — Überwachen Sie Patienten und führen Sie Diagnosen in Kliniken mit intermittierender Konnektivität durch.

  • Landwirtschaft — Klassifizieren Sie die Erntebedingungen anhand von Drohnenaufnahmen.

  • Energie — Überwachen Sie Pipelines und Turbinen mithilfe von Modellen zur Erkennung von Anomalien.

AWS IoT Greengrass ermöglicht es, dass diese Workloads schnell, robust und unabhängig von der Cloud-Latenz sind und gleichzeitig cloudseitiges Management, Beobachtbarkeit und Synchronisation bieten. Durch die Verwendung können Entwickler dieselben Lambda-Funktionen bereitstellen AWS IoT Greengrass, die in der Cloud verwendet werden, wodurch Kontinuität zwischen zentralisierten und verteilten Systemen geschaffen wird.

Globale und lokale KI: Eine abgestufte Ausführungsstrategie

Unternehmen können Lambda @Edge kombinieren und AWS IoT Greengrass so ein Tiered-Edge-KI-System erstellen. Diese Hybridarchitektur ermöglicht es, je nach Latenzempfindlichkeit, Modellgröße, Konnektivität und Compliance-Anforderungen intelligente Entscheidungen auf der richtigen Ebene zu treffen. In der folgenden Tabelle werden die Stufen, AWS Technologien und Rollen in dieser Architektur beschrieben.

Stufe

AWS Technologie

Rolle im Bereich Technologie

Geräte-Edge

AWS IoT Greengrass

  • Auf dem Gerät

  • Offline-fähig

  • KI-Logik

  • Verarbeitung von Sensordaten

Netzwerk-Edge

Lambda@Edge

  • Personalisierung von Inhalten

  • Leichte KI in der Nähe des Benutzers

  • Extrem niedrige Latenz

Cloud-Kern

Amazon Bedrock, Amazon SageMaker Serverless Inference und AWS Step Functions

  • Starke KI-Inferenz

  • Orchestrierung

  • Argumentation des Agenten

  • RAG-Rohrleitungen

Zusammenfassung von Edge AI

Edge-KI ist eine natürliche Weiterentwicklung der serverlosen Architektur, die Inferenz mit geringer Latenz, kontextuelle Personalisierung und Widerstandsfähigkeit gegenüber Konnektivitätsproblemen bietet. Mit AWS IoT Greengrass und Lambda @Edge können Unternehmen Folgendes erreichen:

  • Entwickler können die Prinzipien des serverlosen Systems über das Rechenzentrum hinaus ausweiten.

  • Unternehmen können KI-Pipelines näher an Benutzern und Datenquellen einsetzen und warten.

  • Die KI-Logik wird standortbezogen, autonom und hochgradig skalierbar.

KI ist in allen Sektoren allgegenwärtig, von intelligenten Städten über Feldrobotik bis hin zur globalen Medienbereitstellung. Um diese Entwicklung zu unterstützen, AWS-Services können sie eine grundlegende Rolle bei der Entwicklung verteilter, intelligenter Anwendungen spielen, die überall ausgeführt werden können.