Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Aufbau serverloser Architekturen für agentische KI auf AWS
Aaron Sempf, Amazon Web Services
Januar 2026 (Dokumentenverlauf)
Die Konvergenz von KI und serverlosem Computing verändert die Landschaft der modernen Unternehmensarchitektur. Als Reaktion darauf sind Unternehmen bestrebt, intelligente Funktionen in großem Maßstab bereitzustellen. Sie stehen unter zunehmendem Druck, den betrieblichen Aufwand zu reduzieren, Innovationen zu beschleunigen und Anwendungen bereitzustellen, die sich in Echtzeit an Benutzerverhalten und Systemereignisse anpassen können.
Die Aktivierung von serverloser KI AWS bedeutet einen grundlegenden Wandel hin zu intelligenten, adaptiven, Cloud-nativen Systemen. Mit der richtigen Strategie und den richtigen Tools können Unternehmen schnellere Innovationszyklen, niedrigere Kosten und größere Skalierbarkeit erreichen. Dieser Ansatz positioniert sie an der Spitze der nächsten Generation von Unternehmenscomputern. AWS ermöglicht diesen Wandel durch eine Kombination aus vollständig verwalteten KI-Services und ereignisgesteuerter, serverloser Infrastruktur.
In diesem Leitfaden werden die strategischen und technischen Grundlagen für den Aufbau KI-nativer, serverloser Architekturen beschrieben. AWS Diese Architekturen sind skalierbar, kostengünstig und in der Lage, Informationen in Echtzeit bereitzustellen, ohne die Komplexität der Infrastrukturverwaltung.
Zielgruppe
Dieser Leitfaden richtet sich an Architekten, Entwickler und Technologieführer, die das Potenzial KI-gestützter Softwareagenten in modernen Cloud-nativen Anwendungen nutzen möchten.
Ziele
Dieser Leitfaden hilft Ihnen bei folgenden Aufgaben:
-
Machen Sie sich mit den AWS nativen Diensten vertraut, die für die Entwicklung von KI-Lösungen für Agenturen verfügbar sind
-
Operationalisieren Sie agentische KI mit Zuverlässigkeit auf Cloud-Ebene
-
Passen Sie die KI-Ausführung an Geschäftsergebnissen und Kostenmodellen an
-
Etablieren Sie einen Rahmen für eine sichere, geregelte Einführung von KI
Über diese Inhaltsserie
Dieser Leitfaden ist Teil einer Reihe über agentic AI on. AWS Weitere Informationen und die anderen Leitfäden dieser Reihe finden Sie unter Agentic AI
Das Geschäftsszenario von serverloser KI
Serverloses Computing bietet eine ideale Grundlage für moderne KI-Workloads. KI-Anwendungen erfordern häufig intermittierende, rechenintensive Inferenzen, insbesondere in Anwendungsfällen wie Betrugserkennung, Empfehlungsmaschinen, Zusammenfassung von Dokumenten und Automatisierung des Kundendienstes. Herkömmliche Infrastrukturmodelle können teuer und betrieblich komplex sein, wenn es darum geht, unvorhersehbare oder stark beanspruchte Workloads zu bewältigen.
Im Gegensatz dazu bieten serverlose Architekturen erhebliche Vorteile. Sie skalieren automatisch, werden bei Bedarf ausgeführt, reduzieren den Betriebsaufwand und berechnen nur die tatsächlich genutzten Ressourcen. Aufgrund dieser Funktionen eignen sich serverlose Architekturen hervorragend für die Einbettung von KI in moderne Cloud-native Anwendungen. AWS bietet ein umfassendes Serviceportfolio, das serverlose Funktionen und KI-Funktionen kombiniert. Zu diesen Services gehören Amazon SageMaker Serverless Inference und Amazon Bedrock, das über eine vollständig verwaltete, API-basierte Schnittstelle Zugriff auf Basismodelle bietet. Amazon Bedrock AgentCore erweitert Amazon Bedrock über den Modellzugriff hinaus auf eine vollständige Runtime für die Erstellung, Bereitstellung und Verwaltung autonomer Agenten.
Darüber hinaus AWS Lambda AWS Step Functions ermöglicht es die Entwicklung agiler, kostenorientierter und produktionsreifer KI-Systeme. In Kombination mit Services wie Amazon Bedrock, SageMaker Serverless Inference und bieten sie integrierte Argumentation- AgentCore, Speicher- und Konnektorfunktionen, sodass Entwickler Agenten einrichten können, die systemübergreifend AWS-Services und mit externen Systemen planen, handeln und zusammenarbeiten können. Diese Tools bieten leistungsstarke Unterstützung für KI-Workloads, und das alles in einer serverlosen, ereignisgesteuerten Architektur.
KI-Workloads, insbesondere Inferenz, sind oft unvorhersehbar und überladen. In herkömmlichen Architekturen führt dies zu einer überdimensionierten Infrastruktur, erhöhten Kosten und einer komplexen Skalierung. Serverlose Modelle lösen diese Probleme, indem sie Folgendes bieten:
-
Elastische Skalierbarkeit — Ressourcen werden je nach Bedarf automatisch skaliert.
-
Kostenoptimierung — Keine Gebühren für ungenutzte Rechenleistung. Zahlen Sie nur für die Ausführungszeit.
-
Geringerer Betriebsaufwand — Weniger Abläufe, weniger Verwaltungsaufwand und weniger Abhängigkeiten von anderen Technologien, Prozessen oder Ressourcen.
-
Schnellere Markteinführung — Entwickler können sich auf die Geschäftslogik und die Modellleistung konzentrieren, anstatt Server zu verwalten.
-
Hohe Verfügbarkeit und integrierte Ausfallsicherheit — AWS serverlose Angebote bieten diese Funktionen standardmäßig.
Aufgrund dieser Funktionen eignet sich Serverless hervorragend für den Einsatz von KI-Modellen für eine Vielzahl von Anwendungsfällen, von der Betrugserkennung und personalisierten Empfehlungen bis hin zu Dokumentenanalysen und Konversations-KI.
AWS-Services Unterstützung für serverlose KI
AWS bietet eine robuste Suite von Managed Services, die Teams dabei unterstützen, Informationen in Anwendungen zu integrieren, Workflows zu orchestrieren und auf Ereignisse zu reagieren, ohne die Infrastruktur verwalten zu müssen:
-
Mit AWS Lambdakönnen Sie ereignisgesteuerte Rechen-Workloads in großem Umfang ausführen, ohne Server bereitstellen zu müssen. Es ist ideal für die Vor- und Nachverarbeitung von KI und für einfache Inferenzlogik.
-
Verwenden Sie Amazon SageMaker Serverless Inference, um Modelle für maschinelles Lernen (ML) für Echtzeitprognosen mit automatischer Skalierung und ohne Leerlaufkosten bereitzustellen.
-
Amazon Bedrock bietet Zugriff auf Basismodelle von führenden KI-Unternehmen wie AI21 Labs
, Anthropic , Cohere , DeepSeek , Luma AI , MetaMistral AI , poolside (demnächst), Stability AI ,, TwelveLabsWriter , und Amazon über eine einzige API für generative KI-Workloads. -
Mit Amazon Bedrock Agents können Sie KI-gesteuerte Workflows erstellen, bei denen Modelle Funktionsaufrufen orchestrieren und Aufgaben mithilfe natürlicher Sprache analysieren.
-
Amazon Bedrock AgentCore bietet die grundlegenden Laufzeit-, Speicher- und Konnektorfunktionen, die den Aufbau und die Skalierung von Multi-Agenten-Systemen vereinfachen. Die AgentCore Integration in ein serverloses Design ermöglicht es Entwicklern, adaptive, kontextsensitive Agenten nativ zu erstellen, AWS ohne sich um eine benutzerdefinierte Orchestrierung oder Zustandsverwaltung kümmern zu müssen.
-
EventBridgeMit Amazon können Sie lose gekoppelte, ereignisgesteuerte Architekturen erstellen, die KI-Workflows automatisch auslösen.
-
Wird verwendet AWS Step Functions, um mehrstufige KI-Pipelines zu orchestrieren und mithilfe visueller Workflows Verbindungen herzustellen. AWS-Services
-
Mit AWS IoT Greengrassund Lambda @Edge können Sie Modelle und Logik am Edge bereitstellen, um Inferenzen mit niedriger Latenz in IoT- und globalen Anwendungen zu ermöglichen.