Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Diese Lösung erleichtert die Entwicklung, das schnelle Experimentieren und den Einsatz von Anwendungen der generativen künstlichen Intelligenz (KI)
Generative AI Application Builder auf AWS erleichtert die Entwicklung, das schnelle Experimentieren und die Bereitstellung von Anwendungen mit generativer künstlicher Intelligenz (KI), ohne dass umfangreiche KI-Erfahrung erforderlich ist. Diese AWS-Lösung beschleunigt die Entwicklung und optimiert das Experimentieren, indem sie Ihnen hilft:
-
Investieren Sie Ihre geschäftsspezifischen Daten und Dokumente
-
Bewerten und vergleichen Sie die Leistung großer Sprachmodelle () LLMs
-
Führen Sie mehrstufige Aufgaben und Workflows mit KI-Agenten aus
-
Erstellen Sie schnell erweiterbare Anwendungen und stellen Sie diese Anwendungen mit einer Architektur der Enterprise-Klasse bereit
Generative AI Application Builder auf AWS umfasst Integrationen mit:
-
LLMs erhältlich bei Amazon Bedrock
-
LLMs die Sie auf Amazon SageMaker AI
bereitgestellt haben -
Amazon Bedrock Wissensdatenbanken
für Retrieval-Augmented Generation (RAG) -
Amazon Bedrock Guardrails
zur Implementierung von Schutzmaßnahmen und zur Reduzierung von Halluzinationen -
Amazon Bedrock Agents
zur Erstellung agentischer Workflows, mit denen Aufgaben orchestriert und abgeschlossen werden können -
Amazon Bedrock AgentCore
zur Entwicklung, Bereitstellung und Verwaltung produktionsreifer KI-Agenten mit erweiterter Runtime-Support -
Model Context Protocol (MCP)
-Server für die Integration von Unternehmensdaten und Tools
Darüber hinaus ermöglicht diese Lösung mithilfe von LangChain Konnektoren Verbindungen zu einem Modell Ihrer Wahl. Diese Konnektoren sind in einer AWS Lambda Lambda-Funktion
Dieser Implementierungsleitfaden bietet einen Überblick über die Generative AI Application Builder on AWS-Lösung, ihre Referenzarchitektur und Komponenten, Überlegungen zur Planung der Bereitstellung und Konfigurationsschritte für die Bereitstellung der Lösung in der Amazon Web Services (AWS) Cloud.
Dieser Leitfaden richtet sich an Lösungsarchitekten, Geschäftsentscheider, DevOps Ingenieure, Datenwissenschaftler und Cloud-Experten, die Generative AI Application Builder auf AWS in ihrer Umgebung implementieren möchten.
Verwenden Sie diese Navigationstabelle, um schnell Antworten auf diese Fragen zu finden:
| Wenn du willst. | Lesen. |
|---|---|
|
Informieren Sie sich über die Kosten für den Betrieb dieser Lösung. Die geschätzten Kosten für den Betrieb dieser Lösung hängen von den bereitgestellten Komponenten und der Anzahl der Abfragen ab. Die Kosten für die Ausführung des Deployment-Dashboards mit Standardparametern und 100 aktiven Benutzern in der Region USA Ost (Nord-Virginia) für einen Monat belaufen sich auf etwa 20,12 USD pro Monat. Die Kosten für einen Text-Anwendungsfall, der ohne RAG für einen Geschäftsbenutzer bereitgestellt wird, der 100 Abfragen pro Tag mit dem LLM durchführt, belaufen sich auf etwa 12,39 USD pro Monat. Die Kosten für einen RAG-fähigen Anwendungsfall mit einem Amazon Kendra Kendra-Index, der 8.000 Interaktionen pro Tag unterstützt, belaufen sich auf etwa 204,26 USD pro Monat, zuzüglich der Kosten für die Wissensdatenbank. |
|
|
Machen Sie sich mit den Sicherheitsüberlegungen für diese Lösung vertraut. |
|
|
Erfahren Sie, wie Sie Kontingente für diese Lösung einplanen. |
|
|
Erfahren Sie, welche AWS-Regionen diese Lösung unterstützen. |
|
|
Sehen Sie sich die in dieser Lösung enthaltene CloudFormation AWS-Vorlage an oder laden Sie sie herunter, um die Infrastrukturressourcen (den „Stack“) für diese Lösung automatisch bereitzustellen. |
|
|
Greifen Sie auf den Quellcode zu und verwenden Sie optional das AWS Cloud Development Kit (AWS CDK), um die Lösung bereitzustellen. |