Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Modellieren Sie Context-Protokoll-Strategien auf AWS
Amazon Web Services (Mitwirkende)
März 2026 (Verlauf der Dokumente)
Dieser Leitfaden kann Ihnen bei der Entwicklung und Implementierung von MCP-Strategien (Model Context Protocol) in Ihrem gesamten Unternehmen helfen, um Ihre KI-Aktivitäten zu unterstützen. Da Agenten und Sprachmodelle für den Geschäftsbetrieb immer zentraler werden, ist die Etablierung einer MCP-Strategie für erfolgreiche Agentenlösungen von entscheidender Bedeutung.
In diesem Leitfaden werden drei grundlegende Säulen für den Aufbau einer MCP-Strategie untersucht: MCP-Tooldesign, MCP-Serverhosting und MCP-Governance. Durch die Berücksichtigung dieser miteinander verbundenen Komponenten können Unternehmen skalierbare, sichere und effektive Systeme für die Verwaltung des Modellkontextes in ihren KI-Implementierungen einrichten. Diese Leitlinien bieten umsetzbare Erkenntnisse und strategische Leitlinien für Unternehmen in jeder Phase ihrer KI-Entwicklung, von ersten Experimenten bis hin zu umfassenden Produktionsbereitstellungen. Dies hilft ihnen, maßgeschneiderte MCP-Lösungen zu entwickeln, die auf ihre spezifischen Bedürfnisse und Ziele zugeschnitten sind.
Diese Best Practices basieren auf realen Implementierungen von Unternehmen, die MCP auf Unternehmensebene einsetzen, einer Analyse der aktuellen MCP-Spezifikationsstandards und Erfahrungen aus kundenspezifischen Large Language Model (LLM) -Anwendungen in der Produktion.
KI-Systeme werden LLMs in einer Vielzahl von Anwendungsfällen immer ausgefeilter und robuster. LLMs zeichnen sich dadurch aus, dass sie natürliche Sprache verstehen, menschenähnliche Reaktionen erzeugen und komplexe Informationen nachvollziehen können. Um jedoch LLMs von Konversationsschnittstellen zu Systemen überzugehen, die komplexe Aufgaben autonom ausführen können, setzen Unternehmen auf agentische KI-Architekturen, KI-Systeme, die ihre Umgebung wahrnehmen, über Ziele nachdenken, autonome Entscheidungen treffen, mehrere Schritte koordinieren und Maßnahmen ergreifen können, um Ziele im Namen der Benutzer zu erreichen. Dieser agentische Ansatz hilft Unternehmen dabei, KI-Systeme zu entwickeln, die Benutzerabsichten mithilfe natürlicher Sprache verstehen, autonom über mehrere Datenquellen und Tools hinweg koordinieren und personalisierte Erlebnisse in einem Umfang bieten können, der mit herkömmlichen Anfrage-Antwort-Mustern nicht möglich war. Um diese Agenten leistungsfähiger zu machen, müssen Unternehmen Zugriff auf ihre vorhandenen Tools und Daten gewähren, um das kontextuelle Verständnis der Agenten zu erweitern und es ihnen zu ermöglichen, im Namen eines Benutzers zu handeln.
MCP
Dieser Leitfaden fasst die Erfahrungen aus MCP-Implementierungen in Unternehmen zusammen und bietet umsetzbare Empfehlungen, die auf das Well-Architected Framework abgestimmt sind.AWS
-
Sicherheit — Token-Isolierung, eingeschränkte Zugangsdaten, separate Autorisierung read/write
-
Operational Excellence — Genauigkeitsmetriken für die Werkzeugauswahl, wertvolle Datensätze für Regressionstests
-
Zuverlässigkeit — Geschwindigkeitsbegrenzung pro Benutzer und pro Tool, Lastabbau
-
Leistungseffizienz — Workflow-spezifische Tools, Toolfilterung, semantische Suche zur Reduzierung der Nutzung von Kontextfenstern
-
Kostenoptimierung — Teamübergreifend wiederverwendbare MCP-Server, geringere Token-Kosten pro Anfrage durch Toolfilterung
Zielgruppe
Dieser Leitfaden richtet sich an Architekten, Entwickler und Technologieführer, die agentische KI-Lösungen in ihren Organisationen implementieren. Um die Konzepte in diesem Leitfaden zu verstehen, sollten Sie die LLMs Funktionsweise verstehen und über grundlegende Kenntnisse in Bezug auf MCP, Tools und Prompt Engineering verfügen.
Ziele
Um agentische KI-Systeme zu entwickeln, die einsatzbereit sind, müssen Sie gemeinsam Lösungen für Governance, Optimierung und Sicherheit finden, um die Richtlinien Ihres Unternehmens zu unterstützen. Im Folgenden wird erklärt, wie dieser Leitfaden diese Ziele erreicht:
-
Steuerung — Ohne zentralisierte Steuerung können Sie keine Prüfungsfragen zu Ihren KI-Workloads beantworten. Dazu gehört auch, welche Agenten wann mit welchen Berechtigungen auf welche Daten zugegriffen haben. Sie können auch keine Versionierung erzwingen. Im Abschnitt zur MCP-Hosting-Strategie dieses Handbuchs wird erklärt, wie Benutzer aufgrund fehlender systematischer Maßnahmen veraltete lokale MCP-Server mit bekannten Sicherheitslücken betreiben könnten.
Für regulierte Branchen ist Unternehmensführung von entscheidender Bedeutung. Prüfer möchten die Durchsetzung von Richtlinien und die Nachverfolgung der Toolnutzung für alle Agenten von einem einzigen Fenster aus verfolgen können. MCP Governance bietet das.
Wenn Sie die Empfehlungen in diesem Leitfaden befolgen, können Sie die Aufgabengenauigkeit bei von Experten begutachteten Benchmarks um 28-32% verbessern. Weitere Informationen finden Sie unter MARCO: Multi-Agent-Echtzeit-Chat-Orchestrierung
(ACL Anthology-Website). Bei Governance geht es nicht nur um Compliance, sondern auch um die Verbesserung der Leistung Ihres KI-Systems für Agenturen. -
Optimierung — Ihre Teams können dieselben Integrationen mehr als einmal erstellen. Wenn beispielsweise fünf verschiedene Teams ihr eigenes Datenbankabfrageskript für ihre KI-Anwendung schreiben, um mit ihren Datenbanken zu kommunizieren, sind das Fünffache der Entwicklungskosten und fünf Sätze von Buglisten, die verwaltet werden müssen. Mit MCP können Sie es einmal erstellen und dann mit der gesamten Engineering-Community teilen. Die Einsparungen summieren sich, wenn die Anzahl Ihrer Agenten wächst.
Es gibt auch ein Problem mit den Kosten pro Anfrage, das die meisten Teams zunächst nicht bemerken. Jede Tooldefinition verwendet Kontextfenster-Token. Bei 20 Tools geben Sie zusätzlich zu den Benutzeranfragen 5.000 bis 10.000 Token pro Aufruf allein für Beschreibungen aus. Dies erhöht die Latenz und die Kosten für LLM-Inferenzen und verschlechtert die Genauigkeit, da das Modell Schwierigkeiten hat, das richtige Tool aus der Liste der verfügbaren Tools auszuwählen.
Agenten, die strukturierte Tool-Wrapper verwenden, sind bei Datenbankaufgaben etwa dreimal genauer als Agenten, die APIs direkt darauf zugreifen (weitere Informationen finden Sie unter Middleware für LLMs: Tools sind entscheidend für Sprachagenten
in komplexen Umgebungen). Es ist wichtig, wie Sie Tools für ein KI-Modell entwerfen und präsentieren. In diesem Leitfaden wird empfohlen, den Tools klare Schemata zu geben, sie auf tatsächliche Workflows statt auf unformatierte Endpunkte zu beschränken und die Informationen im Kontextfenster einzuschränken. Der Abschnitt zur Strategie zur Entwicklung von MCP-Tools in diesem Leitfaden befasst sich eingehend mit diesen Aspekten. -
Sicherheit und Compliance — Stellen Sie sich ein agentisches KI-System vor, das einen Säuberungsschritt halluziniert und versucht, eine Produktionsdatenbank zu löschen. Wenn der Agent die vollständigen Administratoranmeldeinformationen des Benutzers geerbt hat, wird die Löschung möglicherweise durchgeführt. Mit Token-Isolierung und abgespeckten Anmeldeinformationen, die nur Lese- und Erstellungszugriff gewähren, schlägt der Vorgang problemlos fehl.
Geregelte Arbeitsabläufe verschärfen dies noch weiter. Der Leitfaden enthält Beispiele (Pipelines im Gesundheitswesen, für die eine HIPAA-Validierung und Anonymisierung personenbezogener Daten erforderlich sind, bevor Patientendaten verarbeitet werden). Die Einbettung einer solchen Logik in MCP-Tools bedeutet, dass die Einhaltung der Vorschriften jedes Mal deterministisch erfolgt.