Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Weiterentwicklung der Softwarebereitstellung für agentische KI
Die moderne Softwarebereitstellung basiert auf einer einfachen Annahme: Sie haben die Kontrolle über die Systeme, die Sie ausliefern. Sie definieren Anforderungen, schreiben Logik, testen anhand erwarteter Ergebnisse und stellen vorhersehbare Dienste bereit. Selbst agile DevOps Methoden und Ansätze basieren immer noch auf dem Prinzip, dass jeder Sprint etwas Deterministisches, Überprüfbares liefert und größtenteils unter menschlicher Aufsicht liegt.
Agentische KI stellt dieses Fundament auf den Kopf. Agentische Systeme interpretieren, begründen und passen sich an, anstatt Skripten zu folgen. Ihr Verhalten hängt vom Code ab, den Sie schreiben, vom Kontext, in dem sie arbeiten, von den Eingaben, die sie erhalten, von den Tools, auf die sie zugreifen können, und von den Zielen, die ihnen zugewiesen wurden. Kurz gesagt, sie befolgen keine Befehle, sie verfolgen Ergebnisse.
Dadurch geht es bei der Umsetzung weniger um Kontrolle als vielmehr um Abstimmung. Anstatt Anweisungen zu geben, müssen Sie festlegen, wie es sich verhält. Das bedeutet, dass der herkömmliche Software Development Lifecycle (SDLC) nicht mehr passt, weil er für logikbasierte, von Menschen gesteuerte Systeme konzipiert wurde.
In diesem Abschnitt werden folgende Themen behandelt:
Zielzonen für agentische KI
Statt starrer Phasen wie Definition, Aufbau, Test und Freigabe benötigen wir ein Modell, das Autonomie, Unsicherheit und Entfaltung berücksichtigt. Stattdessen verwenden Sie Zonen of Intent. Eine Absichtszone definiert einen begrenzten Raum, in dem ein Agent innerhalb von Einschränkungen autonom agieren kann. Das Ziel besteht darin, vom Mikromanagement jeder Aufgabe zur Gestaltung von Umgebungen überzugehen, in denen Agenten sicher handeln, lernen und zusammenarbeiten können. Sie geben das Was (das gewünschte Ergebnis), das Warum (die Absicht) und die Leitplanken (die Einschränkungen, Richtlinien und Vertrauensgrenzen) an. Anhand dieser Grenzen und dieser Informationen findet der Agent heraus, wie.
Stellen Sie sich die Umwelt nicht als Fließband vor, sondern als Luftraum. Sie kontrollieren, wer Zutritt hat, was sie tun können und wohin sie gehen können. Sobald sie jedoch drinnen sind, können sie sich nach Bedarf frei bewegen. So skalieren Agentensysteme ohne Chaos.
Das ist nicht nur ein philosophischer, sondern auch ein praktischer Wandel. Das nichtdeterministische Ergebnis agentenbasierter Systeme kann nicht vollständig durch Komponententests getestet werden. Es kann nicht wie statische Binärdateien versioniert werden. Agenten ändern sich im Laufe der Zeit, passen sich neuen Daten an und interagieren auf unvorhersehbare Weise mit anderen Systemen. Der Versuch, sie mithilfe herkömmlicher Modelle bereitzustellen, führt zu fragilen, nicht skalierbaren Architekturen. Im schlimmsten Fall führt dies zu falschem Vertrauen in Systeme, die Sie nicht wirklich steuern können.
Wenn Teams auf absichtsbasierte Bereitstellung setzen, haben sie zwei Vorteile:
-
Kontrollieren Sie, wo es am wichtigsten ist — Sie definieren Grenzen statt Outputs.
-
Skalierbarkeit durch Delegierung — Sie ermöglichen es Agenten, mit Komplexität umzugehen, die Menschen nicht fest programmieren können.
Auf diese Weise gelangen Sie von isolierten Prototypen zu echten Agentensystemen in Produktionsqualität, die wiederholt und zuverlässig Mehrwert bieten können.
Weiterentwicklung des Bereitstellungslebenszyklus für agentische KI
Um intelligentes, adaptives Verhalten zu unterstützen, muss das SDLC von deterministischer Steuerung auf adaptive Absicht umgestellt werden. Im Folgenden sind die Änderungen aufgeführt, die erforderlich sind, um das traditionelle SDLC für agentische KI weiterzuentwickeln:
-
Aus Planung wird Intent Design. Teams definieren Ziele, Einschränkungen und erwartetes Verhalten der Agenten. Richtlinien und Erfolgskriterien orientieren sich an der Abstimmung, nicht an der Logik.
-
Architektur wird zu Gerüsten. Teams konzentrieren sich darauf, Rollen, Schnittstellen, Leitplanken, Ausweichmechanismen und Beobachtbarkeit zu definieren, anstatt für jeden Entscheidungspfad ein Skript zu erstellen.
-
Aus Testen wird Verhaltensevaluierung. Anstatt bestimmte Ergebnisse zu bestätigen, überprüfen die Teams, ob die Agenten die akzeptablen Grenzen einhalten und ihre Absichten unter verschiedenen Inputs erfüllen.
-
Aus der Bereitstellung wird eine kontinuierliche Orchestrierung. Agentensysteme werden mit Laufzeitsteuerungen, Live-Überwachung und Feedback-Kanälen bereitgestellt, die eine Optimierung in Echtzeit ermöglichen.
-
Aus Iteration wird Feedback und Anpassung. Statt herkömmlicher Patch-Zyklen zur Codeänderung beobachten Teams, wie sich Agenten weiterentwickeln, wo sie erfolgreich sind oder wann sie abdriften. Bei Bedarf greifen die Teams ein, indem sie die Einschränkungen aktualisieren, sie umschulen und Kontrollmechanismen hinzufügen oder ändern.
Bestehende Praktiken, die sich auf Iteration, Experimente und schnelles Feedback konzentrieren, haben die Hälfte erreicht. Die Umstellung auf agentische Systeme ist keine Ablehnung agiler Prinzipien. Tatsächlich ist es eine natürliche Weiterentwicklung von ihnen. Agiles Denken betont Anpassungsfähigkeit, Feedback und funktionierende Lösungen gegenüber starren Plänen. Das passt perfekt zur Natur agentischer Systeme, die in Echtzeit lernen, sich anpassen und auf den Kontext reagieren. Wenn Sie bereits kurze Zyklen haben, Annahmen schnell validieren und Unsicherheiten durch kontinuierliche Bereitstellung bewältigen, sind Sie gut gerüstet, um diesen Übergang zu leiten.
Es gibt jedoch wichtige Unterschiede. Der traditionelle agile Ansatz geht davon aus, dass das, was geliefert wird, deterministisch ist. Es wird davon ausgegangen, dass sich das Ding nach der Erstellung konsistent und vorhersehbar verhält und wiederholbare Ergebnisse für dieselben Eingaben liefert. Diese Wiederholbarkeit hilft Ihnen beim Debuggen, Testen und Iterieren mit Zuversicht. Agentensysteme machen dieses Modell kaputt. Sie sind probabilistisch, kontextsensitiv und können sich unabhängig entwickeln. Das bedeutet, dass einige Agile-Methoden weniger nützlich sind, wie z. B. die Geschwindigkeitsverfolgung auf der Grundlage der Fertigstellung von Storys, strenge Akzeptanzkriterien oder deterministische Sprint-Planung.
Die folgenden Aspekte des traditionellen SDLC gelten für agentische KI:
-
Iterative Entwicklung und Bereitstellung
-
Kundenfeedback als primäres Signal
-
Funktionsübergreifende Zusammenarbeit
-
Kontinuierliche Integration und Bereitstellung
Die folgenden Aspekte des traditionellen SDLC müssen sich für agentische KI weiterentwickeln:
-
Definieren Sie „Erledigt“ im Einklang mit der Absicht neu. Konzentrieren Sie sich darauf, ob das Verhalten des Agenten das angestrebte Ziel innerhalb der definierten Einschränkungen erfüllt.
-
Wechseln Sie von Akzeptanzkriterien zu Verhaltensleitplanken.
-
Erweitern Sie die Definition von erledigt um die Runtime Readiness. Dazu gehören Beobachtbarkeit, Erklärbarkeit und Feedback-Mechanismen, die kontinuierliches Lernen und Vertrauen fördern.
-
Priorisieren Sie Feedback-Schleifen und Verhaltensverfolgung in Echtzeit gegenüber der Vorausplanung
Die gute Nachricht ist, dass Sie das SDLC-Playbook nicht wegwerfen müssen. Sie müssen es nur von der Verwaltung des Codes zur Verhaltensgestaltung weiterentwickeln. In Agentensystemen hängt Erfolg nicht nur davon ab, ob Software ausgeführt wird, sondern auch davon, wie sie sich verhält.
Teams auf agentische KI vorbereiten
Die Softwareentwicklung wird nicht verschwinden. Es entwickelt sich. Die Arbeit verlagert sich vom Schreiben von Funktionen hin zur Gestaltung von Rahmenbedingungen und Kontrollmechanismen für intelligentes Verhalten. In der Welt der agentischen KI ist das Bauen nicht mehr der schwierige Teil — der Umgang mit neuen Entwicklungen schon. Für die meisten Entwicklungsteams fühlt sich die Entwicklung eher wie eine Änderung der Denkweise als wie ein technischer Sprung an. Anstatt zu fragen: „Was wird das System tun?“ Die Frage lautet: „Wozu haben wir es ermächtigt, und wie werden wir wissen, ob es auf Kurs bleibt?“
Für Entwicklungsteams erfordert die Entwicklung hin zu Agenten-KI die folgenden Änderungen:
-
Ein kultureller Wandel — Teams müssen sich mit der Unsicherheit und Autonomie in Systemen, die sie nicht vollständig kontrollieren, vertraut machen.
-
Neue Rollen — Intent-Designer, Verhaltenstester und Observability-Techniker werden zu einem zentralen Bestandteil der Umsetzung.
-
Gemeinsame Sprache — Teams benötigen ein klares, gemeinsames Verständnis von Zielen, Leitplanken und Erfolgssignalen, genau wie früher Spezifikationen und Testfälle.
Mit zunehmender Reife der generativen KI werden wir mehr Agentensysteme sehen, die mit Kunden, Produkten und Abläufen interagieren. Die Organisationen, die erfolgreich sein werden, werden nicht die mit den besten Modellen sein. Es werden diejenigen sein, die Agenten sicher, kontrolliert und schnell in reale Arbeitsabläufe integrieren können. Das bedeutet, dass sich die Bereitstellungsmodelle und die Entwicklungsteams gemeinsam weiterentwickeln müssen. Zonen of Intent geben Ihnen die nötige Abstraktion dafür. Sie helfen Ihnen dabei, Autonomie zu verwirklichen, ohne die Rechenschaftspflicht aufzugeben. Sie bieten auch ein gemeinsames Framework für alle Teams, um Systeme zu verwalten, die nicht fest codiert werden können.
Weitere Informationen zur Vorbereitung von Teams auf Agenten-KI finden Sie im Abschnitt Vorbereitung des Unternehmens auf agentische KI in großem Maßstab dieses Leitfadens.