Wie können wir den „Wilden Westen der KI-Agenten“ zähmen?
29 Oktober 2025 14:58
Partner
KI-Agenten verändern die täglichen Arbeitsabläufe rasant. Die virtuellen Kollegen übernehmen mühsame Aufgaben – von der Dateneingabe über die Terminplanung bis hin zu Kundenanfragen. Doch hinter den Effizienzgewinnen verbirgt sich ein potenzielles Problem. Meredith Whittaker, Präsidentin der Kommunikations-App Signal, sagt: „Es gibt ein tiefgreifendes Problem mit der Sicherheit und Privatsphäre, das diesen Hype um Agenten überschattet.“
Die einfache Verfügbarkeit von Tools zur Erstellung von Agenten ermöglicht eine unkontrollierte „Schatten-KI“ – eine unkontrollierte Verbreitung von halbautonomen Agenten, die ohne einheitliche Standards über verschiedene Abteilungen verstreut sind. Dies führt zu einer unklaren Verantwortungszuweisung: Wenn ein Agent einen Fehler macht, der zu Reputations- oder Regulierungsschäden führt, wer trägt dann die Verantwortung – das einsetzende Unternehmen, der Anbieter des Agenten oder der Entwickler des zugrunde liegenden Modells?
Solche Risiken summieren sich schnell. Am heimtückischsten ist vielleicht, dass Agenten die KI-Bemühungen von Unternehmen untergraben können, indem sie ohne strenge Aufsicht schnell riesige Mengen neuer Daten generieren und durch Silos, Duplikate und Ungenauigkeiten „Datenverschmutzung“ verursachen.
Dies wirft eine grundlegende Frage für die verantwortlichen Manager auf: Wie können sie Compliance-Richtlinien, Überwachungssysteme und ethische Leitlinien entwickeln, die sicherstellen, dass KI-Agenten einen Mehrwert liefern, ohne die Sicherheit, Qualität oder das Vertrauen zu beeinträchtigen?
Trotz des aktuellen Hypes sind KI-Agenten nichts Neues. Frühe autonome und halbautonome Systeme führten bestimmte Aufgaben anhand vordefinierter Regeln und Entscheidungsbäume aus. Die heutigen KI-Agenten unterscheiden sich grundlegend in ihren Datenverarbeitungsfähigkeiten. Wie ihre Vorgänger sind sie autonome, softwarebasierte Tools, die Aufgaben ausführen, Entscheidungen treffen und in Echtzeit mit Benutzern und Daten interagieren. Das Besondere an ihnen ist ihre Fähigkeit, Large Language Models (LLMs) für die Interaktion in natürlicher Sprache zu nutzen. Dies schafft beispiellose Möglichkeiten zur Wertschöpfung, aber auch erhebliche organisatorische Risiken.
Mehrere Produkte veranschaulichen, wie KI-Agenten bereits heute Arbeitsabläufe verändern. Der AI-Anbieter Anthropic demonstrierte Agenten, die Dateneingaben verarbeiten, indem sie den Bildschirm eines Benutzers beobachten, Cursor bewegen und Formulare automatisch ausfüllen. Der im Januar 2025 angekündigte Operator von OpenAI surft selbstständig im Internet, füllt Formulare aus, bestellt Lebensmittel und erstellt sogar Memes. Unternehmenslösungen sind ebenso ambitioniert. Agentforce von Salesforce hilft Teams dabei, rund um die Uhr einen Anstieg von Kundenanfragen zu bewältigen. Mit Microsoft Studio können Benutzer innerhalb ihres bestehenden Ökosystems benutzerdefinierte Agenten erstellen, die Termine in Outlook planen, Excel mit Echtzeitdaten aktualisieren oder Teams-Diskussionen zusammenfassen. Das chinesische Unternehmen
Manus will den weltweit ersten Allzweck-Agenten mit „Händen, die nach den Vorstellungen der Benutzer arbeiten” lanciert haben.
Im Gegensatz zu früheren Automatisierungstools bergen KI-Agenten aufgrund ihrer Autonomie, ihrer Lernfähigkeit und ihrer potenziellen tiefen Integration in Unternehmensdaten und -systeme jedoch auch einzigartige Risiken.
Datenverschmutzung
KI-Agenten generieren riesige Datenmengen. Ohne Governance können sie schnell zu einer „Datenverschmutzung” führen, indem sie Silos, doppelte Datensätze oder ungenaue Informationen erstellen, die die Datenbestände des Unternehmens kontaminieren. Agenten, die mit schlechten Daten trainiert wurden, produzieren fehlerhafte Ergebnisse, die sich über miteinander verbundene Systeme ausbreiten.
Unkontrollierte Verbreitung von Agenten
Einfach zu bedienende Tools zur Erstellung von Agenten ermöglichen es Mitarbeitern, ihre eigenen KI-Agenten ohne zentrale Aufsicht zu entwickeln, wodurch „Schatten-KI“ entsteht. Dutzende von halbautonomen Agenten in verschiedenen Abteilungen können zu Konflikten, Doppelarbeit oder Sicherheitslücken führen.
Lücken in der Verantwortlichkeit
Wenn Agenten autonom Entscheidungen treffen, wird die Verantwortlichkeit unklar. Wenn ein Agent einen kostspieligen Fehler oder eine voreingenommene Entscheidung trifft, liegt die Schuld dann bei der Organisation des Benutzers, dem Softwareanbieter der Agenten oder dem Entwickler des zugrunde liegenden KI-Modells?
Erweiterte Angriffsfläche
KI-Agenten können über weitreichende Zugriffsrechte verfügen – sie können Daten lesen und schreiben, Anwendungen steuern und manchmal sogar Webbrowser oder Systemfunktionen bedienen. Dies erweitert die Angriffsfläche erheblich. Gartner prognostiziert, dass bis 2028 25 Prozent der Sicherheitsverletzungen in Unternehmen auf den Missbrauch von KI-Agenten zurückzuführen sein werden.
Um diese Herausforderungen effektiv zu bewältigen, benötigen die Verantwortlichen einen systematischen Governance-Ansatz. Das vierteilige Rahmenwerk „Map, Monitor, Model und Manage“ bildet die Grundlage für einen verantwortungsvollen Einsatz von Agenten.
1. Map: Übersicht und Inventar der KI-Agenten
Ein strukturierter, schrittweiser Ansatz ist unerlässlich, um KI-Agenten sicher und effektiv einzusetzen. Der erste Schritt besteht darin, eine Übersicht und ein Inventar aller KI-Agenten und der damit verbundenen Datenflüsse zu erstellen. Diese detaillierte Übersicht deckt alle neu entstehenden Datenströme, Überschneidungen oder Silos auf. Unternehmen können dann Lücken oder unnötige Doppelungen beseitigen und sicherstellen, dass keine Agenten unbemerkt arbeiten und der Zugriff auf sensible Daten streng kontrolliert wird.
2. Monitor: Agenten und Datenqualität überwachen
Durch die Festlegung klarer Standards für von Agenten generierten Daten kann verhindert werden, dass Agenten fehlerhafte Informationen in Unternehmenssysteme einspeisen. Dies kann die Einführung von Datenwörterbüchern, Integrationspipelines und Validierungsprüfungen umfassen, um sowohl von Menschen als auch von Agenten erstellte Daten in einer einzigen Quelle zu vereinheitlichen. Ausserdem sind eine kontinuierliche Überwachung und Prüfung von KI-Agenten mit automatisierten Protokollen, Anomaliewarnung und regelmässigen Leistungsüberprüfungen notwendig.
3. Model: Strukturiertes KI-Governance-Framework modellieren
Governance-Richtlinien sollten festlegen, wie Agenten genehmigt, eingesetzt und verwaltet werden, um sicherzustellen, dass Risikobewertungen, ethische Richtlinien und Sicherheitsüberlegungen in jeder Phase integriert sind. Wie die Technologie selbst entwickeln sich auch Governance-Protokolle ständig weiter. Einige Unternehmen richten ein spezielles Center of Excellence (CoE) ein, in dem funktionsübergreifende Teams zusammenkommen, um agentenbezogene Prozesse zu überwachen. Dieser zentralisierte Ansatz sorgt für eine kontrollierte KI-Erweiterung, verhindert reaktive Korrekturen und bietet ein gemeinsames Framework für die Bewältigung komplexer Aufgaben wie die Einhaltung gesetzlicher Vorschriften.
4. Manage: Rolle eines „Agent Controller” definieren
Unternehmen können Rollen wie „Agent Controller” oder „AI Wrangler” einführen, um den täglichen Betrieb der Agenten zu überwachen, Ausnahmen zu behandeln und die Leistung der Agenten kontinuierlich zu verbessern. Mit der zunehmenden Verbreitung von Agenten könnten Unternehmen bald mehr KI-Agenten als Mitarbeiter haben, was eine „Agent HR”-Abteilung unter der Leitung eines Chief Agent Officer erforderlich macht.
Durch die Abbildung der Datenflüsse von Agenten, die Einrichtung einer starken Governance, die genaue Beobachtung der Leistung und die Festlegung klarer Verantwortlichkeiten können Führungskräfte diese digitalen Tools zu leistungsstarken Partnern machen. Ohne geeignete Schutzmaßnahmen können KI-Agenten jedoch schnell zum Problem statt zur Lösung werden. Ob sie letztendlich Freunde oder Feinde sind, hängt von den Entscheidungen und der Aufsicht der Personen ab, die sie implementieren.
Amit Joshi ist Professor für KI, Analytik und Marketingstrategie am International Institute for Management Development (IMD) in Lausanne. José Parra Moyano ist Professor für digitale Strategie am IMD. Ram Bala ist Ausserordentlicher Professor für KI und Analytik an der Leavey School of Business der Santa Clara University. Natarajan Balasubramanian ist Betty & Albert Hill Stiftungsprofessor an der Whitman School of Management der Syracuse University.
José Parra Moyano spricht auch am IMD KI-Update, das am 20. Januar 2026 in THE HALL Zürich stattfindet. Der Leadership Summit im Zeitalter der KI wird von der echo group mit dem IMD Lausanne als Knowledge Partner organisiert. Bis zum 31. Oktober gilt noch ein Early Bird-Preis mit 20 Rabatt.