Unternehmen zügeln KI-Agenten, um Risiko und Nutzen auszubalancieren
Mit der zunehmenden Reife von KI-Agenten experimentieren Unternehmen vorsichtig, um deren Vorteile zu nutzen und gleichzeitig operative und datenbezogene Risiken zu begrenzen. Organisationen legen den Schwerpunkt auf Governance, Eindämmung und gezielte Implementierung, um kostspielige Fehler zu vermeiden.

NEW YORK — Während Unternehmen die Einführung von KI-Agenten beschleunigen, stellen viele fest, dass Geschwindigkeit mit Kontrolle in Einklang gebracht werden muss. Frühe Experimente haben sowohl das Potenzial agentischer KI als auch die damit verbundenen operativen und Governance-Risiken aufgezeigt.
Kevin Hearn, Senior Vice President und Leiter der Entwicklung der Consumer Bank bei der Axos Bank, hat dies aus erster Hand erfahren. Als früher Anwender von KI gewährte er zunächst 300 Mitarbeitenden Zugang zu einem KI-Agenten ohne ein konkretes Ziel. Das Ergebnis waren 300 unterschiedliche Resultate.
Einige Mitarbeitende nutzten den Agenten zum Schreiben von Code, andere zum Beheben von Code, und manche hatten Schwierigkeiten, effektive Prompts zu formulieren, was zu uneinheitlicher Codequalität führte. Hearn reduzierte die Gruppe der KI-Tester schließlich von 300 auf etwa fünf bis sieben Personen, die sich dem Experimentieren, Testen und Verfeinern des Agenten widmeten.
„Wenn Menschen mit Ideen zu mir kommen, gebe ich ihnen möglicherweise die Autonomie, diese zu verfolgen, oder ich lasse dieses Team gezielt daran arbeiten“, sagte Hearn. „Die Stärke dieses Teams besteht darin, dass wir, sobald es einen Agenten in einem bestimmten Bereich gefestigt hat – das heißt, wenn es mit allen Nutzern dieses Agenten zusammengearbeitet hat, um ihm eine unternehmensweite Wirkung zu verleihen –, nun in der Lage sind, dies konsequent weiterzuführen.“
Dieser stärker zentralisierte Ansatz spiegelt wider, wie Unternehmen versuchen, die Leistungsfähigkeit von KI-Agenten zu nutzen und gleichzeitig ihre Risiken einzudämmen. Führungskräfte stehen unter Druck, schnell zu innovieren, sind jedoch auch vorsichtig hinsichtlich unbeabsichtigter Folgen.
„Agenten sind keine traditionelle Software“, sagte Matt DeBergalis, CEO und Mitgründer von Apollo GraphQL. „Einerseits schlagen alle auf den Tisch und sagen: ‚Seid schnell, geht weit, handelt wie ein Start-up.‘ Andererseits ist dies die größte Bedrohung durch Datenexfiltration für jedes Unternehmen.“
Laut DeBergalis benötigen Unternehmen starke Grundlagen, die es ihnen ermöglichen, in kontrollierter Weise zu experimentieren, anstatt Agenten ohne Schutzmaßnahmen breit auszurollen.
Zuerst interne Anwendungsfälle
Für Axos war die durch KI gebotene Chance zu bedeutend, um sie zu ignorieren. Die Bank entschied sich, Risiken zu mindern, indem sie sich zunächst auf interne Anwendungsfälle konzentrierte. Sie nutzt OutSystems Agent Workbench, um KI-Agenten zu erstellen, bereitzustellen und zu verwalten, darunter interne Business-Analysten-Agenten, Scrum-Master-Agenten und Engineering-Agenten.
Hearn betonte, dass ein kleines, zentrales Team dazu beiträgt, Governance und angemessene Aufsicht sicherzustellen.
„Alles läuft über dieses zentrale Team, das sicherstellt, dass die Governance vorhanden ist“, sagte er. „Governance bedeutet, dass wir es angemessen einsetzen. Wir speisen keine Informationen ein, die wir nicht sollten. Es hat keinen Zugang zur Außenwelt.“
Das Fintech-Unternehmen Netevia verfolgt einen ähnlichen Ansatz. Es nutzt KI, einschließlich agentischer KI, für interne Prozesse wie den Kundenservice, vermeidet jedoch die Integration in kundenorientierte Anwendungen.
„Ein Teil der Reise besteht darin, zu verstehen, wie man schrittweise vorgeht“, sagte Vlad Sadovskiy, CEO von Netevia. „Man darf nicht mit dem Geld der Menschen herumspielen, auch wenn die Technologie bereits anderen zur Verfügung steht, die agentische Zahlungen, KI-zu-KI-Zahlungen durchführen. Wir sind noch etwa ein Jahr davon entfernt, dass die Menschen tatsächlich über eine Einführung nachdenken.“
Externe Innovation mit Kontrollen in Einklang bringen
Andere Unternehmen setzen KI-Agenten in kundenorientierten Anwendungen ein und behalten dabei eine strenge Aufsicht bei.
Bei T-Mobile unterstützt KI den Kundenservice über die KI-gestützte App T-Life. Julianne Roberson, Director of AI Engineering bei T-Mobile, sagte, dass Risikomanagement im Zentrum der Strategie stehe.
„Wir haben vollständige Observability über alles, sodass wir sehen, wenn etwas schiefgeht“, sagte Roberson. „Wir versuchen, nichts zu veröffentlichen, wenn wir nicht wissen, ob es funktionieren wird.“
Auch Upwork hat erheblich in Eindämmungsmaßnahmen investiert. Das Unternehmen betreibt intern maßgeschneiderte Sprachmodelle und leitet sie durch ein Vertrauenssystem, das darauf ausgelegt ist, Halluzinationen zu verhindern und die Ausgaben auf Kurs zu halten.
„Wir haben viel interne Technologie aufgebaut, die das Sicherheitsnetz für all das bereitstellt“, sagte Andrew Rabinovich, CTO und Leiter KI bei Upwork. „Jedes Sprachmodell, das intern ausgeführt wird – und sie sind alle maßgeschneidert – wird durch dieses Vertrauenssystem geleitet, um Halluzinationen zu vermeiden und zu verhindern, dass es aus dem Ruder läuft.“
Upwork konzentrierte sich außerdem darauf, Mitarbeitende darüber aufzuklären, wie KI-Agenten funktionieren, sodass Teams geeignete Anwendungsfälle und Grenzen besser verstehen können.
Die umfassendere Eindämmungsstrategie – sicherzustellen, dass Governance-Rahmenwerke, Observability und technische Leitplanken vor einer breiteren Einführung vorhanden sind – entwickelt sich zu einem gemeinsamen Thema unter Unternehmen.
„Menschen sehen Leistung, verwechseln sie mit Vertrauen, bekommen dann FOMO, und es wird chaotisch. Sobald man in den FOMO-Modus gerät, wird es ein großes Chaos“, sagte Robert Blumofe, Executive Vice President und Chief Technology Officer bei Akamai. „Setzt KI für das ein, worin sie großartig ist, und versucht nicht, sie in alles hineinzuzwingen.“
Während KI-Agenten weiter reifen, lernen Unternehmen, dass Erfolg nicht nur von der Einführung abhängt, sondern von diszipliniertem Experimentieren, Governance und dem Wissen darüber, wo die Technologie den größten Mehrwert liefert.