Mittelständler brauchen ein Agentic Governance Council

Beitrag von Thomas Maxeiner

Director Technical Solutions, Public Sector Germany, Palo Alto Networks

06. Februar 2026

KI-Agenten sind gekommen, um zu bleiben. Auf kurz oder lang werden sie auch und gerade den deutschen Mittelstand fluten. Wie kann sich dieser auf die Invasion vorbereiten?


KI-Agenten erobern die Arbeitswelt. Laut einer aktuellen IBM-Studie sehen Unternehmen KI-Agenten nicht länger als Experiment, sondern als unverzichtbaren Bestandteil ihrer digitalen Transformation. Doch ihre wachsende Bedeutung geht mit erheblichen Risiken einher. Eine Analyse von Palo Alto Networks zeigt, dass drei von vier laufenden agentenbasierten KI-Projekten erhebliche Sicherheitsprobleme bergen. Der Grund liegt weniger im Code, sondern (wie auf Beyond Buzzwords schon des Öfteren zu lesen war) in der fehlenden Governance. Viele Projekte starten ohne klare Zieldefinitionen, verbindliche Kontrollmechanismen oder abgestimmte Sicherheitsrichtlinien.

Wenn Projekte ins Leere laufen

Viele Unternehmen beginnen ihre agentenbasierten KI-Initiativen mit der Technologie, nicht mit den Zielen. Projekte starten, ohne zuvor messbare Geschäftsziele oder Risikogrenzen festzulegen. Dieser „Outcome Drift“ führt zu Abweichungen, unklaren Verantwortlichkeiten und steigenden Budgets, während der Mehrwert ausbleibt. Laut Gartner drohen bis 2027 etwa 40 Prozent der Projekte abgebrochen zu werden, weil keine klaren Zielsetzungen vorhanden sind.

Der Ansatz muss sein, Projekte rückwärts zu denken. Nur wenn Unternehmen zu Beginn zwei bis drei konkrete, vom Vorstand genehmigte Ziele festlegen, lassen sich Investitionen steuern und Risiken begrenzen. Ausgehend von gewünschten Ergebnissen und Benchmarks wird die Architektur von KI-Agenten so entwickelt, dass jede Handlung einer autorisierten Identität mit dokumentiertem Zweck zugeordnet werden kann. Dadurch entstehen weniger blinde Flecken und Projekte bleiben steuerbar.

Wenn Agenten zu viel dürfen

Ein häufiges Problem in der Praxis ist die Vergabe übermäßiger Zugriffsrechte. Agenten erhalten volle Systemrechte oder unzureichend überwachte Berechtigungen. Das ist vergleichbar damit, einem Praktikanten uneingeschränkten Zugang zu allen Unternehmenssystemen zu geben – es erhöht das Risiko unnötig und entspricht nicht dessen Aufgabenfeld. Dieses Vorgehen öffnet Angreifern Tür und Tor.

Abhilfe schaffen Leitplanken, die von Beginn an in die Planung und das Design eingebaut werden. Jede Handlung muss klar autorisiert, nachvollziehbar und im Zweifel durch einen Menschen überprüft werden. Dazu zählen Zero-Trust-Prinzipien, Identitäts- und Privilegientrennung sowie Kontrollen von untergeordneten Agenten. Kurzlebige Zugangsdaten, mehrstufige Authentifizierung und eine strikte Trennung von Berechtigungen verhindern Kontrollverlust. Ebenso zum Fundament gehören dabei Aktionsprotokolle und kontinuierliche Überwachung. Grundsätzlich gilt: Unternehmen sollten Agenten wie eigenständige Identitäten behandeln. So wird blindes Vertrauen durch sorgfältige Kontrolle ergänzt.

Wenn wichtige Akteure außen vor bleiben

Das dritte Risiko ist fehlende Governance. Noch immer betrachten viele Unternehmen agentenbasierte KI als isoliertes IT-Projekt. Bereiche wie Recht, Betrieb, Compliance oder Risikomanagement werden erst spät einbezogen – oder gar nicht. So entstehen Schattenprojekte, Verantwortlichkeiten bleiben unklar und die Sicherheit gerät ins Hintertreffen.

Palo Alto Networks empfiehlt daher die Einrichtung eines „Governance Council“. Dieses funktionsübergreifende Gremium soll klare Entscheidungsrechte besitzen, regelmäßig an den Vorstand berichten und verbindliche Standards setzen. Governance wird so zur Grundlage, die Projekte widerstandsfähig, regelkonform und strategisch abgestimmt macht. Unternehmen, die frühzeitig alle relevanten Akteure einbinden und diese Strukturen fest im Board verankern, schaffen damit nicht nur Sicherheit, sondern auch die Basis für eine langfristig erfolgreiche Implementierung von KI-Agenten.

Best Practices

Um agentenbasierte KI-Projekte sicher aufzusetzen, sollten Unternehmen bereits im nächsten Quartal ein „Agentic Governance Council“ einrichten und Verantwortlichkeiten klar festlegen. Ein zentrales Register sorgt zudem dafür, dass alle Agenten, Datenzugriffe und Verantwortliche dokumentiert sind. Vor dem Go-live müssen realistische Szenarien und Stresstests („Premortems“) durchgeführt werden.

Es gilt zudem, für jeden Anwendungsfall messbare Ziele zu definieren und Risiken mit Grenzwerten zu versehen. Kritische, irreversible Entscheidungen müssen grundsätzlich einem Menschen vorbehalten bleiben, und jede Aktion einer autorisierten Identität mit klar dokumentiertem Zweck zugeordnet werden.

KI-Applikationen dürfen nicht intransparent sein, die Identitäten von Menschen, Systemen und Agenten sollten unter einer einheitlichen Sicherheitsrichtlinie verwaltet werden. Die IT ist gehalten, Zugriffsrechte strikt nach dem Prinzip „Least Privilege“ zu vergeben und regelmäßig zu erneuern. Ein kontinuierliches Monitoring muss Menschen in kritische Freigaben einbinden.


Kurz: Governance, klare Zielsetzungen und sichere Identitätskontrollen müssen von Anfang an mitgedacht werden. Nur so lassen sich Innovation und Sicherheit in Einklang bringen.

 

 

Kommentar hinzufügen