2. April 2026

AI Governance in Unternehmen -- die Luecke zwischen Policy und Praxis

Unternehmen investieren in AI-Governance. Policy-Dokumente werden geschrieben, Review Boards eingesetzt, Approval Flows konfiguriert, Sandbox-Umgebungen bereitgestellt. Auf dem Papier sieht das solide aus. In der Praxis bricht es zusammen, sobald autonome AI-Agenten in produktive Software-Delivery-Prozesse einziehen. Die Governance-Luecke zwischen Absicht und Wirklichkeit wird 2026 zum zentralen Enterprise-Risiko.

Governance fuer die falsche Welt

Bestehende Governance-Frameworks sind fuer statische AI-Modelle konzipiert: Ein Modell wird trainiert, evaluiert, freigegeben und deployed. Der Zyklus ist linear und vorhersagbar. Policies lassen sich in Checklisten uebersetzen, Compliance-Audits folgen einem klaren Schema.

Autonome Agenten brechen dieses Muster. Sie treffen Mikro-Entscheidungen innerhalb von Workflows, die kein Policy-Dokument antizipiert hat. Sie kombinieren Tools auf unvorhergesehene Weise, operieren mit eigenen Credentials und handeln mit einer Geschwindigkeit, die menschliche Aufsicht strukturell ueberfordert. Orit Golowinski bringt es im JetBrains AI Blog auf den Punkt: "Governance designed for static systems breaks under dynamic agents." Wenn Autonomie zunimmt, verliert statische Policy ihre Reichweite.

Das Problem ist nicht, dass Unternehmen keine Governance haben. Das Problem ist, dass sie die falsche haben.

Die drei Bruchstellen

Fehlende Runtime-Kontrolle. Governance greift heute vor dem Deployment: Approval Flows, Model Cards, Risk Assessments. Was ein Agent danach in Produktion tut, entzieht sich der Sichtbarkeit. Organisationen koennen nicht zuverlaessig beobachten, welche Aktionen ein Agent ausfuehrt, welche Entscheidungspfade er nimmt oder welche Kosten er verursacht. Laut RSA 2026 geben 83 Prozent der Security-Verantwortlichen an, dass Fachabteilungen Agenten schneller deployen, als die Sicherheitsorganisation sie bewerten kann.

Agenten als dritte Identitaetskategorie. AI-Agenten sind weder Menschen noch klassische Machine Identities. Sie tragen IAM-Rollen, Service Accounts und API Keys wie jede andere Maschinen-Identitaet -- aber sie handeln autonom und kontextabhaengig wie Menschen. Die bestehenden Identity-Management-Systeme sind auf diese Hybridkategorie nicht vorbereitet. Teams vergeben breite Berechtigungen, um Produktionsausfaelle zu vermeiden, und schaffen damit Standing Privileges, die nie zurueckgefahren werden. Ohne formale Ownership-Strukturen gibt es keine Accountability.

Shadow AI Agents. Mitarbeiter setzen laengst eigene Agenten ein -- fuer E-Mail-Automatisierung, Code-Reviews, Datenanalysen. Das passiert ueber persoenliche Credentials, ohne Wissen der IT-Abteilung und ausserhalb jeder Governance-Struktur. Omdia-Analyst Lian Jye Su beschreibt die Lage: "a complete lack of transparency, credential sprawl, poor policies and guardrails, and siloed systems." Nur 8 Prozent der MCP-Server unterstuetzen OAuth-Authentifizierung. Die Parallele zur BYOD-Welle vor zehn Jahren liegt nahe, aber die Risiken sind abstrakter und schwerer einzufangen (siehe auch: Shadow AI Agents werden zum Enterprise-Problem).

Was operative Governance bedeutet

Die Diskussion verschiebt sich von "haben wir eine Policy?" zu "wirkt unsere Policy zur Laufzeit?". Mehrere Ansaetze kristallisieren sich heraus:

Governance by Design. Kontrolle muss in die Architektur eingebettet sein, nicht als nachgelagerter Review-Prozess. Das umfasst Runtime-Policy-Enforcement, Tool- und Permission-Allowlists, Execution-Monitoring mit Audit-Trail und Kostenzuordnung pro Agent.

Das HR-Lifecycle-Modell. Die RSA 2026 hat ein Governance-Modell hervorgebracht, das Agenten wie Mitarbeiter behandelt: Onboarding mit Inventarisierung und Owner-Zuweisung, Active Management mit Verhaltens-Monitoring und rollenbasiertem Zugriff, Offboarding mit Credential-Revocation und Audit-Trail-Archivierung.

Just-in-Time Access. Statt permanenter Berechtigungen erhalten Agenten temporaere, aufgabenbezogene Zugriffsrechte. Automated Least-Privilege-Enforcement ersetzt manuelle Review-Zyklen, die mit der Deployment-Geschwindigkeit nicht mithalten koennen.

Was das fuer Unternehmen heisst

Die Zahlen sprechen eine klare Sprache: 85 Prozent der Organisationen adoptieren AI-Agenten, aber nur 5 Prozent haben sie in Produktion skaliert. Nur 21 Prozent verfuegen ueber ein ausgereiftes Governance-Modell fuer autonome Agenten. Das Fenster, in dem Unternehmen ihre Governance-Grundlagen legen koennen -- Agent-Inventar, Acceptable-Use-Posture, Board-Level-Accountability -- ist noch offen. Es wird sich schliessen, sobald die Deployment-Landschaft unkontrollierbar wird.

Wer Governance weiterhin als PDF-Dokument versteht, das in einem SharePoint-Ordner liegt, wird feststellen, dass autonome Agenten sich nicht an Dokumente halten, die sie nie gelesen haben.

Quellen

Nach oben