Microsoft Agent Governance Toolkit: Sicherheitsleitplanken für AI-Agenten
Microsoft hat Anfang April 2026 das Agent Governance Toolkit als Open-Source-Projekt (MIT-Lizenz) veröffentlicht. Es zielt auf ein konkretes Problem: AI-Agenten, die autonom Tools aufrufen, Code ausführen und miteinander kommunizieren, brauchen Sicherheitsleitplanken -- und zwar zur Laufzeit, nicht nur im Design.
Das Toolkit orientiert sich an den OWASP Top 10 Risiken für Agentic Systems und liefert sieben Komponenten, die sich in bestehende Agent-Frameworks integrieren lassen, ohne Code umzuschreiben.
Die OWASP Top 10 für AI-Agenten
Das Toolkit adressiert folgende Risikokategorien:
- Goal Hijacking -- Umleitung der Agentenabsicht durch manipulierte Eingaben
- Tool Misuse -- Missbrauch verfügbarer Werkzeuge durch den Agenten
- Identity Abuse -- Identitätsmissbrauch und unautorisierte Aktionen
- Supply Chain Risks -- Kompromittierte Abhängigkeiten in der Agent-Pipeline
- Code Execution -- Unkontrollierte Codeausführung durch Agenten
- Memory Poisoning -- Verunreinigung des Agentengedächtnisses
- Insecure Communications -- Unsichere Kommunikation zwischen Agenten
- Cascading Failures -- Kettenreaktionen bei Fehlern in Multi-Agent-Systemen
- Human-Agent Trust Exploitation -- Ausnutzung des Vertrauensverhältnisses
- Rogue Agents -- Agenten, die sich der Kontrolle entziehen
Architektur: Sieben Komponenten
Das Toolkit ist als Monorepo mit unabhängig installierbaren Komponenten aufgebaut:
| Komponente | Funktion |
|---|---|
| Agent OS | Policy Enforcement Layer -- setzt Sicherheitsrichtlinien zur Laufzeit durch |
| Agent Mesh | Sichere Kommunikation und Identity-Framework zwischen Agenten |
| Agent Runtime | Kontrollierte Ausführungsumgebung |
| Agent SRE | Zuverlässigkeit und Monitoring (Site Reliability Engineering) |
| Agent Compliance | Compliance-Überwachung und Audit |
| Agent Lightning | Marketplace Governance |
| Management-Layer | Reinforcement Learning Oversight |
Die Designprinzipien lehnen sich an bewährte Patterns aus Betriebssystemen, Service Meshes und Site Reliability Engineering an.
Framework-Integration
Das Toolkit ist framework-agnostisch und integriert sich über die nativen Erweiterungspunkte der jeweiligen Frameworks:
- LangChain -- Callback Handlers
- CrewAI -- Task Decorators
- Google ADK -- Plugin System
- Microsoft Agent Framework -- Middleware Pipeline
- LlamaIndex -- TrustedAgentWorker
Die Integration erfordert kein Umschreiben bestehender Agent-Workflows. Governance wird als zusätzliche Schicht eingezogen.
Was kann man heute damit machen?
- Status: Public Preview, MIT-Lizenz auf GitHub (
microsoft/agent-governance-toolkit) - Sprachen: Python, TypeScript, Rust, Go, .NET
- Einstieg: Monorepo klonen, gewünschte Komponenten einzeln installieren
- Sofort nutzbar: Runtime-Policies gegen Prompt Injection, Verhaltens-Monitoring in Multi-Step-Workflows, sichere Agent-zu-Agent-Kommunikation
Für Teams, die bereits mit LangChain, CrewAI oder ähnlichen Frameworks produktive Agenten betreiben, ist der Integrationsaufwand gering. Die Komponenten lassen sich schrittweise einführen.
Einordnung
Das Toolkit füllt eine Lücke: Während Frameworks wie LangChain und CrewAI den Bau von Agenten vereinfachen, fehlte bisher eine standardisierte Lösung für Governance und Sicherheit zur Laufzeit. Dass Microsoft sich dabei an OWASP orientiert und das Projekt unter MIT-Lizenz stellt, senkt die Einstiegshürde. Der geplante Übergang zu einem Community-geführten Modell unter OWASP-Beteiligung deutet auf langfristige Ausrichtung hin.
Quellen
- Microsoft's new Agent Governance Toolkit targets top OWASP risks for AI agents -- InfoWorld
- microsoft/agent-governance-toolkit -- GitHub