Cognitive Debt: Die Slow-Down-Debatte um Agent-generierten Code
Mario Zechner, Erfinder des Pi Agent Frameworks (genutzt von OpenClaw), hat in einem vielbeachteten Blogpost eine Warnung formuliert, die in der Entwickler-Community Resonanz findet: Agents machen uns schneller, aber die Geschwindigkeit erzeugt eine neue Art technischer Schulden -- Cognitive Debt.
Zechners Kernargument: Merchants of Complexity
Das Problem ist nicht, dass Agents schlechten Code schreiben. Das Problem ist die Rate, mit der Fehler sich akkumulieren, wenn der menschliche Flaschenhals wegfällt.
"A human is a bottleneck. A human cannot shit out 20,000 lines of code in a few hours. Even if the human creates such booboos at high frequency, there's only so many booboos the human can introduce in a codebase per day. [...] With an orchestrated army of agents, there is no bottleneck, no human pain. These tiny little harmless booboos suddenly compound at a rate that's unsustainable."
Zechners Bild ist anschaulich: Jeder einzelne Fehler ist harmlos. Aber ohne den natürlichen Bremsmechanismus -- die Tatsache, dass ein Mensch nur begrenzt schnell Code produzieren kann -- summieren sich diese Fehler zu einem System, das niemand mehr versteht.
"You have zero fucking idea what's going on because you delegated all your agency to your agents. You let them run free, and they are merchants of complexity."
Zechners Empfehlungen
Zechner schlägt drei konkrete Maßnahmen vor:
- Tagesbudgets für generierten Code -- eine harte Obergrenze, wie viel Code Agents pro Tag produzieren dürfen
- Architektur und APIs von Hand schreiben -- die strukturgebenden Teile der Codebasis bleiben menschlich
- Bewusst verlangsamen -- Geschwindigkeit als Risikofaktor behandeln, nicht als Produktivitätsgewinn
Willisons Ergänzung: Speed vs. Mental Thoroughness
Simon Willison greift das Thema auf und stimmt der Grunddiagnose zu. Er sieht Cognitive Debt als reales Risiko:
"Agents let us move so much faster, but this speed also means that changes which we would normally have considered over the course of weeks are landing in a matter of hours. It's so easy to let the codebase evolve outside of our abilities to reason clearly about it."
Willison ist allerdings nicht überzeugt, dass Zechners Lösung -- alles Strukturelle von Hand schreiben -- der richtige Weg ist:
"I'm not convinced writing by hand is the best way to address this, but it's absolutely the case that we need the discipline to find a new balance of speed vs. mental thoroughness now that typing out the code is no longer anywhere close to being the bottleneck on writing software."
Die offene Frage bleibt: Wenn nicht händisches Schreiben, was dann? Neue Review-Prozesse? Bessere Architektur-Tools? Strengere Constraints für Agents? Die Debatte ist offen.
Datenpunkt: Wohin der KI-generierte Code fließt
Ein paralleler Datenpunkt liefert Kontext: 90% des Claude-verknüpften Outputs auf GitHub geht an Repositories mit weniger als 2 Stars. Die Masse des KI-generierten Codes landet nicht in kritischen Infrastrukturprojekten, sondern in kleinen Einzelprojekten. Das relativiert die Dringlichkeit für die breite Softwareindustrie -- und verschärft sie gleichzeitig für Einzelentwickler, die ihre eigene Codebasis nicht mehr überblicken.
Gegenthese: Slop ist nicht die Zukunft
Der Greptile-Blogartikel "Slop is not necessarily the future" loest auf Hacker News eine massive Diskussion aus (193 Punkte, 346 Kommentare) und formuliert eine direkte Gegenposition zu Zechners Pessimismus.
Das Kernargument stammt von Soohoon Choi, zitiert ueber Simon Willison:
"AI models will write good code because of economic incentives. Good code is cheaper to generate and maintain. Competition is high between the AI models right now, and the ones that win will help developers ship reliable features fastest, which requires simple, maintainable code."
Die These: Maerkte belohnen Slop langfristig nicht. Der oekonomische Druck zwischen den Modellanbietern wird AI-generierten Code verbessern, nicht verschlechtern. Wer als Modell zuverlaessigeren, wartbareren Code liefert, gewinnt Marktanteile. Das ist kein Wunschdenken, sondern Marktlogik.
Die Debatte zeigt eine klare Spaltung. Pessimisten wie Zechner sehen Code-Qualitaet als systemisches Risiko, das durch hoehere Geschwindigkeit zwangslaeufig waechst. Optimisten wie Choi vertrauen darauf, dass Wettbewerb und oekonomische Anreize die Qualitaet nach oben treiben -- aehnlich wie bei anderen Technologien, die anfangs minderwertige Ergebnisse produzierten und sich dann verbesserten.
Microsofts stiller Disclaimer: Copilot ist "Unterhaltung"
Waehrend die Community ueber Cognitive Debt debattiert, liefert Microsoft einen unfreiwilligen Kommentar zur Verlaesslichkeit von AI-Output. In den Nutzungsbedingungen fuer Copilot (fuer Einzelpersonen) steht der Passus "for entertainment purposes only".
Hacker News reagiert mit 454 Punkten und 167 Kommentaren. Die Community sieht darin ein Eingestaendnis, dass AI-Output nicht verlaesslich genug fuer professionellen Einsatz ist -- zumindest nicht aus Sicht der Rechtsabteilung.
Der Widerspruch ist offensichtlich: Microsoft vermarktet Copilot aggressiv als Produktivitaetswerkzeug fuer Unternehmen, schuetzt sich aber juristisch mit einem Disclaimer ab, der das Produkt auf Unterhaltungsniveau herabstuft. Das ist kein Versehen, sondern kalkulierte Risikoabsicherung.
Fuer die Cognitive-Debt-Debatte ist das ein relevanter Datenpunkt. Wenn selbst der Hersteller seinen Output nicht als professionell belastbar einstuft, staerkt das Zechners Warnung: Wer blind auf Agent-generierten Code vertraut, uebernimmt ein Risiko, das der Anbieter selbst nicht tragen will.
Quellen
- Thoughts on slowing the fuck down | Mario Zechner (Blog, Maerz 2026)
- Simon Willison's Weblog (25.03.2026)
- Hacker News Diskussion (25.03.2026)
- Slop is not necessarily the future | Greptile (Blog, April 2026)
- Soohoon Choi ueber oekonomische Anreize | Simon Willison (01.04.2026)
- Microsoft Copilot Terms of Use | Microsoft