Code ist billig -- und was das verändert
Zwei aktuelle Essays nähern sich derselben Grundbeobachtung von unterschiedlichen Seiten: AI Coding Agents haben die Grenzkosten der Codeproduktion drastisch gesenkt. Pere Villega fragt, was das ökonomisch bedeutet. Yanis Triandaphyllou fragt, was das für die Codequalität bedeutet. Zusammen ergibt sich ein nüchterneres Bild als beide Texte einzeln liefern.
Was sich ändert: Die Ökonomie des Codes
Villegas Ausgangspunkt ist Kent Becks vielzitierter Satz: "90% of my skills just went to zero dollars. 10% of my skills just went up 1000x." Die These ist nicht, dass Entwickler überflüssig werden -- sondern dass sich die Wertverteilung verschiebt. Routinecode zu schreiben war bisher teuer genug, um als Markteintrittsbarriere zu funktionieren. Diese Barriere fällt.
Die Konsequenz ist klassische Ökonomie: Wenn die Produktionskosten sinken, wird latente Nachfrage freigesetzt. Millionen von Problemen -- zu klein, zu spezifisch, zu wenig rentabel für manuelle Entwicklung -- werden plötzlich wirtschaftlich lösbar. Villega vergleicht es mit der Industrialisierung: Die Dampfmaschine hat keine Weber ersetzt, sie hat textile Produktion so billig gemacht, dass völlig neue Märkte entstanden.
Die neue Haupttätigkeit in diesem Modell ist nicht mehr das Schreiben von Code. Sie besteht darin, Systemverträge zu definieren -- Invarianten, SLAs, Datenmodelle, Schnittstellen -- und anschließend zu prüfen, ob der Agent-Output diese Verträge einhält. Wer industrialisiert, gewinnt. Wer weiter handwerklich arbeitet, wird teurer als die Alternative.
Was bleibt: Clean Code ist keine Ästhetik
Triandaphyllou setzt genau dort an, wo Villegas ökonomische Analyse aufhört. Wenn Agents den Code schreiben -- welche Rolle spielen dann Lesbarkeit, Modularität und Testbarkeit? Seine Antwort: eine größere als zuvor, aber aus anderen Gründen.
Die klassischen Clean-Code-Prinzipien -- kleine Funktionen, sprechende Namen, Single Responsibility -- wurden traditionell mit der kognitiven Last für menschliche Entwickler begründet. Triandaphyllou fügt eine neue Motivation hinzu: Token-Verbrauch und Context Windows. Schlecht strukturierte Codebases zwingen Agents dazu, unnötige Dateien zu lesen und irrelevanten Kontext zu laden. Er formuliert es direkt: "polluting their context and costing you tokens."
LLMs spiegeln außerdem die Patterns, die sie in der bestehenden Codebase finden. Sauberer, konsistenter Code liefert bessere Beispiele und führt zu besserem Output. Schlecht strukturierter Code reproduziert sich durch den Agent hindurch. Die Feedback-Schleife ist kurz und gnadenlos.
Human Review bleibt in dieser Sicht nicht optional, sondern wird zur zentralen Qualitätssicherung. Agents können Code produzieren, aber sie können nicht beurteilen, ob der Code die richtige Abstraktion gewählt hat, ob das Datenmodell zur Domäne passt oder ob ein Edge Case geschäftskritisch ist.
Verifikation als Kernkompetenz
Beide Essays konvergieren an einem Punkt: Die entscheidende Fähigkeit verschiebt sich vom Schreiben zum Verifizieren. Villega betont formale Mechanismen -- Compiler, Typsysteme, Tests, Contract-Tests als automatisierte Gatekeeper. Triandaphyllou ergänzt die menschliche Komponente: Review, Architekturentscheidungen, Domänenwissen.
Das ist kein Widerspruch, sondern eine zweistufige Verifikation. Stufe eins ist maschinell: Läuft der Code? Besteht er die Tests? Hält er die definierten Verträge ein? Stufe zwei ist menschlich: Ist das die richtige Lösung? Stimmt die Abstraktion? Passt sie in das Gesamtsystem?
Wer nur auf Stufe eins setzt, erzeugt Code, der technisch korrekt und architektonisch falsch ist. Wer nur auf Stufe zwei setzt, skaliert nicht.
Was das fuer den Alltag bedeutet
Die praktischen Konsequenzen lassen sich in drei Punkten zusammenfassen:
- Systemdesign wird wichtiger als Implementierung. Wer gute Vertraege definiert -- APIs, Typen, Invarianten, Teststrategien -- gibt Agents klare Leitplanken. Wer vage Anforderungen liefert, bekommt vagen Code.
- Codebase-Hygiene zahlt sich doppelt aus. Einmal fuer menschliche Entwickler, die den Code warten. Einmal fuer Agents, die ihn als Kontext verwenden. Technische Schulden werden teurer, weil sie jetzt auch die Qualitaet des generierten Codes verschlechtern.
- Review-Fähigkeit wird zum Differenzierungsmerkmal. Die Fähigkeit, Agent-Output schnell und zuverlässig zu bewerten, wird zur Kernkompetenz. Das erfordert Domänenwissen, Systemverständnis und die Bereitschaft, generierten Code mit demselben kritischen Blick zu behandeln wie menschlichen.
Villegas Industrialisierungsmetapher hat einen wahren Kern, aber sie verschleiert die Komplexität der Übergangsphase. Code ist billig geworden. Das Urteil darüber, ob es der richtige Code ist, ist es nicht.
Quellen
- Code Is Cheap Now, and That Changes Everything -- Pere Villega
- Clean Code in the Age of Coding Agents -- Yanis Triandaphyllou