AI Coding: Gewinner, Verlierer und die Frage nach dem richtigen Tempo
Zwei aktuelle Beitraege beleuchten den Stand des AI-gestuetzten Programmierens aus entgegengesetzten Richtungen. Nick Hodges argumentiert bei InfoWorld optimistisch, wer von Agentic Coding profitiert und wer verliert. Birgitta Boeckeler liefert bei InfoQ die nuechterne Gegenrechnung: Was passiert, wenn man die Kontrolle nicht mitdenkt?
Die Gewinner-These: Legacy stirbt, Bespoke lebt
Hodges identifiziert drei Gewinner:
- Legacy-Abloesung: Veraltete Systeme lassen sich in Monaten statt Jahrzehnten ersetzen. Sein Beispiel: Cloudflares EmDash als "spiritueller Nachfolger" von WordPress, entwickelt in einem Bruchteil der Zeit. Die These ist provokant -- sie ignoriert, dass Legacy-Systeme selten an der Codequalitaet scheitern, sondern an der akkumulierten Domaenenkomplexitaet.
- Entwickler mit Ideenstau: Hodges berichtet, sechs lang aufgeschobene Projekte parallel voranzutreiben. Coding-Agenten als Multiplikator fuer individuelle Produktivitaet.
- Bespoke-Software: Massgeschneiderte Loesungen fuer kleine Unternehmen werden oekonomisch tragbar. Niemand kennt die eigene Domaene besser als der Betreiber selbst.
Die Verlierer sind in dieser Logik klar: Off-the-Shelf-Produkte wie QuickBooks, grosse Entwicklerteams an Legacy-Systemen und Unternehmen, die den Umstieg verschlafen. Hodges fasst zusammen: "You are either the cheetah or the gazelle."
Die Gegenrechnung: Kosten, Sicherheit, Entropie
Boeckelers Praesentation bei InfoQ setzt genau dort an, wo Hodges aufhoert. Sie zeichnet das Autonomie-Spektrum nach -- von lokaler Autovervollstaendigung bis zu Cloud-Agenten und Agent-Swarms -- und benennt die Probleme:
- Kostenexplosion: Von geschaetzten 12 Cent pro 100 Codezeilen (2024) zu taeglichen Ausgaben von ueber 380 Dollar durch Multi-Turn-Interaktionen, Testing und iterative Korrekturen. Die guenstigen Durchschnittskosten gelten nur fuer triviale Aufgaben.
- Sicherheitsrisiken: Simon Willisons "letales Trifecta" -- Untrusted Content, Zugriff auf private Daten, externe Kommunikation. Prompt-Injection und Secrets-Extraktion sind dokumentierte Angriffsflaechen.
- Entropie und Drift: Ein OpenAI-Experiment zeigte selbst in Greenfield-Projekten mit optimiertem Setup eine stetige Zunahme von Unordnung. Agenten mussten als "Garbage Collectors" hinterherlaufen.
- Kognitive Ueberlastung: Burnout durch Review-Last, besonders wenn unerfahrene Entwickler unter Geschwindigkeitsdruck mehrere Agent-Sessions parallel betreuen.
Context Engineering und Harness Engineering
Boeckeler schlaegt mit "Harness Engineering" ein Governance-Modell vor, das drei Ebenen kombiniert:
- Feedforward: Coding-Konventionen, Skills, Strukturtests -- deterministische Pruefungen vor der Ausfuehrung
- Feedback: Statische Analyse, Testlaeufe, Code-Review-Agenten -- Pruefung nach der Generierung
- Menschliche Steuerung: Kontinuierliche Optimierung des Harness durch Risikoabwaegung (Wahrscheinlichkeit, Impact, Erkennbarkeit)
Context Engineering wird dabei zum Schluesselbegriff: die Kuratierung der Information, die ein Modell sieht. Modularisierte Regeln, MCP-Server und Progressive Loading bestimmen die Qualitaet des Outputs staerker als das Modell selbst.
Synthese
Hodges und Boeckeler widersprechen sich nicht grundsaetzlich -- sie sprechen ueber verschiedene Zeithorizonte. Kurzfristig stimmt die Gewinner-These: Wer Legacy-Systeme ersetzt oder Bespoke-Loesungen baut, profitiert von der aktuellen Welle. Mittelfristig greift Boeckelers Warnung: Ohne systematische Governance erzeugen Coding-Agenten mehr Entropie als sie beseitigen. Die entscheidende Faehigkeit verschiebt sich vom Coden zum Risiko-Assessment.
Die offenen Fragen bleiben dieselben: Wie verifiziert man Verhalten jenseits gruener Tests? Wie schnell ist schnell genug? Und was passiert mit den Entwicklern, deren Kernkompetenz die manuelle Codeerstellung war?
Quellen
- The Winners and Losers of AI Coding -- Nick Hodges, InfoWorld
- State of Play: AI Coding Assistants -- Birgitta Boeckeler, InfoQ