3. April 2026

Kent Beck veroeffentlicht auf seinem Tidy First Substack den Essay "Starving Genies". Die zentrale Frage: Warum haben alle grossen AI-Anbieter -- Anthropic, OpenAI, Google -- nahezu gleichzeitig aggressive Nutzungslimits eingefuehrt?

Becks 3X-Analyse

Beck wendet sein 3X-Framework (Explore/Expand/Extract) an. Seine These: Der Engpass ist nicht primaer technisch (Chips, Rechenzentren, Unit Economics), sondern narrativ. Investoren brauchen einen sichtbaren Pfad zur Profitabilitaet. Die AI-Unternehmen befinden sich in der Expand-Phase -- sie treffen auf limitierende Ressourcen und muessen entweder Angebot erhoehen oder Nachfrage drosseln.

Die Wachstumskurve gleicht einer Treppe, keinem glatten Anstieg. Jeder Plateau-Moment erfordert Investitionen in Infrastruktur, bevor die naechste Wachstumsphase beginnen kann. Usage-Limits sind die sichtbare Manifestation dieser Treppenstufen.

Was das fuer Entwickler bedeutet

Entwickler sind von den Limits anders betroffen als Casual User. Sie brauchen APIs mit hoeheren Limits und transparenter Preisgestaltung. Die konkrete Auswirkung: Wer heute intensiv mit Claude Code, Codex oder Cursor arbeitet, stoeaast regelmaessig an Limits -- besonders waehrend US-Spitzenzeiten.

Die offene Frage

Beck laesst die entscheidende Frage offen: Sind die Limits temporaere Skalierungspausen -- Plateaus auf der Treppe nach oben -- oder ein dauerhaftes Extraktions-Gleichgewicht, bei dem Heavy Use zum Premium-Tier wird? Falls Letzteres, wuerde sich das Geschaeftsmodell grundlegend von "Flat Rate mit Limits" zu "Pay per Token" verschieben.

Fuer Teams, die AI-Coding-Tools in ihre Workflows integriert haben, ist diese Unterscheidung strategisch relevant: Lohnt es sich, auf sinkende Preise und steigende Limits zu warten, oder sollte man sich auf dauerhaft hohe Kosten pro Token einstellen?

Quellen

Nach oben