CLAUDE.md als Steuerungsinstrument: Token-Optimierung und Verhaltenskontrolle
Drona Reddy, Data Analyst bei Amazon US, hat auf GitHub ein einzelnes Markdown-File veroeffentlicht: "Universal Claude.md". Der Zweck ist simpel -- Claudes Output-Token durch gezielte Instruktionen in der CLAUDE.md drastisch reduzieren. Das Repository hat auf Hacker News 433 Punkte und 154 Kommentare gesammelt.
Warum das relevant ist
CLAUDE.md-Dateien sind nicht nur Projektdokumentation. Sie sind aktive Steuerungsinstrumente fuer das Modellverhalten. Wer die richtigen Instruktionen setzt, kann den Token-Verbrauch signifikant senken -- weniger Wiederholungen, weniger erklaerende Prosa, kompakterer Output. Das spart Kosten und beschleunigt die Interaktion.
Das passt zu einer breiteren Entwicklung: Martin Fowlers Idee von "Team Standards als Infrastruktur" findet in CLAUDE.md eine konkrete technische Implementierung. Die Datei definiert nicht nur, was Claude wissen soll, sondern wie Claude sich verhalten soll.
Parallel: Claude Code interaktiv lernen
Zeitgleich hat eine interaktive Lernplattform fuer Claude Code (claude.nagdy.me) 213 Punkte auf Hacker News erreicht. "Learn Claude Code by doing" fuehrt durch praktische Uebungen statt durch Dokumentation. Beide Entwicklungen zeigen denselben Trend: Die Community investiert zunehmend in das Verstaendnis und die Konfiguration von AI-Coding-Tools -- nicht nur in deren Nutzung.
Praxis-Tipp
Wer bereits eine CLAUDE.md pflegt, sollte explizite Verhaltensanweisungen ergaenzen: gewuenschte Antwortlaenge, Formatvorgaben, Verbote fuer redundante Erklaerungen. Der Effekt auf Token-Verbrauch und Antwortqualitaet ist messbar.
Update 6. April: ETH-Zuerich-Studie stellt AGENTS.md in Frage
Eine von Heise berichtete ETH-Zuerich-Studie bringt eine wichtige Gegenperspektive: Auto-generierte AGENTS.md/CLAUDE.md-Dateien (wie sie OpenAI, Anthropic und GitHub per /init-Befehl erzeugen) senken die Erfolgsrate um 0,5-3% und erhoehen die Inferenz-Kosten um 20-23%.
Die Studie testete Claude Code, GPT-Modelle und Qwen Code gegen 300+ reale Aufgaben: - Auto-generierte Dateien: Leicht schaedlich fuer die Erfolgsrate - Manuell gepflegte Dateien: Verbesserten Ergebnisse nur um ~4 Prozentpunkte - Token-Overhead: ~20% mehr Verbrauch durch laengere Reasoning-Passagen
Die Empfehlung der Forscher deckt sich mit der Praxis-Erfahrung: 1. Keine Redundanz mit bestehender Dokumentation 2. Nur projektspezifische Luecken fuellen (nicht-offensichtliche Pitfalls, spezielle Scripts) 3. Regeln minimal und testbar halten 4. Basierend auf beobachteten Agent-Fehlern iterieren
Die Quintessenz: Eine gut gepflegte CLAUDE.md hilft. Eine auto-generierte oder ueberladene schadet. Weniger ist mehr.
Quellen
- Universal Claude.md | Drona Reddy (GitHub)
- Hacker News Diskussion (433 Punkte, 154 Kommentare)
- A GitHub tinkerer teaches Claude to talk less | InfoWorld
- Learn Claude Code by doing (213 HN-Punkte)
- Heise: AGENTS.md -- Hilfreiches Agentenbriefing oder Tokenfresser?