1. April 2026

CLAUDE.md als Steuerungsinstrument: Token-Optimierung und Verhaltenskontrolle

Drona Reddy, Data Analyst bei Amazon US, hat auf GitHub ein einzelnes Markdown-File veroeffentlicht: "Universal Claude.md". Der Zweck ist simpel -- Claudes Output-Token durch gezielte Instruktionen in der CLAUDE.md drastisch reduzieren. Das Repository hat auf Hacker News 433 Punkte und 154 Kommentare gesammelt.

Warum das relevant ist

CLAUDE.md-Dateien sind nicht nur Projektdokumentation. Sie sind aktive Steuerungsinstrumente fuer das Modellverhalten. Wer die richtigen Instruktionen setzt, kann den Token-Verbrauch signifikant senken -- weniger Wiederholungen, weniger erklaerende Prosa, kompakterer Output. Das spart Kosten und beschleunigt die Interaktion.

Das passt zu einer breiteren Entwicklung: Martin Fowlers Idee von "Team Standards als Infrastruktur" findet in CLAUDE.md eine konkrete technische Implementierung. Die Datei definiert nicht nur, was Claude wissen soll, sondern wie Claude sich verhalten soll.

Parallel: Claude Code interaktiv lernen

Zeitgleich hat eine interaktive Lernplattform fuer Claude Code (claude.nagdy.me) 213 Punkte auf Hacker News erreicht. "Learn Claude Code by doing" fuehrt durch praktische Uebungen statt durch Dokumentation. Beide Entwicklungen zeigen denselben Trend: Die Community investiert zunehmend in das Verstaendnis und die Konfiguration von AI-Coding-Tools -- nicht nur in deren Nutzung.

Praxis-Tipp

Wer bereits eine CLAUDE.md pflegt, sollte explizite Verhaltensanweisungen ergaenzen: gewuenschte Antwortlaenge, Formatvorgaben, Verbote fuer redundante Erklaerungen. Der Effekt auf Token-Verbrauch und Antwortqualitaet ist messbar.

Update 6. April: ETH-Zuerich-Studie stellt AGENTS.md in Frage

Eine von Heise berichtete ETH-Zuerich-Studie bringt eine wichtige Gegenperspektive: Auto-generierte AGENTS.md/CLAUDE.md-Dateien (wie sie OpenAI, Anthropic und GitHub per /init-Befehl erzeugen) senken die Erfolgsrate um 0,5-3% und erhoehen die Inferenz-Kosten um 20-23%.

Die Studie testete Claude Code, GPT-Modelle und Qwen Code gegen 300+ reale Aufgaben: - Auto-generierte Dateien: Leicht schaedlich fuer die Erfolgsrate - Manuell gepflegte Dateien: Verbesserten Ergebnisse nur um ~4 Prozentpunkte - Token-Overhead: ~20% mehr Verbrauch durch laengere Reasoning-Passagen

Die Empfehlung der Forscher deckt sich mit der Praxis-Erfahrung: 1. Keine Redundanz mit bestehender Dokumentation 2. Nur projektspezifische Luecken fuellen (nicht-offensichtliche Pitfalls, spezielle Scripts) 3. Regeln minimal und testbar halten 4. Basierend auf beobachteten Agent-Fehlern iterieren

Die Quintessenz: Eine gut gepflegte CLAUDE.md hilft. Eine auto-generierte oder ueberladene schadet. Weniger ist mehr.

Quellen

Nach oben