Context Anchoring -- Gegen das Vergessen in langen AI-Sessions
ThoughtWorks hat neue Forschungsergebnisse zu AI-Coding-Sessions veroeffentlicht. Das zentrale Problem: Bei langen Chat-Threads setzt Context Compaction ein -- das Modell komprimiert aeltere Nachrichten und vergisst dabei die Gruende hinter Entscheidungen. Das Ergebnis: Der Entwickler steht auf wackeligem Grund.
Das Problem
In langen Sessions akkumuliert der Kontext. Irgendwann wird komprimiert. Dabei gehen nicht die Fakten verloren, sondern die Entscheidungslogik: Warum wurde Ansatz A statt B gewaehlt? Welche Constraints wurden beruecksichtigt? Das fuehrt zu inkonsistenten Folgeentscheidungen.
Die Loesung: Context Anchoring
Die Kernidee: Den Kontext externalisieren, bevor er komprimiert wird. Konkret:
- Living Feature Document: Ein Markdown-File, das fortlaufend den aktuellen Stand, Entscheidungen und deren Gruende dokumentiert
- Explizite Entscheidungs-Marker: Bei jeder wichtigen Weichenstellung einen kurzen Eintrag: Was, Warum, welche Alternativen verworfen
- Session-Uebergaben: Am Ende einer Session die wichtigsten Entscheidungen in ein Uebergabe-Dokument schreiben
Praktische Umsetzung
- CLAUDE.md, AGENTS.md oder ein dediziertes
decisions.mdim Repo pflegen - Bei laengeren Features ein Feature-Doc anlegen, das der Agent bei jeder Session liest
- Den Agent explizit bitten, Entscheidungen ins Dokument zu schreiben
Zitat
"The future belongs to collectors" -- wer seinen Kontext systematisch sammelt, verliert ihn nicht an die Compaction.
Quellen
- Context Anchoring | Dev Interrupted / ThoughtWorks