24. März 2026

Context Anchoring -- Gegen das Vergessen in langen AI-Sessions

ThoughtWorks hat neue Forschungsergebnisse zu AI-Coding-Sessions veroeffentlicht. Das zentrale Problem: Bei langen Chat-Threads setzt Context Compaction ein -- das Modell komprimiert aeltere Nachrichten und vergisst dabei die Gruende hinter Entscheidungen. Das Ergebnis: Der Entwickler steht auf wackeligem Grund.

Das Problem

In langen Sessions akkumuliert der Kontext. Irgendwann wird komprimiert. Dabei gehen nicht die Fakten verloren, sondern die Entscheidungslogik: Warum wurde Ansatz A statt B gewaehlt? Welche Constraints wurden beruecksichtigt? Das fuehrt zu inkonsistenten Folgeentscheidungen.

Die Loesung: Context Anchoring

Die Kernidee: Den Kontext externalisieren, bevor er komprimiert wird. Konkret:

  1. Living Feature Document: Ein Markdown-File, das fortlaufend den aktuellen Stand, Entscheidungen und deren Gruende dokumentiert
  2. Explizite Entscheidungs-Marker: Bei jeder wichtigen Weichenstellung einen kurzen Eintrag: Was, Warum, welche Alternativen verworfen
  3. Session-Uebergaben: Am Ende einer Session die wichtigsten Entscheidungen in ein Uebergabe-Dokument schreiben

Praktische Umsetzung

Zitat

"The future belongs to collectors" -- wer seinen Kontext systematisch sammelt, verliert ihn nicht an die Compaction.

Quellen

Nach oben