25. März 2026

Zed Zeta2: Edit-Prediction von Grund auf neu gebaut

Zed hat am 25. März 2026 Zeta2 veroeffentlicht, die zweite Version seines Edit-Prediction-Modells. Die Akzeptanzrate liegt 30% ueber Zeta1. Das Modell ist ab sofort der Standard fuer alle Zed-Nutzer.

Was ist Edit-Prediction?

Edit-Prediction ist kein klassisches Code-Completion. Statt den naechsten Token nach dem Cursor vorherzusagen, sagt das Modell vorher, welche Aenderung du als naechstes an deiner Codebasis vornehmen wirst -- auch an Stellen, die nicht direkt unter dem Cursor liegen. Der Ansatz ist dem "Next-Edit"-Konzept von GitHub Copilot aehnlich, aber Zed setzt ihn mit einem eigenen, schlanken Modell um, das auf niedrige Latenz ausgelegt ist.

Was hat sich gegenueber Zeta1 veraendert?

Trainingsdaten: von 500 auf 100.000 Beispiele

Zeta1 wurde mit rund 500 handkuratierten Beispielen trainiert. Fuer Zeta2 hat das Team eine vollstaendige Datenpipeline gebaut, die Trainingsbeispiele auf Opt-in-Basis von Zed-Nutzern in Open-Source-Repositories sammelt. Das Ergebnis: knapp 100.000 Beispiele.

Die Pipeline ist teilweise Open Source. Ein eigenstaendiger Blog-Post zur Architektur dieser Pipeline ist angekuendigt.

LSP-basierter Kontext

Seit Release 0.222.2 (Ende Februar 2026) zieht Zeta2 Typdefinitionen und Symbole aus dem Language-Server-Protokoll -- die gleiche Infrastruktur, die "Go to Definition" antreibt. Das Modell muss nicht mehr raten, was ein Typ oder eine Funktion aus einem anderen Modul bedeutet; es bekommt die tatsaechlichen Definitionen als Kontext.

Latenz

Die Latenz hat sich als Nebeneffekt der Trainingsarbeit verbessert, ohne dass das Team explizit daran gearbeitet hat.

Open Weight

Zeta2 ist open-weight und auf Hugging Face verfuegbar. Das Modell ist ausschliesslich auf Open-Source-Code trainiert. Nutzer koennen es auf eigener Infrastruktur betreiben oder auf ihrer eigenen Codebasis feinabstimmen. Die Trainingsdaten selbst werden nicht veroeffentlicht, weil Nutzer in Sammlung und Training eingewilligt haben, nicht in oeffentliches Teilen.

Vergleich zu GitHub Copilot Tab-Completion

Zeta2 Copilot Next-Edit
Ansatz Edit-Prediction (lokale Aenderungen) Next-Edit Suggestion
Modellgroesse Klein, latenzoptimiert Groesseres Modell
Infrastruktur Zed-eigenes Hosting oder self-hosted Microsoft/GitHub Cloud
Open Weight Ja Nein
Integration Nur Zed VS Code, JetBrains, etc.

Zed unterstuetzt neben Zeta2 auch Mercury Coder, Copilot Next-Edit und weitere Anbieter ueber seine Provider-Architektur. Wer Copilot bereits hat, kann es direkt in Zed einbinden.

Was kommt als naechstes

Das Team arbeitet an "Jumps": Wenn eine Funktionssignatur veraendert oder ein Feld umbenannt wird, meldet der Language Server alle betroffenen Aufrufstellen als Fehler. Jumps soll Zeta2 dazu bringen, diese abhaengigen Aenderungen als Teil desselben Edit-Flusses vorzuschlagen -- ohne manuelles Suchen.

Ausserdem laeuft aktuell bereits ein Experiment mit Direct Preference Optimization (DPO), das das Modell anhand von Nutzer-Akzeptanzen und -Ablehnungen weiter anpassen soll.

Relevanz fuer den Coding-Alltag

Edit-Prediction ist dann nuetzlich, wenn man ohnehin weiss, was geaendert werden muss, aber nicht tippen will. Bei Refactorings, Umbenennungen oder strukturell aehnlichen Aenderungen reduziert es den mechanischen Aufwand. Es ersetzt kein LLM fuer komplexere Aufgaben, ergaenzt es aber sinnvoll fuer kleinere, vorhersehbare Schritte.

Fuer Teams, die bereits Zed nutzen, ist der Wechsel auf Zeta2 automatisch -- kein Konfigurationsaufwand.

Quellen

Nach oben