Tipps
Praxis — Sofort anwendbar im Coding-Alltag
Deterministisches Graph-RAG in drei Schichten
Ein praktisches Tutorial für ein dreischichtiges Graph-RAG-System, das deterministischere Retrieval-Pfade liefert als reine Vektorsuche. Wann sich der Aufwand lohnt, welche Tools sich eignen und welche Patterns produktionsreif sind.
MLOps-Retraining: Modelle vergessen nicht, sie bekommen Schocks
Ein Towards-Data-Science-Experiment auf 555.000 Fraud-Transaktionen widerlegt das Ebbinghaus-Bild vom langsam vergessenden Modell. Die exponentielle Zerfallskurve fittet mit R² = -0.31 -- schlechter als eine flache Linie. Konsequenz: Kalender-basiertes Retraining ist naiv, Shock-Detection ist der bessere Ansatz, auch fuer LLM-Systeme mit RAG und Fine-tuning.
OpenClaw-Praxis: Enthusiasmus bei c't, Ernuechterung bei NonBioS
Zwei Signale in derselben Woche: c't 3003 zeigt OpenClaw als faszinierenden Dauerlaeufer mit Lerneffekt, waehrend Nishant Soni nach rund tausend Deploys auf seiner Infrastruktur zum Ergebnis kommt, dass das Memory stillschweigend kippt -- und man erst merkt, dass es kaputt ist, wenn der Schaden angerichtet ist. Was beide Blickwinkel fuer den praktischen Umgang mit Agenten-Memory bedeuten.
Agent-Memory ohne Hype: Wann Kurzzeit, wann Langzeit
Ein praktischer Leitfaden zur Memory-Architektur von AI-Agenten. Wer baut, braucht eine klare Unterscheidung zwischen Kurzzeit-Kontext und Langzeit-Erinnerung -- nicht jeder Use-Case braucht ein komplexes Memory-System. Konkrete Patterns, typische Fehler und Tooling-Empfehlungen.
Linux-Kernel formalisiert Regeln für AI-Coding-Assistenten
Der Linux-Kernel hat offizielle Richtlinien veröffentlicht, wie AI-Coding-Assistenten bei Beiträgen verwendet werden dürfen. Mit Disclosure-Pflicht, Verantwortungszuweisung und praktischen Regeln ist das Dokument ein Vorbild für andere Open-Source-Projekte und Unternehmen.
Der System-Prompt ist das Produkt, nicht das Feature
Ein praxisrelevanter Perspektivwechsel aus der Towards-AI-Community: Wer eine LLM-basierte App baut, sollte den System-Prompt wie ein Kernprodukt behandeln -- mit Versionierung, Evals und Ownership. Konkrete Empfehlungen für Prompt-Strukturierung, Testing und Rollout.
Fuenf agile Praktiken gegen die Qualitaetsfalle bei AI-generiertem Code
AI-Coding-Assistenten steigern die Produktivitaet um 15-55%, aber ohne Leitplanken drohen Sicherheitsluecken und technische Schulden. Fuenf bewaehrte agile Methoden schaffen die noetige Absicherung.
Expertise als AI-Skill kodifizieren: Warum Prompts nicht reichen und was stattdessen funktioniert
Phodal Huang hat zehn Jahre Schreiberfahrung in ein wiederverwendbares AI-Skill-System destilliert. Die Drei-Stufen-Methodik -- historische Segmentierung, Musterextraktion, Regeluebersetzung -- ist uebertragbar auf jede kodifizierbare Expertise: Code Reviews, Architekturentscheidungen, Debugging.
Research-Driven Agents: Coding-Agenten liefern bessere Ergebnisse, wenn sie zuerst recherchieren
SkyPilot zeigt an llama.cpp, dass ein Coding-Agent mit vorgelagerter Recherche-Phase -- Papers lesen, konkurrierende Projekte studieren -- signifikant bessere Optimierungen findet als einer, der direkt am Code ansetzt. 15% schnellere Textgenerierung auf x86, Gesamtkosten $29.
Feedback Flywheel und "Run Out to Meet It" -- Zwei Denkmodelle fuer AI-Teams
Martin Fowler beschreibt den Feedback Flywheel als systematischen Weg, AI-Learnings im Team zu verankern. Kent Beck argumentiert, dass AI die Expertise-Hierarchie zuruecksetzt.
Context Engineering: Die eigentliche Disziplin hinter funktionierenden AI-Agenten
Die meisten Agent-Fehler sind keine Modell-Fehler, sondern Kontext-Fehler. Context Engineering -- das gezielte Zusammenstellen, Isolieren und Reduzieren von Kontext -- entscheidet ueber Erfolg und Misserfolg. Ein Deep Dive mit Praxisbeispiel.
Harness Engineering: Was passiert bei 1 Milliarde Tokens pro Tag
Ryan Lopopolo (OpenAI) beschreibt, wie sein Team eine Million LOC ohne menschlichen Code oder Code-Review produziert -- und was Harness Engineering fuer Entwickler bedeutet.
AI-Agenten in Monorepos: Was anders konfiguriert werden muss
Monorepos brauchen andere Agent-Konfiguration als Single-Repos -- von Scope-Routing ueber Workspace-gefilterte Commands bis zu Dependency-aware Verification. Ein Praxis-Leitfaden.
Beyond RAG: Memory-Architekturen fuer AI-Agenten
RAG mit Vector-Datenbanken ist nicht die einzige Loesung fuer AI-Wissensmanagement. Googles Memory Agent Pattern, Mintlifys Virtual Filesystem und eine wachsende Zahl von Memory-Frameworks zeigen: Agent Memory ist Infrastruktur, nicht Feature.
Der Single-Agent Sweet Spot, den niemand zugeben will
95 Prozent aller Agenten schaffen es nie in Produktion -- meistens weil die Architektur zu komplex gewaehlt wurde. Ein einzelner Agent mit guten Tools schlaegt in den meisten Faellen ein Multi-Agent-System.
Starving Genies: Warum alle AI-Anbieter gleichzeitig Usage-Limits einfuehren
Kent Beck analysiert mit seinem 3X-Framework, warum alle grossen AI-Anbieter gleichzeitig Nutzungslimits einfuehren. Der Engpass ist nicht technisch, sondern narrativ -- Investoren brauchen einen sichtbaren Pfad zur Profitabilitaet.
Wie Claude Code wirklich funktioniert: Die offizielle Architektur
Anthropics offizielle Dokumentation erklaert die Drei-Phasen-Schleife, das Kontextfenster als knappe Ressource und die Scaling-Muster -- vom Session-Management ueber Checkpoints bis zu parallelen Agenten.
Eigenen Coding-Agenten bauen: Was zwischen Agent-Loop und Claude Code liegt
Victor Dibia zeigt, warum eine einfache Agent-Loop fuer echte Coding-Aufgaben scheitert und welche drei Erweiterungen -- Tools, Hooks und Context Management -- den Unterschied zu produktionsreifen Agenten wie Claude Code ausmachen.
Wenn AI-Agenten ueberraschen: Werbung in PRs und git reset --hard
GitHub Copilot fuegt Werbung in PRs ein und zieht sie nach Backlash zurueck. Claude Code fuehrt periodisch git reset --hard aus. Beide Faelle zeigen: Agent-Autonomie braucht Leitplanken.
AI-Refactoring in der Produktion: $400 gegen $500k Serverkosten
Drei Fallstudien zeigen AI-gestuetztes Refactoring im Produktionseinsatz: Ein JSONata-Rewrite spart 500.000 Dollar/Jahr, eine Solo-Postgres-Extension schlaegt etablierte Alternativen, ein Agent baut eine JS-Engine.
CLAUDE.md als Steuerungsinstrument: Token-Optimierung und Verhaltenskontrolle
CLAUDE.md/AGENTS.md als Steuerungsinstrument: Token-Optimierung vs. ETH-Studie die zeigt, dass auto-generierte Context-Files Erfolgsraten um 0.5-3% senken und Kosten um 20-23% erhoehen.
Meta: Structured Prompts machen LLMs zuverlaessiger beim Code Review
Meta-Forscher erreichen 93% Accuracy bei Code-Patch-Verifikation durch LLMs -- ohne Code-Ausfuehrung, nur mit strukturierten Prompts und semi-formalem Reasoning.
Spec Layer und TCR: Neue Qualitaetskontrolle fuer AI-generierten Code
Matt Rickard argumentiert fuer eine 'Spec Layer' -- formale Spezifikationen statt nur Tests. Kent Beck experimentiert mit TCR fuer AI-Agents: Code wird bei fehlgeschlagenen Tests automatisch verworfen.
Anatomie des .claude/ Ordners: Claude Code richtig konfigurieren
Ein viraler HN-Artikel (552 Punkte) erklaert die Struktur des .claude/ Verzeichnisses. CLAUDE.md, Settings, Commands und Memory -- wer Claude Code produktiv nutzen will, sollte hier investieren.
AI-generierte PRs mergen halb so oft -- Code war nie der Engpass
LinearB-Benchmarks 2026 und Agoda-Analyse zeigen, dass AI-Code schneller entsteht, aber am Review-Prozess scheitert
StoatWaffle -- Malware greift Entwickler ueber VS Code an
Neue Malware-Variante nutzt VS Code tasks.json mit runOn:folderOpen, um bei Projekt-Oeffnung automatisch Schadcode auszufuehren
DSPy in der Praxis -- Engineering Patterns statt Hype
Warum DSPy trotz guter Ideen kaum genutzt wird und welche Engineering Patterns tatsaechlich funktionieren