11. April 2026

OpenClaw hat sich seit dem viralen Launch im November 2025 zu einem der meistdiskutierten Open-Source-Projekte im AI-Coding-Raum entwickelt -- mit 347.000 GitHub-Stars, einer Sicherheitskrise und einer handfesten Auseinandersetzung mit Anthropic, das den Zugang über Claude-Abos Anfang April gekappt hat. Während an der Basis diskutiert wird, wer das Projekt absichert, entsteht auf der Ebene darüber bereits eine eigene Tooling-Schicht. Drei Projekte, die innerhalb weniger Tage auf Hacker News gelandet sind, zeigen das Muster: Twill.ai verkauft Cloud-Ausführung, Eve bietet "Managed OpenClaw", DecisionNode legt eine gemeinsame Gedächtnisschicht unter alle AI-Coding-Tools.

Twill.ai -- Cloud-Agents als PR-Service

Twill.ai (YC S25, gegründet von Willy und Dan) ist am 10. April als "Launch HN: Delegate to cloud agents, get back PRs" gestartet. Das Produkt reagiert auf drei Wand-Probleme lokaler Coding-CLIs: Parallelisierung (zwei Tasks, die gleichzeitig docker-compose.yml anfassen, kollidieren), Persistenz (Laptop zuklappen heißt Agent stoppen) und Vertrauen (Vollzugriff auf das lokale Dateisystem ist heikel).

Die Antwort ist ein Cloud-Sandbox-Runner. Aufgaben kommen über Slack, GitHub, Linear, Web-App oder CLI herein und werden als Pull Request, Review, Diagnose oder Rückfrage zurückgegeben. Jeder Task läuft isoliert mit eigenem Dateisystem, eigenen Ports und eigener Prozess-Isolation; Secrets werden zur Laufzeit injiziert. Nach Abschluss snapshotet Twill den Sandbox-Zustand, damit der nächste Lauf mit warmen Dependencies startet.

Architektonisch interessant ist die Entscheidung, kein eigenes Harness zu bauen. Twill wrappt die bestehenden Lab-CLIs (Claude Code, Codex, OpenCode) und lässt Nutzer pro Task wählen oder sie parallel gegeneinander antreten. Das darunterliegende SDK agentbox-sdk ist Open Source. Preismodell: 10 Freikredite pro Monat (1 Kredit = 1 USD AI-Compute at-cost), Pläne ab 50 USD, BYOK in höheren Tiers, freie Pro-Tier für Open Source.

Eve -- Managed OpenClaw für Teams

Einen Tag zuvor hat zachdive "Eve -- Managed OpenClaw for work" vorgestellt. Eve läuft in einer isolierten Linux-Sandbox (2 vCPUs, 4 GB RAM, 10 GB Disk) und bringt Dateisystem, Headless-Chromium, Code-Ausführung und Konnektoren zu über 1.000 Diensten mit. Die Zielgruppe ist breiter als bei Twill: nicht nur Entwickler, sondern auch Sales-, Marketing- und Finance-Rollen mit gelegentlichen Code-Tasks.

Die Architektur ist dreistufig. Ein Orchestrator auf Basis von Claude Opus 4.6 routet Unteraufgaben an domänenspezifische Modelle für Browsing, Coding, Research und Medienerzeugung. Für komplexe Aufgaben spawnt Eve parallele Sub-Agenten, die über das gemeinsame Sandbox-Dateisystem koordinieren; persistente Memory-Layer akkumulieren Kontext über Sessions hinweg. Zur Steuerung gibt es eine Web-App und eine iMessage-Integration für asynchrone Tasks -- Aufgabe absenden, Handy weglegen, Antwort einsammeln.

Die explizite Positionierung ist "OpenClaw ohne Self-Hosting": der virale Agent auf reale Arbeitsaufgaben angesetzt, ohne den Sicherheitsballast lokaler Installationen. Jeder neue Account bekommt 100 USD Startguthaben.

DecisionNode -- Geteilter Memory-Layer über MCP

DecisionNode greift das Problem von einer ganz anderen Seite an. Statt Agenten zu hosten, zielt es auf die Lücke zwischen den Tools: Wer parallel Claude Code, Cursor, Windsurf und Antigravity nutzt, pflegt Architekturentscheidungen viermal -- einmal pro CLAUDE.md oder memory.md. Dagegen setzt DecisionNode einen strukturierten Entscheidungs-Store, der über einen MCP-Server an alle Clients angeflanscht wird.

Eine Entscheidung ist kein Markdown-Fragment, sondern ein JSON-Objekt mit festen Feldern: id, scope, decision, status, rationale, constraints, createdAt. Sie wird lokal in ~/.decisionnode/ abgelegt, über Googles gemini-embedding-001 eingebettet und steht allen MCP-Clients über das search_decisions-Tool zur Verfuegung. Retrieval ist explizit -- nichts wird präemptiv injiziert, der Agent ruft selbst an, wenn er eine relevante Entscheidung braucht.

Die Begründung ist pragmatisch: CLAUDE.md ist für Regeln, die immer gelten sollen, gut. Sobald aber mehr als ein paar Dutzend Entscheidungen dokumentiert werden, wird das Kontext-Fenster zum Flaschenhals. DecisionNode unterscheidet explizit zwischen "Rules" (permanent) und "Memories" (über semantische Suche einblendbar). Dazu kommen Konflikt-Erkennung bei 75 Prozent Ähnlichkeit, History-Tracking mit Quellenangabe je Tool, Global Decisions und eine konfigurierbare Aggressivität (strict vs. relaxed). Installation via npm install -g decisionnode, Lizenz MIT.

Was alle drei gemeinsam haben

Die drei Projekte bedienen unterschiedliche Schichten, folgen aber demselben Muster: sie nehmen ein viral gewordenes Kern-Tool als gegeben und legen einen Dienst darüber, der eine konkrete Schmerzstelle adressiert.

Auffällig ist, dass alle drei MCP-Server oder ein Äquivalent als Integrationspfad wählen. Das Protokoll ist für das AI-Coding-Ökosystem mittlerweile, was REST-APIs für das klassische Web waren: der akzeptierte Weg, Tools miteinander sprechen zu lassen.

Risiken

Die Fundamente sind instabil. OpenClaw steht nach ClawJacked und dem kompromittierten Marketplace unter Beobachtung, Anthropic hat den Abo-Zugang gesperrt, und das Sicherheitsmodell der Agent-Harness-Bauweise ist ungeklärt. Wer heute auf Eve setzt, ist von drei Akteuren abhängig: dem OpenClaw-Core-Team, Anthropic als Modell-Provider und dem Hoster selbst.

Dazu kommt ein Vendor-Lock-in-Paradox. Twill wirbt damit, keine eigene Harness zu bauen und Lab-Verbesserungen automatisch durchzureichen. Sobald aber Workflows über Slack/Linear/GitHub laufen, Memories in Twill liegen und Crons dort definiert sind, ist der Wechsel teuer -- selbst wenn der CLI darunter austauschbar bleibt. DecisionNode umgeht das durch lokale Speicherung, bezahlt aber mit Abhängigkeit von Googles Embedding-API. Eve hat die stärkste Lock-in-Tendenz, weil Orchestrator, Sub-Agent-Koordination und Konnektoren proprietär sind.

Einordnung

Das Muster ist aus der Container-Ära bekannt: auf Docker folgte Docker Compose, dann Kubernetes, dann Managed-Kubernetes und darüber die Platform-as-a-Service-Schicht. AI-Coding-Tools durchlaufen denselben Zyklus in Monaten statt Jahren -- das lokale CLI ist der Docker-Moment, die Cloud-Sandbox das Kubernetes-Äquivalent, Memory und Workflow die PaaS-Schicht. Neu ist das Tempo und die Konkurrenzsituation: Anthropic hat mit Claude Cowork und der Abo-Sperre ein eigenes Interesse, nicht überlagert zu werden, und Hosting-Anbieter konkurrieren mit dem Modell-Provider um dieselben Kunden. Dass diese Werkzeuge trotzdem in der gleichen Woche auf Show HN landen, ist ein Signal: Der Markt testet gerade, welche Schichten Bestand haben.

Quellen

Nach oben