10. April 2026

Nagaraj formuliert in Towards AI eine These, die viele LLM-Teams in der Praxis laengst leben, aber selten so klar benennen: Der System-Prompt ist nicht ein Konfigurationsdetail, sondern das eigentliche Produkt. Alles drumherum -- UI, Routing, Tools, Retrieval -- ist Infrastruktur. Das, womit der Nutzer wirklich interagiert, sind die paar tausend Tokens, die vor jedem seiner Requests stehen.

Das klingt banal, hat aber eine unbequeme Konsequenz: Wenn der System-Prompt das Produkt ist, gehoert er nicht in eine Environment-Variable neben dem API-Key, sondern in einen Lifecycle mit Ownership, Versionierung, Reviews und Evals.

Warum "Produkt" und nicht "Feature"

Der Framing-Wechsel zaehlt, weil er aendert, wer verantwortlich ist und wie Aenderungen passieren. Ein Feature wird von einem Entwickler mal eben angepasst. Ein Produkt hat Changelogs, Regressions-Checks und jemanden, der es begruendet verantwortet.

In der Praxis sieht man beide Welten:

Nagarajs Kernbeobachtung: Vage Prompts fuehren zu generischen Antworten. Wer die Rolle, den Stil, die Grenzen und das Ausgabeformat nicht sauber festlegt, bekommt den Mittelwert aller Trainingsdaten zurueck. Und dieser Mittelwert ist selten ein Produkt, das jemand bezahlen will.

Wie ein guter System-Prompt strukturiert ist

Es gibt keine einzig wahre Struktur, aber ein wiederkehrendes Muster hat sich bewaehrt:

Schlechte Prompts erkennt man daran, dass sie Adjektive statt Verhalten beschreiben: "Sei professionell, hilfreich und genau." Gute Prompts ersetzen Adjektive durch beobachtbare Kriterien: "Antworte in maximal drei Saetzen, zitiere die Paragraphennummer, verweise bei Unsicherheit auf einen Menschen."

Versionierung und Evals

Wenn der System-Prompt das Produkt ist, braucht er die Werkzeuge eines Produkts:

Ein nuetzlicher Test in der Praxis: Kann jemand, der nicht Teil des Prompt-Teams ist, die Eval-Suite auschecken und nachvollziehen, warum die aktuelle Version besser ist als die vorherige? Wenn nein, ist der Prompt noch kein Produkt.

Einordnung

Die These passt zu einer Reihe aktueller Bewegungen. Claude Skills und vergleichbare Ansaetze schieben wiederverwendbare Prompts bewusst aus dem App-Code in eigene Artefakte mit Lifecycle (siehe Expertise als wiederverwendbaren AI-Skill kodifizieren). MCP verlagert Tool- und Kontext-Definitionen aus dem Prompt in ein standardisiertes Protokoll -- und macht damit den verbleibenden Prompt schaerfer beobachtbar. Context Engineering behandelt den Kontext-Aufbau als eigene Disziplin (Context Engineering), und Harness Engineering die deterministische Schale drumherum.

All diese Bewegungen haben einen gemeinsamen Nenner: Sie nehmen ernst, dass das, was das Modell sieht, das eigentliche Produkt ist. Der System-Prompt steht im Zentrum dieser Sichtweise. Wer ihn als Wegwerf-Konfiguration behandelt, baut seine App auf einem Fundament, das niemand besitzt.

Quellen

Nach oben