KI-FOMO frisst Sicherheit -- Wenn Tempo vor Schutz geht
Sylvester Tremmel bringt es bei heise auf den Punkt: Waehrend die Branche ueber Prompt Injections und Jailbreaks diskutiert, stehen bei den meisten KI-Systemen die Fenster und Tueren sperrangelweit offen -- durch ganz gewoehnliche Sicherheitsluecken.
Das eigentliche Problem: Klassische Luecken in neuem Gewand
Der Kommentar stuetzt sich auf konkrete Faelle:
- OpenClaw: In dem gehypten KI-Agenten wurden innerhalb weniger Wochen knapp 450 Sicherheitsluecken dokumentiert. Die meisten davon sind keine neuartigen KI-Angriffe, sondern klassische Probleme: unzureichende Autorisierungen, fehlender Replay-Schutz, nicht korrekt beendete Sessions. OpenClaw ist dabei eher die Ausnahme -- nicht wegen der Luecken, sondern weil es sie ueberhaupt sauber erfasst.
- Chatbot mit offenem Debug-Interface: Forscher der Security Research Labs fanden bei einer grossen Organisation einen KI-Chatbot, ueber dessen ungeschuetztes Debug-Interface Nutzerdaten, Admin-Zugangsdaten und Millionen von Mitarbeiteraccounts offen lagen. Ihr Fazit: "Wir brauchen euren KI-Agenten nicht zu hacken, um euren KI-Agenten zu hacken."
- McKinsey-Assistent: Innerhalb von Stunden kompromittiert -- nicht durch Prompt Injection, sondern durch eine SQL-Injection. Ein Problem, fuer das es seit Jahrzehnten zuverlaessige Loesungen gibt.
FOMO als Sicherheitsrisiko
Die Ursache ist strukturell. In einer "weitgehend substanzlosen Fear of Missing Out" ueberbieten sich Unternehmen darin, Geschaeftsprozesse mit KI auszuruesten. Die Geschwindigkeit, mit der KI-Systeme entwickelt, erweitert und mit produktiven Daten gefuellt werden, laesst kaum Raum fuer gruendliche Sicherheitspruefungen. Wer einzig und allein ein praesentables System liefern will, haeuft technische Schulden und Sicherheitsluecken an -- unabhaengig davon, ob der Code von Menschen oder per Vibe-Coding entsteht.
Die Parallele ist treffend: Man investiert in eine hochsichere Haustuer mit Tuerstehern, waehrend Terrassentuer und saemtliche Fenster offen stehen. Cyberkriminelle muessen sich nicht mit probabilistischen KI-Angriffen beschaeftigen, solange Debug-Schnittstellen alles auf dem Silbertablett servieren.
Was sich aendern muesste
Tremmels Vorschlaege sind naheliegend, aber offenbar nicht selbstverstaendlich:
- KI-gestuetzte Sicherheitspruefung: Wer mit brachialer Geschwindigkeit entwickelt, sollte den Code zumindest ebenso schnell auf Luecken pruefen lassen -- und zwar vor dem produktiven Einsatz, nicht danach.
- Bewaehrte Security-Praktiken beibehalten: Input-Validierung, sichere Authentifizierung, Zugriffskontrolle. Diese Grundlagen gelten fuer KI-Systeme genauso wie fuer jede andere Software.
- Tempo zuruecknehmen: Wenn eine KI-Produktversion ein bis zwei Monate spaeter erscheint, weil Sicherheitsreviews stattfinden, ist das ein akzeptabler Preis.
Einordnung
Der Kommentar trifft einen wunden Punkt. Die KI-Sicherheitsdebatte konzentriert sich ueberproportional auf neuartige Angriffsvektoren wie Prompt Injection oder Model Poisoning -- Themen, die akademisch interessant und langfristig relevant sind. Gleichzeitig entstehen die realen Schaeden durch Probleme, die die Branche seit zwanzig Jahren kennt und loesen kann. Die FOMO-getriebene Einfuehrung von KI reproduziert die Fehler frueherer Technologiewellen: Cloud-Migration ohne Sicherheitskonzept, IoT-Geraete mit Standardpasswoertern, agile Entwicklung ohne Security-Reviews. Das Muster ist bekannt. Die Frage ist, ob die Branche dieses Mal schneller lernt.
Quellen
- Kommentar: KI-FOMO frisst Sicherheit -- heise online, Sylvester Tremmel, 09.04.2026