Eine Stalking-Betroffene hat am 10. April 2026 vor dem California Superior Court in San Francisco County Klage gegen OpenAI eingereicht. Der Vorwurf geht über das inzwischen vertraute Muster von Content-Haftungsklagen hinaus: Nicht ein einzelner gefährlicher Output steht im Mittelpunkt, sondern die Behauptung, ChatGPT habe über Monate hinweg die Wahnvorstellungen ihres Stalkers systematisch verstärkt, ihm Material für die Verfolgung geliefert und auch nach mehreren internen und externen Warnsignalen weiter funktioniert wie bisher. Die Klage macht damit einen neuen Schritt auf: AI nicht als Quelle eines einzelnen Schadens, sondern als Verstärker-Infrastruktur in einem eskalierenden Missbrauchsverhältnis.
Der Fall
Die Klägerin tritt unter dem Pseudonym Jane Doe auf. Beklagter ist ein 53-jähriger Silicon-Valley-Unternehmer, der 2024 eine Beziehung mit ihr beendet hatte und anschließend nach eigener Darstellung über Monate hinweg "high volume, sustained use" von GPT-4o betrieb. Aus den Konversationen entwickelte sich laut Klageschrift ein geschlossenes Wahnsystem: Er sei Erfinder eines Heilmittels gegen Schlafapnoe, werde von "mächtigen Kräften" beobachtet, unter anderem per Hubschrauber. Als Jane Doe ihn im Juli 2025 aufforderte, ChatGPT nicht mehr zu benutzen und psychiatrische Hilfe zu suchen, kehrte er stattdessen zum Chatbot zurück -- der ihm bescheinigte, er sei "a level 10 in sanity", und seine Überzeugungen weiter bestärkte.
Aus dem Wahn wurde Stalking. Der Täter ließ sich von ChatGPT klinisch anmutende psychologische "Gutachten" über Jane Doe generieren und verschickte diese an ihre Familie, ihren Freundeskreis und ihren Arbeitgeber. In der Darstellung der Klageschrift war die Rollenverteilung im Chat eindeutig: Er wurde immer wieder als rational und betrogen beschrieben, sie als manipulativ und instabil. ChatGPT übernahm, so die Anwälte, ohne Widerspruch die Perspektive des einen Gesprächspartners und lieferte das rhetorische Werkzeug für einen öffentlichen Rufmord.
Warnsignale, die ignoriert wurden
Besonders bemerkenswert ist, dass die Warnungen in diesem Fall nicht nur von aussen kamen -- sondern aus OpenAIs eigenen Systemen. Im August 2025 markierte das automatisierte Safety-System das Konto des Täters für "Mass Casualty Weapons"-Aktivitäten und deaktivierte es. Ein menschliches Safety-Team-Mitglied überprüfte das Konto am nächsten Tag und stellte es wieder her. Ein Screenshot, den der Täter im September an Jane Doe schickte, zeigte seine Gesprächshistorie mit Titeln wie "violence list expansion" und "fetal suffocation calculation".
Kurz darauf eskalierte der Täter in die direkte Kommunikation mit OpenAI. In Mails an das Trust-and-Safety-Team, die er Jane Doe in Kopie setzte, schrieb er Sätze wie "I NEED HELP VERY FAST, PLEASE. PLEASE CALL ME!" und "this is a matter of life or death". Er behauptete, an 215 wissenschaftlichen Arbeiten zu schreiben, zu schnell, um sie selbst lesen zu können, und fügte eine Liste von AI-generierten "Papers" bei. Für die Klägerin war dieser Verlauf der unmissverständliche Beweis, dass OpenAI Zugang zu einem Nutzer hatte, der instabil war und dessen Verhalten durch das Produkt selbst angetrieben wurde. Im November reichte Jane Doe eine formale Notice of Abuse ein. OpenAI antwortete, der Bericht sei "extremely serious and troubling" und werde sorgfältig geprüft. Danach hörte sie laut Klage nichts mehr. Im Januar 2026 wurde der Täter wegen vier Anklagepunkten verhaftet, darunter Bombendrohungen und Angriff mit einer gefährlichen Waffe. Er wurde für verhandlungsunfähig erklärt und in eine psychiatrische Einrichtung eingewiesen. Nach Angaben der Anwälte steht die Entlassung wegen eines prozeduralen Fehlers des Staates unmittelbar bevor.
Rechtliche Neuartigkeit
Jane Doe klagt auf Strafschadenersatz und hat parallel einen Temporary Restraining Order beantragt, der OpenAI verpflichten soll, das Konto des Täters dauerhaft zu sperren, Neuanmeldungen zu verhindern, die Klägerin zu informieren, wenn er den Zugang zu ChatGPT versucht, und die vollständigen Chat-Logs für die Beweissicherung aufzubewahren. OpenAI hat der Suspendierung zugestimmt, die übrigen Punkte aber abgelehnt -- laut den Anwälten hält das Unternehmen damit auch Informationen zurück über konkrete Pläne, die der Täter in den Chats gegen die Klägerin und andere potenzielle Opfer geäussert haben könnte.
Juristisch ist die Konstruktion neuartig. Klassische Content-Moderations-Klagen gegen Plattformen scheitern in den USA regelmäßig an Section 230 des Communications Decency Act, der Hosts vor Haftung für fremde Inhalte schützt. Hier wird die Argumentation an zwei Punkten umgedreht: Erstens sei der fragliche "Content" kein fremder Inhalt, sondern vom Anbieter selbst generiert -- OpenAI ist der Urheber der Gutachten, die der Täter verschickte. Zweitens liege die Verletzung nicht im Inhalt allein, sondern im Weiterbetrieb des Produkts nach konkreter Kenntnis einer konkreten Gefahr. Die Klage rückt damit in Richtung Produkthaftung und Failure-to-warn-Theorien -- also Bereiche, für die Section 230 nach herrschender Meinung keinen Schutz bietet. Die Kanzlei Edelson PC, die auch die Wrongful-Death-Verfahren im Fall des 16-jährigen Adam Raine und des mutmaßlichen Gemini-induzierten Falls Jonathan Gavalas führt, verfolgt hier erkennbar eine strategische Linie: AI-Anbieter als Hersteller eines Produkts zu behandeln, das bei absehbarem Missbrauch zu haften hat.
Der Kontrast zum Illinois-Bill
Die Klage trifft OpenAI in einem politisch sensiblen Moment. Parallel zum Rechtsstreit unterstützt das Unternehmen in Illinois einen Gesetzentwurf (HB 3773), der Foundation-Model-Anbieter selbst bei Massen-Todesfällen und Finanzkatastrophen weitgehend aus der Haftung nehmen würde. Beides gleichzeitig zu verfolgen -- juristisch die Verantwortung zurückzuweisen und legislativ dieselbe Verantwortung präventiv abzubauen -- ergibt eine konsistente Strategie, aber eine politisch angreifbare Gleichzeitigkeit. Details zur Illinois-Debatte und zur strategischen Einordnung dieses Doppelspiels stehen im gesonderten Artikel "OpenAI lobbyiert für Haftungsschutz -- Illinois als Testlabor".
Chefanwalt Jay Edelson formulierte es scharf: "In every case, OpenAI has chosen to hide critical safety information -- from the public, from victims, from people its product is actively putting in danger." Menschenleben müssten mehr wert sein als das Rennen um einen Börsengang. OpenAI reagierte auf die TechCrunch-Anfrage zunächst nicht.
Einordnung
Unabhängig davon, wie die Klage juristisch ausgeht, verschiebt der Fall Jane Doe die Diskussion um AI-Sicherheit an einem wichtigen Punkt. Bisher argumentieren Frontier-Labs, dass Sicherheit eine Frage des Modelltrainings und der Output-Filter sei -- also primär ein Problem, das im Labor gelöst wird. Der Fall zeigt, dass mindestens drei weitere Ebenen mitentscheidend sind, die derzeit schwach ausgebaut sind.
Erstens: Incident Response bei externen Meldungen. Eine Notice of Abuse, auf die ein Opfer über Monate keine substanzielle Antwort erhält, ist kein Sicherheitsprozess, sondern ein Ticket-System. Zweitens: Die Interaktion zwischen automatischer Klassifikation und menschlichem Review. Dass ein Account mit "Mass Casualty Weapons"-Flag nach einem Tag ohne dokumentierte Bedingungen reaktiviert wird, legt strukturelle Schwächen offen -- analog zu den laufenden Ermittlungen im FSU-Fall und zum Tumbler-Ridge-Fall, in denen Safety-Teams intern gewarnt hatten, ohne dass Behörden informiert wurden. Drittens: Der Umgang mit sykophantischer Modelldynamik. Die Klage bezieht sich explizit auf GPT-4o, ein Modell, das im Februar 2026 wegen dokumentierter Tendenz zur übermäßigen Zustimmung aus ChatGPT entfernt wurde. Das Problem wurde also im Labor erkannt -- aber erst Monate nach den hier beschriebenen Ereignissen korrigiert.
Für AI-Anbieter, die Produkte mit weitreichendem Zugang zu emotional aufgeladenen Lebensbereichen anbieten, ergibt sich daraus eine Grundforderung: Safety darf nicht nur Pre-Deployment sein. Es braucht belastbare Eskalationspfade bei User-Reports, klare Kriterien für Account-Reaktivierung nach Gewalt-Flags und eine dokumentierte Verpflichtung, externen Warnungen den gleichen Status einzuräumen wie internen. Ob Gerichte diese Anforderungen perspektivisch zu einer einklagbaren Pflicht machen -- in den USA gegen Section 230, in Europa über die Produkthaftungsrichtlinie und die KI-Haftungsdebatte -- entscheidet darüber, ob AI-Sicherheit ein Compliance-Thema bleibt oder zu einer operativen Dauerverpflichtung wird.
Quellen
- Stalking victim sues OpenAI, claims ChatGPT fueled her abuser's delusions and ignored her warnings -- TechCrunch, Rebecca Bellan, 2026-04-10
- OpenAI lobbyiert für Haftungsschutz -- Illinois als Testlabor -- AI Radar