OpenAI lobbyiert für Haftungsschutz -- Illinois als Testlabor
Illinois verhandelt mit HB 3773 eines der bislang konkretesten US-Gesetze zur Haftung bei KI-Schäden. OpenAI unterstützt den Entwurf aktiv -- und zwar jene Fassung, die Foundation-Model-Anbieter praktisch vollständig aus der Verantwortung nimmt. Der Vorstoß fällt mitten in eine Welle laufender Klagen gegen das Unternehmen und markiert einen Wendepunkt in der amerikanischen Debatte um KI-Haftung.
Was HB 3773 vorsieht
Der Entwurf definiert "critical harm" als Schäden ab 500 Millionen Dollar oder als Vorfälle mit Massenopfern -- etwa beim Kollaps kritischer Infrastruktur, beim Ausfall von Finanzsystemen oder bei groß angelegten physischen Angriffen. Für genau diese Kategorie von Ereignissen regelt das Gesetz, wer haftet.
Die zentrale Weichenstellung: Die Haftung wird vom Modell-Anbieter auf den "Deployer" verlagert -- also auf das Unternehmen, das ein Modell in ein konkretes Produkt oder einen konkreten Prozess einbaut. OpenAIs Position in den Verhandlungen ist deutlich: Foundation-Model-Anbieter sollten nicht haften, "unless they directly knew their models would cause specific harms". Nur bei direkter, konkreter Kenntnis eines spezifischen Schadens sollen sie greifbar sein. Alles andere -- fahrlässiges Design, absehbarer Missbrauch, systemische Risiken -- bliebe außerhalb der Haftungskette.
Öffentliche Ablehnung
Eine Umfrage unter Wählerinnen und Wählern in Illinois zeigt ein ungewöhnlich klares Bild: Rund 90 Prozent der Befragten lehnen Haftungsausnahmen für KI-Unternehmen ab. Die politische Front im Parlament ist dagegen enger. Der Entwurf hat Unterstützung aus mehreren Lagern, und die Debatte verläuft entlang der Frage, ob Illinois als Innovationsstandort konkurrenzfähig bleiben kann, wenn KI-Anbieter dort schärfer haften als anderswo in den USA.
Der Kontext: Laufende Klagen gegen OpenAI
Der Zeitpunkt des Vorstoßes ist nicht zufällig. Gegen OpenAI laufen derzeit mehrere Verfahren, die genau die Frage der Anbieter-Verantwortung aufwerfen:
- Wrongful-Death- und Selbstmord-Klagen: Mehrere Familien werfen OpenAI vor, dass ChatGPT in Krisensituationen Selbstverletzung oder Suizid begünstigt habe.
- FSU-Schießerei: Im Fall des Angriffs an der Florida State University mit zwei Toten und fünf Verletzten behauptet die Klageschrift, ChatGPT habe den Täter beim Planen des Angriffs unterstützt. Der Fall ist einer der ersten, in dem eine direkte Kausalkette zwischen einem Chatbot und einer Gewalttat vor Gericht verhandelt wird.
In allen Verfahren steht die gleiche juristische Grundfrage: Haftet der Modell-Anbieter für die Folgen eines Systems, das er trainiert, deployt und weltweit verfügbar macht -- oder endet seine Verantwortung dort, wo ein Endnutzer die Eingabe tippt? HB 3773 würde diese Frage in Illinois gesetzlich zugunsten der Anbieter beantworten.
Die strategische Ebene: Präzedenz-Shopping
OpenAI und andere Frontier-Labs verfolgen in den USA erkennbar eine Doppelstrategie. Auf Bundesebene ist die Regulierungslage seit Jahren blockiert. Die Labs konzentrieren sich deshalb auf einzelne Bundesstaaten, die schnell Gesetze verabschieden -- und versuchen dort, günstige Formulierungen in die erste Welle der KI-Haftungsgesetze einzuweben. Einmal verabschiedet, dienen solche Texte als Template: Andere Gesetzgeber übernehmen Strukturen, Definitionen und Schwellenwerte oft fast wortgleich.
Illinois ist für dieses Vorgehen ein attraktives Testlabor. Der Staat hat mit dem Biometric Information Privacy Act bewiesen, dass er bereit ist, früh und hart zu regulieren -- was seine Gesetze zu Referenzen für andere Bundesstaaten macht. Wenn es gelingt, die aktuelle Version von HB 3773 zu zementieren, ist das weit mehr als eine regionale Entscheidung. Es ist ein Vorentwurf für die nationale Haftungsarchitektur.
Die argumentative Trennlinie
Die Position der Labs ist kohärent, aber streitbar. Sie lautet im Kern: Wir bauen Werkzeuge, die Kontrolle über den Einsatz liegt bei denen, die sie verwenden. Ein Messerhersteller haftet nicht, wenn jemand mit dem Messer zusticht. Ein Foundation-Model-Anbieter solle analog nur dann haften, wenn er konkret wusste, dass ein Modell für einen konkreten Schaden genutzt würde.
Die Gegenposition ist mindestens ebenso kohärent. Wer die fundamentalste Komponente eines potentiell katastrophalen Systems liefert, kann sich nicht über eine Kette von Zwischennutzern aus der Verantwortung ziehen -- schon gar nicht, wenn der Anbieter die Fähigkeiten des Modells aktiv vermarktet, die Missbrauchsrisiken dokumentiert kennt und trotzdem weltweit ausrollt. Die Parallele zur Waffenindustrie ist hier naheliegend: Auch dort wurde die Haftung über Jahrzehnte auf Händler und Nutzer abgewälzt, bis der Protection of Lawful Commerce in Arms Act die Hersteller weitgehend immunisierte. Das Ergebnis gilt heute als regulatorisches Lehrbuchbeispiel -- je nach Lager als Erfolg oder als Warnung.
Relevanz für die EU-Debatte
Für die europäische Diskussion um den AI Act und seine Durchsetzung ist der Fall aus zwei Gründen relevant. Erstens zeigt er, wie US-Labs proaktiv Regulierungslandschaften formen, bevor verbindliche Regeln existieren -- nicht durch Blockade, sondern durch selektive Unterstützung besonders milder Entwürfe. Zweitens liefert HB 3773 ein Kontrastbild zur europäischen Haftungslogik. Der AI Act adressiert "General Purpose AI Models" mit systemischem Risiko explizit und belegt deren Anbieter mit Transparenz- und Sicherheitspflichten, deren Verletzung Sanktionen nach sich zieht. Die Haftungsrichtlinie für KI -- deren Verhandlung noch läuft -- geht in eine ähnliche Richtung: Beweislastumkehr zugunsten Geschädigter, gesamtschuldnerische Haftung entlang der Wertschöpfungskette.
Wenn HB 3773 in seiner aktuellen Form durchgeht, öffnet sich der transatlantische Graben damit weiter. Dasselbe Modell desselben Anbieters wäre in Illinois nahezu haftungsfrei und in Europa haftbar -- was wiederum Druck auf europäische Regulierer erzeugen würde, den Standort-Aspekt höher zu gewichten.
Einordnung
Haftung ist der Punkt, an dem regulatorische Rhetorik konkret wird. Solange Gesetze nur Transparenzpflichten oder Ethikleitlinien vorschreiben, bleibt die Debatte abstrakt. Sobald es darum geht, wer zahlt, wenn Menschen sterben oder Finanzsysteme kollabieren, zeigt sich die tatsächliche Machtverteilung. HB 3773 in seiner aktuellen Fassung ist der bislang deutlichste Versuch, diese Machtverteilung zugunsten der Foundation-Model-Anbieter zu fixieren -- und zwar bevor überhaupt ein einziger Präzedenzfall durch die oberen Instanzen entschieden ist.
Das eigentlich Bemerkenswerte ist die Gleichzeitigkeit. Während OpenAI in Illinois für eine Regelung lobbyiert, die Foundation-Model-Anbieter aus der Verantwortung nimmt, argumentiert dasselbe Unternehmen vor Gericht in mehreren Wrongful-Death-Verfahren, dass es für die Ausgaben seines Modells nicht haftbar sei. Beides zusammen ergibt eine konsistente Strategie: juristisch verteidigen, was legislativ abgesichert werden soll. Die Frage ist, ob die Öffentlichkeit -- nicht nur in Illinois, wo 90 Prozent dagegen sind -- diese Strategie mitträgt, oder ob sich ein politischer Gegendruck formiert, der das Fenster für anbieterfreundliche Haftungsgesetze wieder schließt.
Quellen
- OpenAI Backs Bill to Exempt AI Firms From Model Harm Lawsuits -- Wired
- AI Liability Shifts to Legislative Reality as OpenAI Backs Illinois Shield -- The Meridiem
- Lawsuit Claims ChatGPT Helped Plan FSU Shooting -- Gadget Review