27. März 2026

Bundesrichterin Rita F. Lin am US-Bezirksgericht in San Francisco hat Trumps Verbot von Anthropic-AI-Modellen blockiert. In ihrer Begruendung bezeichnete sie die Sicherheitsrisiko-Einstufung des Unternehmens durch die Regierung als "Orwellian" und das gesamte Vorgehen als "classic illegal First Amendment retaliation".

Das Urteil

Die Richterin wies die -- woertlich -- "Orwellian notion" zurueck, dass ein US-Unternehmen als "potential adversary and saboteur" gebrandmarkt werden koenne, nur weil es Widerspruch gegen die Regierung aeussere. Die Trump-Administration hatte Anthropic zuvor mit Restriktionen belegt, nachdem sich das Unternehmen oeffentlich kritisch zur AI-Politik der Regierung geaeussert hatte.

Das Urteil stuetzt sich auf den Ersten Verfassungszusatz (First Amendment), der unter anderem die Meinungsfreiheit schuetzt. Die Richterin sah in den Restriktionen eine direkte Vergeltungsmassnahme fuer politische Aeusserungen -- ein Muster, das verfassungsrechtlich nicht haltbar ist.

Hintergrund

Anthropic hatte sich in den vergangenen Monaten mehrfach oeffentlich zur AI-Regulierung positioniert und dabei Positionen vertreten, die den Plaenen der Trump-Regierung widersprachen. Daraufhin stufte die Administration die Modelle des Unternehmens als Sicherheitsrisiko ein und versuchte, deren Einsatz einzuschraenken.

Einordnung

Der Fall steht exemplarisch fuer die zunehmende Politisierung des AI-Sektors in den USA. Er zeigt, dass Tech-Unternehmen, die sich oeffentlich kritisch zur Regierungspolitik aeussern, mit regulatorischen Konsequenzen rechnen muessen -- und dass die Justiz bereit ist, solche Massnahmen als verfassungswidrig einzustufen, wenn sie als politische Vergeltung erkennbar sind.

Fuer die AI-Branche insgesamt staerkt das Urteil die Position von Unternehmen, die sich am politischen Diskurs beteiligen. Gleichzeitig verdeutlicht es die Risiken, die mit einer offenen Konfrontation mit der Exekutive verbunden sind.

Hintergrund: Anthropic vs. OpenAI Narrativ

Ein Bericht von Sam Altmans Biograf Keach Hagey (via The Decoder) beleuchtet die Urspruenge der Abspaltung. Laut dem Bericht sieht sich Anthropic intern als "Antidot" zu OpenAIs Ansatz -- den das Unternehmen mit der "Tabakindustrie" vergleicht: ein Akteur, der die Risiken seines Produkts kennt, sie aber systematisch herunterspielt, um Marktanteile zu sichern.

Die Gruendungsgeschichte von Anthropic war demnach nicht allein Safety-motiviert. Persoenliche Rivalitaeten und Machtkampf zwischen den damaligen OpenAI-Fuehrungskraeften spielten eine zentrale Rolle. Das Safety-Narrativ lieferte den oeffentlich legitimen Rahmen fuer eine Trennung, die auch andere Ursachen hatte.

Das Narrativ ist insofern relevant, als es die Positionierung von Anthropic bis heute praegt -- gegenueber Investoren, Regulierern und in der oeffentlichen Debatte. Das aktuelle Gerichtsverfahren gegen die Trump-Regierung ist auch vor diesem Hintergrund zu lesen: Anthropic gibt sich als das verantwortungsbewusste Gegenmodell.

Update 3. April: US-Regierung legt Berufung ein

Die Trump-Administration hat gegen den Beschluss von Richterin Lin Berufung eingelegt. Heise berichtet, dass die Regierung den Sanktionsstopp anfechtet und das Verfahren vor das Berufungsgericht bringt. Konkret hatte die Regierung Anthropic als "Supply Chain Risk" eingestuft, nachdem das Unternehmen den Einsatz seiner KI fuer Massenueberwachung und vollautonome Kriegsfuehrung verweigert hatte. Damit bleibt der Fall offen -- die einstweilige Verfuegung gilt vorerst weiter, aber Anthropic muss sich auf ein laengeres Verfahren einstellen.

Die Berufung signalisiert, dass die Administration nicht bereit ist, den Praezedenzfall einer gerichtlichen Blockade ihrer AI-Restriktionen hinzunehmen. Fuer die gesamte AI-Branche wird das Berufungsverfahren wegweisend: Es wird klaeren, wie weit die Exekutive gehen kann, wenn sie einzelne AI-Unternehmen aus politischen Gruenden sanktioniert.

Update 9. April: Berufungsgericht kippt einstweilige Verfügung

Das Berufungsgericht hat die einstweilige Verfügung von Richterin Lin aufgehoben. Damit darf die US-Regierung vorerst an der Supply-Chain-Risk-Einstufung von Anthropic festhalten. Die Richter lehnten den Antrag ab, die Blockade des Pentagons während des laufenden Verfahrens zu stoppen.

Konkret bedeutet das: Das Blacklisting von Anthropic durch das Pentagon bleibt in Kraft, während der Fall weiter verhandelt wird. Für Anthropic ist das ein erheblicher Rückschlag -- die Einstufung als Lieferketten-Risiko schränkt die Möglichkeiten ein, mit US-Regierungsbehörden zusammenzuarbeiten.

Die Entscheidung ist kein endgültiges Urteil. Das Berufungsverfahren läuft weiter. Aber der Etappensieg für die Regierung signalisiert, dass die Gerichte bereit sein könnten, der Exekutive bei der Einstufung von AI-Unternehmen als Sicherheitsrisiko mehr Spielraum einzuräumen als zunächst erwartet.

Quellen

Nach oben