Drei Policy-Themen, die zeigen, wie unterschiedlich Regierungen und Unternehmen mit den Grenzen von AI-Systemen umgehen.
BKA: Modulare Analyse statt Palantir
Die Bundesregierung bremst beim Ausbau digitaler Ueberwachungskapazitaeten fuers BKA. Statt auf US-Software von Palantir zu setzen, wird ein modulares Analysesystem favorisiert. Heise titelt treffend "Phantom Palantir" -- die Entscheidung bewegt sich im Spannungsfeld zwischen effektiver Terrorabwehr und dem Schutz persoenlicher Daten. Angesichts der laufenden europaeischen Petition gegen Palantir-Einsatz ist der deutsche Kurs ein Signal, dass zumindest auf Bundesebene eine gewisse Distanz gewahrt werden soll.
Robotaxi-Transparenz: Sieben Firmen mauern
Aurora, May Mobility, Motional, Nuro, Tesla, Waymo und Zoox haben alle verweigert, offenzulegen, wie oft ihre autonomen Fahrzeuge menschliche Fernhilfe benoetigen. Hintergrund ist eine Untersuchung von US-Senator Ed Markey. Die Frage, wie autonom "autonom" wirklich ist, hat direkte Relevanz fuer europaeische Regulierung: Wenn selbst die Hersteller keine Transparenz ueber Systemgrenzen herstellen, fehlt die Grundlage fuer informierte Zulassungsentscheidungen.
Gemini-Familiensperre: Plattformmacht trifft Moderation
Ein Teenager hat sich vor Gemini Live -- Googles Video-AI -- ausgezogen. Googles Reaktion: Komplette Sperrung aller Google-Dienste fuer die gesamte Familie. Der Fall, urspruenglich auf Reddit (/r/LegalAdviceUK) geschildert und auf Hacker News breit diskutiert, illustriert zwei Probleme gleichzeitig. Erstens die Schwaeche von AI-Moderation bei unerwarteten Nutzungsszenarien. Zweitens die enorme Macht von Plattform-Sperren, wenn ein einzelner Anbieter Mail, Cloud-Speicher, Kalender und AI-Dienste kontrolliert.
Bund veroeffentlicht Open-Source KI-Werkzeuge
Das Bundesministerium fuer Digitales und Sicherheit (BMDS) hat unter dem Projektnamen "Spark" quelloffene KI-Module veroeffentlicht, die Planungsprozesse in der Verwaltung beschleunigen sollen. Die Software ist auf OpenCode verfuegbar, der Open-Source-Plattform des Bundes. Heise titelt dazu "Public Money, Public Code" -- ein klares Signal in Richtung digitale Souveraenitaet. Der Schritt passt zur uebergeordneten Linie, die sich auch beim BKA-Thema zeigt: Eigenstaendige Loesungen statt Abhaengigkeit von US-Anbietern. Ob Spark in der Praxis Wirkung entfaltet, haengt davon ab, wie schnell Verwaltungen die Module tatsaechlich adoptieren.
EU verbietet AI-Content in offiziellen Mitteilungen
Kommission, Parlament und Rat haben ihren Presseteams untersagt, vollstaendig KI-generierte Inhalte in offiziellen Mitteilungen zu verwenden. Politico berichtete zuerst, The Decoder griff die Meldung auf. Die Regelung ist eher symbolisch als substanziell -- Experten sehen eine verpasste Chance, verbindlichere Standards fuer den Umgang mit generativer KI im oeffentlichen Sektor zu setzen. Der Kern des Problems bleibt unberuehrt: Wo genau die Grenze zwischen "KI-unterstuetzt" und "KI-generiert" liegt, definiert die Richtlinie nicht.
Quellen
- Phantom Palantir: Bundesregierung bremst bei neuer Analysesoftware fuers BKA - Heise, 2026-04-01
- Robotaxi companies refuse to say how often their AVs need remote help - TechCrunch, 2026-03-31
- Google sperrt Familie nach Gemini-Missbrauch - Reddit via Hacker News
- Public Money, Public Code: Bund veroeffentlicht KI-Module fuer die Verwaltung - Heise, 2026-04-01
- EU bars AI-generated content from official communications - The Decoder, 2026-04-01