7. April 2026

Zwei Nachrichten, die zusammengehoeren: Die EU-Institutionen setzen auf Authentizitaet und streichen KI-generierte Bilder aus ihrer Kommunikation. Gleichzeitig zeigt die Praxis der polizeilichen Gesichtserkennung in Deutschland, dass der Staat KI-Technologie im Sicherheitsbereich massiv ausbaut. Die Gleichzeitigkeit ist kein Widerspruch -- sie zeigt die Spannbreite der europaeischen KI-Politik.

KI-Bilder raus aus der EU-Kommunikation

EU-Kommission, Europaeisches Parlament und EU-Ministerrat haben ihren Presseteams untersagt, vollstaendig KI-generierte Videos und Bilder in der offiziellen Kommunikation zu verwenden. Ein Kommissions-Sprecher begruendete gegenueber Politico: Das fuer Journalisten und Oeffentlichkeit bereitgestellte Material solle "frei von KI-Inhalten" bleiben, um "das Vertrauen der Buerger zu foerdern, wobei Authentizitaet oberste Prioritaet" geniesse.

Technische Optimierungen zur Verbesserung der Bildqualitaet bleiben unter strengen Auflagen zulaessig. Die Grenze verlaeuft also zwischen KI als Werkzeug (erlaubt) und KI als Quelle (verboten).

Kommunikationsberater sehen das kritisch: Ein totaler Verzicht koenne die EU in der digitalen Diplomatie bremsen, besonders bei schnellen geopolitischen Krisen, in denen visuelle Kommunikation entscheidend sei.

Gesichtserkennung: Verdopplung in einem Jahr

Waehrend die EU in der Aussenkommunikation auf Authentizitaet setzt, zeigen aktuelle Zahlen eine massive Ausweitung der polizeilichen Gesichtserkennung in Deutschland:

Das polizeiliche Gesichtserkennungssystem (GES) beim BKA existiert seit 2008. Seit September 2024 laeuft ein KI-basiertes Upgrade mit einer Fehlerrate unter einem Prozent. Die Erfolgsquote der Bundespolizei: 5.328 direkte Treffer, jeder sechste Suchlauf fuehrt zum Ergebnis. Bei den Kriminalaemtern waren es 1.833 Identifizierungen und rund 22.000 Ermittlungshinweise. Eine mobile App der hessischen Polizei ermoeglicht inzwischen Smartphone-Abgleiche vor Ort.

Kritik: Strukturelle Verzerrung

Rechtswissenschaftler warnen vor "digitaler Stigmatisierung": Ueber 50 Prozent der Eintraege in der Inpol-Datenbank betreffen Asylsuchende oder Personen mit abgelehntem Aufenthaltsstatus. Personen aus soziooeokonomisch schwachen Schichten und als auslaendisch wahrgenommene Menschen landen ueberproportional in den Datenbanken -- und werden dadurch bei kuenftigen Delikten leichter identifiziert. Das System verstaerkt bestehende Ungleichheiten.

Einordnung

Die beiden Entwicklungen stehen stellvertretend fuer eine grundsaetzliche Spannung in der europaeischen KI-Politik: Auf der einen Seite der Anspruch, Vertrauen und Authentizitaet zu schuetzen. Auf der anderen Seite die Bereitschaft, KI-gestuetzte Ueberwachungsinstrumente im Sicherheitsbereich schnell und breit einzusetzen -- mit einer Datengrundlage, die strukturelle Verzerrungen aufweist.

Der AI Act adressiert beide Bereiche: Deepfake-Transparenzpflichten auf der einen, Hochrisiko-Einstufung biometrischer Systeme auf der anderen Seite. Ob die Regulierung mit dem Tempo der Praxis mithalt, ist offen.

Quellen

Nach oben