Die Meldung klingt zunächst nach einem Kuriosum: Eine pro-iranische Medienorganisation namens "Explosive Media" produziert AI-generierte Stop-Motion-Clips im Lego-Look, in denen Donald Trump, Benjamin Netanyahu und weitere westliche Politiker in satirisch-propagandistischen Szenen auftreten. Die Videos gehen viral und erreichen auf westlichen Plattformen Millionenreichweiten. ArsTechnica und The Verge berichten übereinstimmend über den Fall -- und darüber, dass die Betreiber die Viralität ihrer Clips auf "Herz" zurückführen. Hinter dem skurrilen Framing verbirgt sich ein Präzedenzfall, der mehrere ungelöste Fragen der AI-Ära bündelt: staatliche Akteure, generative Video-Pipelines und die Grenzen plattformbasierter Moderation.
Was Explosive Media ist
Explosive Media präsentiert sich als pro-iranische Content-Operation, die in mehreren Sprachen Clips über den Nahost-Konflikt, die US-Außenpolitik und die Rolle Israels produziert. Die Organisation ist nicht als offizielles Staatsorgan des Iran deklariert, agiert aber inhaltlich im Gleichklang mit der Linie Teherans. Ob es sich um eine direkt gesteuerte Einheit, eine staatsnahe Stiftung oder ein lose organisiertes Netzwerk sympathisierender Aktivisten handelt, ist aus den vorliegenden Berichten nicht abschließend geklärt -- eine Ambiguität, die für moderne Influence-Operationen typisch ist. Genau diese Unschärfe macht die Zuordnung und damit auch regulatorische Gegenmaßnahmen schwierig.
Wie die Clips aussehen
Die Videos setzen auf eine Stop-Motion-Ästhetik mit Lego-ähnlichen Plastikfiguren. Trump tritt als gelbe Minifigur mit blonder Frisur auf, Netanyahu wird in Kabinettssitzungen, Bunker-Szenen und Kriegsraum-Settings inszeniert. Inhaltlich reichen die Clips von satirischen Überzeichnungen bis hin zu offen propagandistischen Darstellungen militärischer Eskalation und westlicher Doppelmoral. Welches konkrete Toolset Explosive Media einsetzt, geht aus den Berichten nicht eindeutig hervor; plausible Kandidaten sind aktuelle Text-to-Video-Modelle mit Stop-Motion- oder Brickfilm-Finetuning, kombiniert mit manueller Post-Produktion für Dialog, Schnitt und Sound. Die Tatsache, dass Explosive Media in hoher Frequenz veröffentlicht, deutet auf eine weitgehend automatisierte Pipeline hin -- nicht auf handgefertigte Animationen.
Warum es funktioniert
Die Wahl der Lego-Ästhetik ist strategisch klug, und zwar aus drei Gründen.
Erstens umgeht sie das Uncanny-Valley-Problem klassischer Deepfakes. Fotorealistische Trump- oder Netanyahu-Videos lösen sofort Alarm aus und werden von Detection-Pipelines zuverlässiger erkannt. Eine Lego-Figur mit gelbem Gesicht ist offenkundig keine dokumentarische Aufnahme -- und damit bestehen die klassischen Deepfake-Warnsysteme den Test nicht mehr, weil der Täuschungsvorwurf technisch ins Leere läuft.
Zweitens nutzt die Stilisierung das Satire-Framing als Schutzschild. Plattformen wie X, TikTok, Instagram und YouTube haben Policies gegen manipulierte Medien, aber Ausnahmen für Parodie, Satire und Kommentar. Ein offensichtlich stilisierter Clip lässt sich weit schwerer als "Desinformation" klassifizieren als ein fotorealistisches Fake-Video -- selbst wenn die transportierte Botschaft dieselbe ist. Moderation wird von der Oberfläche (ist das Bild echt?) auf die Tiefenebene (ist die Botschaft irreführend?) verschoben, und auf dieser Ebene operieren Content-Moderatoren schlechter.
Drittens passt das Lego-Format in die Aufmerksamkeitsökonomie sozialer Netzwerke. Die Clips sind kurz, visuell eigenständig, für Shorts und Reels optimiert und triggern Kuriositätsklicks. Viralität entsteht nicht durch politische Überzeugungskraft, sondern durch algorithmische Belohnung neuartiger Formate.
Was das für Platform-Moderation bedeutet
Die großen Video-Modelle -- Sora 2, Veo 3, Runway Gen-4 -- haben im Lauf von 2025 Sicherheitsleitplanken gegen die Darstellung öffentlicher Personen, insbesondere aktiver Politiker, eingezogen. Der Explosive-Media-Fall zeigt, wie diese Restriktionen durch Stilisierung und Abstraktion umgangen werden können. Eine Lego-Figur mit der typischen Trump-Silhouette ist technisch keine Likeness-Verletzung im engeren Sinn, transportiert aber dieselbe Referenz. Prompt-Filter, die auf Namen und Gesichtsähnlichkeit prüfen, greifen hier nicht zuverlässig.
Hinzu kommt die ökonomische Asymmetrie. Die Produktionskosten eines solchen Clips bewegen sich im niedrigen zweistelligen Dollar-Bereich -- API-Credits, minimaler menschlicher Aufwand, keine Schauspieler, keine Animationssoftware-Lizenzen. Staatliche oder staatsnahe Akteure können damit in Großskala A/B-testen, welches Format welche Reichweite erzeugt. Die klassische Propaganda-Ökonomie mit teurer Produktion und engen Redaktionsressourcen ist ausgehebelt.
Einordnung
Explosive Media ist kein Ausreißer, sondern ein Vorbote. Der US-Wahlkampf 2028 steht bereits im Kalender, und die Iteration generativer Video-Modelle beschleunigt sich weiter. Wenn eine vergleichsweise kleine Operation heute mit Lego-Ästhetik Millionen Views erzielt, ist absehbar, dass professionalisierte Akteure -- chinesische, russische, iranische Influence-Operationen ebenso wie innenpolitische Gruppen -- den Ansatz übernehmen und verfeinern. Die Strukturverschiebung liegt nicht im einzelnen Clip, sondern im Volumen: AI senkt die Grenzkosten von Propaganda-Video auf nahezu null.
Für klassische Factcheck-Pipelines bedeutet das eine Grenze ihrer Wirksamkeit. Factchecks adressieren Faktenbehauptungen; sie sind schlecht darin, affektive Framings zu neutralisieren, die sich hinter Satire verstecken. Plattformen werden entscheiden müssen, ob sie stilisierte Politiker-Darstellungen grundsätzlich unter die Manipulated-Media-Policies fassen -- mit dem Risiko, legitime Karikaturtraditionen zu beschädigen -- oder das Feld offen lassen und auf Labeling und Herkunftskennzeichnung setzen. Beide Wege sind unbefriedigend. Der Explosive-Media-Fall macht sichtbar, dass die Debatte nicht mehr verschoben werden kann.
Quellen
- Pro-Iran "Explosive Media" trolls Trump with AI-generated Lego cartoons - ArsTechnica, 2026-04-10
- Explosive Media, Lego, Iran, War, Trump, Netanyahu - The Verge, 2026-04-10