CIA integriert KI-Assistenten flaechendeckend -- erster autonomer Geheimdienstbericht
Die CIA plant laut einem Politico-Bericht, KI-Assistenten in saemtliche Analyse-Plattformen der Agency zu integrieren. Deputy Director Michael Ellis erklaerte zudem, die CIA habe kuerzlich ihren ersten vollstaendig autonom generierten Intelligence-Report mit KI produziert. Ueber die kommenden Jahre sollen die Assistenten Analysten beim Verfassen von Assessments, beim Abgleich von Befunden und beim Erkennen von Trends unterstuetzen.
Wer ist Michael Ellis?
Ellis ist juristisch ausgebildeter Polit-Operator, kein Berufs-Intelligence-Officer. Geboren 1984, Dartmouth und Yale Law School, frueher Mitarbeiter im House Permanent Select Committee on Intelligence unter Devin Nunes, spaeter Senior Associate Counsel im White House Counsel Office und stellvertretender Rechtsberater des National Security Council der ersten Trump-Administration. Ende 2020 installierte die scheidende Trump-Regierung ihn kurzfristig als General Counsel der NSA; Direktor Paul Nakasone widersprach oeffentlich, die Biden-Administration setzte Ellis am Tag der Amtsuebergabe auf Administrative Leave. Zwischen den Trump-Regierungen war er General Counsel bei Rumble. Seit Februar 2025 ist Ellis der juengste Deputy Director in der Geschichte der CIA. Dass diese Personalie die Richtung der KI-Integration vorgibt, ist politisch bemerkenswert -- technisch aber nicht qualifizierend.
Was heisst "autonomer Report" in diesem Kontext?
Politico und Decoder bleiben bewusst vage. Im nachrichtendienstlichen Arbeitsprozess besteht ein Intelligence-Report aus mehreren Schritten: Sammeln von Rohdaten (SIGINT, HUMINT, OSINT), Quellenbewertung, Hypothesenbildung, Korroboration, Ausformulierung, interne Freigabe, Einordnung in einen Produktionszyklus (President's Daily Brief und verwandte Formate). "Vollstaendig autonom" kann im Grenzfall heissen, dass ein Modell aus vorverdauten Quellen ein Draft-Dokument erzeugt hat, das anschliessend von Menschen gegengelesen wurde -- oder aber, dass ein Agenten-System Schritt fuer Schritt recherchiert, zitiert und publiziert hat. Ellis betonte, menschliche Entscheider blieben zustaendig. Die CIA habe im vergangenen Jahr 300 KI-Projekte getestet, darunter Datenaufbereitung und Uebersetzung. Auch das erweiterte Center for Cyber Intelligence, das die verdeckten Hacking-Operationen der Agency steuert, soll staerker auf KI setzen.
Marktumfeld: Palantir, Anthropic, OpenAI, Scale AI
Die Ankuendigung faellt in eine Phase, in der die US-Regierung fast parallel mit allen grossen KI-Anbietern eigene Rahmenvertraege verhandelt. Palantir liefert mit Gotham seit Jahren die dominante Analyseplattform fuer US-Geheimdienste und das Verteidigungsministerium und hat Sprachmodell-Integration zum Teil seiner AIP-Suite gemacht. OpenAI hat mit "OpenAI for Government" ein dediziertes Vertragsmodell. Scale AI liefert seit laengerem Trainings- und Auswertungsdienste fuer das Pentagon. Anthropic hat einen Governance-Deal mit Regierungsstellen, steht aber derzeit im oeffentlichen Konflikt mit dem Pentagon, weil das Unternehmen vertraglich ausschliessen wollte, dass seine Modelle fuer toedliche Einsaetze oder Massenueberwachung genutzt werden. Das Pentagon hat Anthropic daraufhin als Supply-Chain-Risiko eingestuft. Ellis nutzte den Termin, um ohne Namensnennung in diese Richtung zu stossen: Die CIA werde sich von privaten Anbietern nicht vorschreiben lassen, wie sie deren Technologie nutzt. Welche Modelle oder Plattformen hinter dem "ersten autonomen Report" stehen, bleibt offen.
Risiken im nachrichtendienstlichen Einsatz
Drei Risikoklassen stechen hervor. Erstens Halluzinationen: Ein fabrizierter Satz in einem Presidential Daily Brief kann politische Entscheidungen bis hin zu militaerischen Eskalationen beeinflussen, lange bevor er widerlegt wird. Zweitens Prompt Injection ueber OSINT-Quellen: Sobald ein Analyse-Agent frei im Netz recherchiert, wird jede praeparierte Webseite, jeder Telegram-Kanal, jedes PDF zum potenziellen Injection-Vektor -- ein Angriffsmuster, das das Paper zu boesartigen MCP-Servern bereits fuer Entwickler-Agenten beschrieben hat und das im Geheimdienstkontext ungleich ernster wird. Drittens Attributionsprobleme: Wenn ein Modell Schlussfolgerungen zieht, laesst sich im Nachhinein kaum rekonstruieren, welche Quellen mit welchem Gewicht eingeflossen sind -- der klassische Audit-Trail, auf dem nachrichtendienstliche Bewertungen beruhen, wird zur Blackbox. Paul Scharre vom Center for New American Security hatte bereits im Zusammenhang mit dem US-Army-Chatbot Victor auf ein viertes Problem hingewiesen: Die Sycophancy-Tendenz grosser Sprachmodelle koennte Analysten in ihrer Hypothese bestaetigen, statt sie herauszufordern -- genau das Gegenteil des "red team"-Ethos, auf dem qualifizierte Intelligence-Analyse beruht.
Einordnung
Der CIA-Vorstoss ist ein weiterer Baustein in einer Reihe: nach Palantir fuer das Pentagon, nach Anthropics Bank-Angriffs-Angstreport, nach dem US-Army-Chatbot Victor jetzt die Agency selbst. Die inhaltliche Frage -- wer haftet, wenn ein autonom generierter Report falsch liegt -- bleibt in allen Meldungen ungeklaert. Die strukturelle Frage -- welche Berechtigungen ein Analyse-Agent auf klassifizierten Systemen hat und wie er auditiert wird -- verbindet sich direkt mit der Zero-Trust-Debatte um ueberprivilegierte Agenten, die der Teleport-Report und die InfoWorld-Analyse zeigen. Bemerkenswert ist die kommunikative Choreografie: Ein juristisch, nicht nachrichtendienstlich sozialisierter Deputy Director erklaert den autonomen Report zum Meilenstein -- und nutzt denselben Auftritt, um Unabhaengigkeit von Anbieter-Auflagen zu markieren. Das ist weniger eine technische als eine vertragspolitische Ansage.
Quellen
- CIA plans to integrate AI assistants into all analysis platforms -- The Decoder, Maximilian Schreiner, 10.04.2026
- Politico Original-Bericht (zitiert durch The Decoder) -- Politico, April 2026
- Michael Ellis (attorney) -- Wikipedia, Biografie und CIA-Amtszeit