AI-Homogenisierung und das Agentic Web -- drei Perspektiven auf die Gleichschaltung
Drei Nachrichten aus einer Woche, die zusammengehoeren: Eine USC-Studie belegt, dass KI menschliches Denken und Schreiben vereinheitlicht. Tests zeigen, dass Googles AI Overviews zuverlaessig Falschaussagen produzieren. Und ein Analyst beschreibt, wie AI-Agenten das Web grundlegend umbauen. Gemeinsam ergeben sie ein Bild: KI wird zum universellen Vermittler zwischen Mensch und Information -- und diese Vermittlung hat Nebenwirkungen.
1. KI macht uns gleich denken und schreiben
Ein Meinungsbeitrag in Trends in Cognitive Sciences (DOI: 10.1016/j.tics.2026.01.003) von Zhivar Sourati, Alireza S. Ziabari und Morteza Dehghani (USC Dornsife) dokumentiert einen Effekt, den die Autoren "kognitive Homogenisierung" nennen. Wenn Milliarden Menschen dieselben Sprachmodelle nutzen, konvergieren Ausdruck, Stil und Denkweise.
Die Befunde im Einzelnen:
- Stilistische Nivellierung: Texte, die mit LLM-Unterstuetzung ueberarbeitet werden, verlieren ihre individuelle Handschrift. Nutzer empfinden weniger kreative Eigentuemerschaft ueber das Ergebnis.
- Ideenarmut in Gruppen: Teams, die LLMs fuer Brainstorming einsetzen, produzieren weniger und weniger kreative Ideen als Teams ohne KI-Unterstuetzung.
- Meinungskonvergenz: Nach Interaktion mit voreingenommenen LLMs gleichen sich individuelle Meinungen an -- nicht in Richtung Wahrheit, sondern in Richtung der Modell-Tendenz.
- Reasoning-Monokultur: Modelle bevorzugen lineares Chain-of-Thought-Reasoning und verdraengen intuitive oder abstrakte Denkansaetze.
Sourati formuliert den Kern des Problems: "The concern is not just that LLMs shape how people write or speak, but that they subtly redefine what counts as credible speech, correct perspective, or even good reasoning."
Die LLM-Ausgaben spiegeln ueberproportional westliche, gebildete, industrialisierte Perspektiven wider. Wenn diese Perspektive zum Default wird, schrumpft die kognitive Diversitaet der Menschheit -- ausgerechnet jene Diversitaet, die Anpassungsfaehigkeit und kollektive Problemloesungsfaehigkeit ermoeglicht.
2. Google AI Overviews: zuverlaessig falsch, trotzdem ueberall
Waehrend KI also standardisiert, wie wir denken, wird sie gleichzeitig zur primaeren Informationsquelle -- mit messbaren Qualitaetsproblemen. Google AI Overviews erscheinen mittlerweile bei bis zu 30 Prozent aller Suchanfragen (SE Ranking, Mai 2025). In Tests von Mashable lieferte etwa jede fuenfte AI Overview eine ungenaue oder irrefuehrende Antwort.
Konkrete Beispiele aus den Tests:
- Veraltete Fakten: Die AI Overview nannte September 2025 als Starttermin fuer Artemis II -- obwohl NASA den Start laengst auf September 2026 verschoben hatte.
- Kontextverwechslung: Bei der Suche nach "Elon Musk DOGE controversy" lieferte das System Informationen ueber einen laengst abgeschlossenen Dogecoin-Rechtsstreit statt ueber die aktuelle politische Debatte.
- Falsche Zuordnungen: Ein AI Overview verknuepfte Airbus faelschlich mit einem Flugzeugabsturz -- basierend auf einer Fehlinterpretation von Medienberichten.
Google haelt die tatsaechliche Fehlerquote unter Verschluss. Das Unternehmen lehnte es ab, Daten zur Haeufigkeit von Halluzinationen offenzulegen oder Interviews zur Qualitaetssicherung zu geben. Googles eigene Benchmark-Forschung zeigt allerdings, dass die besten LLMs Fakten in etwa einem Drittel der Faelle falsch wiedergeben.
Bei geschaetzten 8,5 Milliarden Google-Suchen pro Tag und 30 Prozent AI-Overview-Abdeckung bedeutet selbst eine konservative Fehlerrate eine enorme absolute Zahl an Falschaussagen -- taeglich, automatisiert, als vertrauenswuerdige Antwort formatiert.
3. The Agentic Web: Maschinen als Nutzer
Richard MacManus, Gruender von ReadWriteWeb und langjaaehriger Web-Analyst, beschreibt die naechste Stufe dieser Entwicklung: das "Agentic Web". Websites wandeln sich von Inhalten, die Menschen lesen, zu Faehigkeiten, die Maschinen aufrufen.
Die Kernthese: "We're moving from a read/write web to an agentic web -- where we can read and write the web with the help of agents."
Was das konkret bedeutet:
- Neue Protokolle: OAuth- und OpenID-Connect-Erweiterungen ermoeglichen es Agenten, im Namen von Nutzern zu handeln -- mit definierten Zugriffsrechten.
- Browser-Evolution: Small Language Models laufen kuenftig lokal auf Endgeraeten statt ausschliesslich in der Cloud.
- Von UI zu API: Websites bewegen sich weg von menschenlesbaren Oberflaechen hin zu maschinenlesbaren Schnittstellen. Protokolle wie WebMCP ermoeglichen KI-Assistenten die direkte Interaktion mit Website-Funktionen.
- Plattform-Shift: Anbieter wie Vercel und Cloudflare hosten zunehmend KI-Agenten mit Web-Frontends.
MacManus benennt auch die existenzielle Bedrohung fuer Publisher: "Fewer users will visit your site directly. Instead, AI systems will increasingly intermediate access to your content." Neue Protokolle wie "Really Simple Licensing" sollen Zuordnung und Verguetung regeln -- aber ob sie sich durchsetzen, ist offen.
Der rote Faden: KI als universeller Vermittler
Diese drei Entwicklungen sind keine isolierten Phaenomene. Sie beschreiben verschiedene Facetten desselben Strukturwandels:
Schicht 1 -- Kognition: LLMs homogenisieren, wie Menschen denken, schreiben und Probleme loesen. Die kognitive Diversitaet schrumpft.
Schicht 2 -- Information: AI Overviews werden zur primaeren Wissensquelle, produzieren aber systematisch Fehler. Homogenes Denken trifft auf fehlerhafte Fakten -- eine toxische Kombination.
Schicht 3 -- Infrastruktur: Das Agentic Web baut die technische Schicht um, durch die Information fliesst. Wenn Agenten statt Menschen mit dem Web interagieren, werden die Homogenisierungs- und Fehlereffekte in die Infrastruktur eingebacken.
Das Ergebnis ist ein Feedback-Loop: KI formt, wie wir denken. KI liefert, was wir wissen. KI bestimmt, wie wir auf Information zugreifen. An jeder Stelle dieser Kette sitzt dasselbe Problem -- eine kleine Zahl von Modellen, trainiert auf aehnlichen Daten, mit aehnlichen Biases, wird zum Nadeloehr fuer menschliche Kognition und Kommunikation.
Die Frage ist nicht, ob dieser Wandel stattfindet. Die Frage ist, ob wir Mechanismen schaffen, die Vielfalt, Genauigkeit und menschliche Kontrolle in diesen neuen Stack einbauen -- bevor die Monokultur sich verfestigt.
Quellen
- AI may be making us think and write more alike -- USC Dornsife
- AI is homogenizing human expression and thought -- TechXplore
- Google AI Overviews: Confident when wrong, yet more visible than ever -- Yahoo Tech
- Google's New Benchmark Reveals Wide Gaps in AI Factual Accuracy -- Hacks/Hackers
- The Agentic Web -- Richard MacManus