30. März 2026

Innerhalb einer Woche erscheinen gleich mehrere Berichte, die dasselbe Bild zeichnen: AI-Bots und automatisierte Systeme machen mittlerweile den Grossteil des Internet-Traffics aus. Die Konsequenzen reichen von Infrastrukturproblemen bis hin zu einer grundlegenden Verschiebung, wie Menschen das offene Internet nutzen.

Die Zahlen

CNBC berichtet unter dem Titel "AI and bots have officially taken over the internet", dass automatisierter Traffic den menschlichen mittlerweile uebersteigt. Ein ausfuehrlicher Bericht auf gladeart.com argumentiert, dass die Situation schlimmer ist als allgemein angenommen: Nicht nur Scraper und Crawler, sondern auch AI-gesteuerte Content-Generatoren und Interaktionsbots veraendern die Zusammensetzung des Webs. Der Beitrag erreichte ueber 200 Punkte auf Hacker News.

Die Dynamik ist selbstverstaerkend: Mehr AI-generierter Content im Web fuehrt zu mehr AI-Scrapern, die diesen Content einsammeln, was zu noch mehr AI-generiertem Content fuehrt. Webseitenbetreiber berichten von Infrastrukturkosten, die durch aggressives Crawling in die Hoehe schnellen -- ohne dass sie davon profitieren.

Der kognitive Dark Forest

Das Konzept des "Cognitive Dark Forest" (ryelang.org, 371 Punkte auf Hacker News) beschreibt die kulturelle Konsequenz: Wenn das offene Internet von AI-Slop und Bots durchsetzt ist, ziehen sich Menschen mit echten Gedanken und Inhalten in geschlossene Raeume zurueck -- private Chats, Invite-only-Foren, Bezahl-Communities. Das offene Web veroedet zu einer Oberflaeche aus generiertem Content, den niemand geschrieben hat und niemand liest.

Die Analogie stammt aus Liu Cixins Science-Fiction-Roman "Die drei Sonnen": Im Dark Forest schweigt jede Zivilisation, weil Sichtbarkeit toedlich ist. Im kognitiven Pendant schweigen echte Autoren, weil ihre Inhalte sofort von AI-Systemen absorbiert und reproduziert werden -- ohne Attribution, ohne Kontext.

Gegenmassnahme: Miasma

Als Reaktion auf aggressives AI-Scraping entstand das Open-Source-Tool Miasma (302 Punkte auf Hacker News). Es funktioniert als Falle fuer AI-Webcrawler: Miasma erzeugt endlose, plausibel wirkende aber inhaltlich unsinnige Seiten, in denen sich Crawler verfangen. Statt die eigenen Inhalte zu schuetzen, vergiftet es die Trainingsdaten der Scraper.

Der Ansatz ist nicht unumstritten -- er setzt auf Sabotage statt auf technische Zugangskontrollen wie robots.txt. Aber die Popularitaet des Projekts zeigt die Frustration der Webseitenbetreiber mit dem Status quo.

Einordnung

Die drei Entwicklungen -- Bot-Dominanz, Dark-Forest-Rueckzug und Sabotage-Tools -- beschreiben verschiedene Stufen derselben Dynamik. Das offene Web, wie es seit den 1990ern existierte, veraendert sich strukturell. Fuer Entwickler und Content-Ersteller stellt sich zunehmend die Frage, ob und wie sie ihre Inhalte noch oeffentlich zugaenglich machen wollen.

Quellen

Nach oben