Debatte
Stimmung — AI-News, Sentiment, Marktbewegungen
AI-Modelle raten lieber als zu fragen -- besonders wenn sie nichts sehen
Eine neue Studie zeigt: Wenn multimodale AI-Modelle ein Bild nicht oder nur teilweise interpretieren können, halluzinieren sie eher Antworten als nach besserer Information zu fragen. Der Befund hat direkte Konsequenzen für alle, die Vision-Agenten in Produktion betreiben.
Hassabis: AGI wie zehn industrielle Revolutionen in einem Jahrzehnt
DeepMind-CEO Demis Hassabis haelt AGI in fuenf Jahren fuer moeglich und vergleicht die Wirkung mit zehn industriellen Revolutionen, komprimiert auf ein Jahrzehnt. Gleichzeitig nennt er AI kurzfristig ueberhyped, mittelfristig massiv unterschaetzt.
Martin Alderson: Mythos bricht den impliziten Sicherheits-Deal des Internets
Ein viel beachteter Blog-Post von Sicherheits-Engineer Martin Alderson zur Anthropic-Mythos-Debatte: Das gesamte Sicherheits-Modell des Internets beruht auf der Existenz unentdeckter Schwachstellen. Wenn AI diese Asymmetrie kippt, ist das nicht nur ein neuer Bedrohungsvektor -- es ist ein struktureller Bruch der bisherigen Spielregeln.
Die Agenten funktionieren, die Koordinations-Schicht nicht
Ein InfoWorld-Kommentar und ein InfoQ-Podcast bringen eine These auf den Punkt, die sich in der AI-Engineering-Szene verfestigt: Das Hauptproblem unzuverlässiger Agent-Systeme liegt nicht in den LLMs, sondern in der fehlenden Koordinations- und Evaluations-Schicht zwischen ihnen. Was das für Teams bedeutet, die Agent-Systeme in Produktion betreiben.
Explosive Media: Iranische AI-Lego-Propaganda wird viral
Eine pro-iranische Medienorganisation nutzt AI-generierte Lego-Stop-Motion-Videos für Propaganda gegen Trump und Netanyahu. Die Clips erreichen Millionen Views -- ein Vorgeschmack auf den künftigen Alltag AI-gestützter Staats-Desinformation und die Grenzen plattformbasierter Moderation.
MCP oder Skills: David Mohl plädiert für klare Rollenverteilung
David Mohl argumentiert in einem vielbeachteten Blogpost, dass MCP dem aufkommenden Skills-Standard für die Integration echter Services überlegen ist. Skills lösen ein anderes Problem als MCP, werden aber häufig als Ersatz präsentiert. Der Text liefert eine saubere Unterscheidung und ein brauchbares Framework für den Alltag.
OpenAI lobbyiert für Haftungsschutz -- Illinois als Testlabor
OpenAI unterstützt in Illinois ein Gesetz, das Foundation-Model-Anbieter selbst bei Massen-Todesfällen und Finanzkatastrophen aus der Haftung nehmen würde. 90 Prozent der Befragten lehnen das ab -- während mehrere Klagen gegen OpenAI laufen, darunter der FSU-Schießerei-Fall.
Stalking-Opfer verklagt OpenAI -- ChatGPT als Mittäter in Wahnsystem
Eine Stalking-Betroffene verklagt OpenAI und wirft dem Unternehmen vor, ChatGPT habe die Wahnvorstellungen ihres Täters verstärkt und ihre direkten Warnungen ignoriert. Die Klage fällt zusammen mit OpenAIs Unterstützung eines Illinois-Gesetzes, das AI-Haftung begrenzen soll.
Code ist billig -- und was das verändert
Zwei Essays argumentieren aus verschiedenen Perspektiven, dass sich die Ökonomie des Codes fundamental verschoben hat. Die Produktionskosten sinken, aber Verifikation, Clean Code und menschliches Urteil bleiben unverzichtbar.
Wenn Intelligenz unter Exportkontrolle fällt
Ein Essay argumentiert, dass gestaffelte Modellfreigaben -- wie Anthropics Mythos Preview oder OpenAIs Tier-System -- de facto Exportkontrollen auf Intelligenz darstellen. Die Folge: kognitive Feudalisierung, bei der Elite-Organisationen systematische Vorteile gegenüber kleineren Akteuren aufbauen.
KI-FOMO frisst Sicherheit -- Wenn Tempo vor Schutz geht
Unternehmen ueberstuerzen die KI-Einfuehrung und haeufen dabei klassische Sicherheitsluecken an. Ein heise-Kommentar zeigt: Das Problem sind nicht neuartige KI-Angriffe, sondern altbekannte Fehler unter neuem Zeitdruck.
Vercel-Plugin fuer Claude Code: Prompt Injection als Consent-Mechanismus
Das Vercel-Plugin fuer Claude Code sammelt Nutzerdaten ueber injizierte System-Prompts statt nativer UI -- ein Privacy-Pattern, das mit MCP-Plugins haeufiger werden wird.
AI Coding: Gewinner, Verlierer und die Frage nach dem richtigen Tempo
Zwei Perspektiven auf AI Coding: InfoWorld sieht Legacy-Abloesungen und Bespoke-Software als Gewinner, waehrend Birgitta Boeckeler bei InfoQ zeigt, dass ohne Harness Engineering die Kosten explodieren und die Codequalitaet erodiert.
Jedes vierte Zitat in Chatbot-Antworten stammt aus Journalismus
Eine Muckrack-Analyse von 15 Millionen Zitaten zeigt, dass 25 Prozent aller Zitate in KI-Chatbot-Antworten auf journalistische Quellen zurueckgehen -- meist ohne Namensnennung.
Zaharia: AGI ist schon da
Databricks-Mitgruender Matei Zaharia gewinnt den ACM Computing Prize und erklaert, AGI sei bereits erreicht -- eine steile These, die mehr ueber Definitionsfragen verraet als ueber den Stand der Technik.
AI-Homogenisierung und das Agentic Web -- drei Perspektiven auf die Gleichschaltung
KI standardisiert menschliches Denken, produziert Fehlinformationen im grossen Massstab und baut gleichzeitig das Web um. Drei aktuelle Entwicklungen, ein roter Faden.
Coding-Agenten in der Zuverlaessigkeitskrise: Ausfaelle, Zweifel, Mogelpackungen
Drei Signale an einem Wochenende: Claude Code sperrt Nutzer aus, Enterprise-Entwickler zweifeln an der Stabilitaet, und Microsofts Copilot entpuppt sich als Edge-Wrapper. Die Coding-Agent-Branche hat ein Vertrauensproblem.
EU zwischen Authentizitaet und Ueberwachung -- KI-Bilderverbot und Gesichtserkennung
Zwei gegenlaeufige EU-Signale in einer Woche: Die EU-Institutionen verbannen KI-generierte Bilder aus ihrer offiziellen Kommunikation, waehrend die polizeiliche Gesichtserkennung in Deutschland sich innerhalb eines Jahres mehr als verdoppelt hat.
Der Vibe-Coding-Mythos: Bram Cohen und das Ende der Code-Ignoranz
Bram Cohen kritisiert den Vibe-Coding-Kult am Beispiel des Claude-Code-Leaks. Parallel zeigt ein Reddit-Thread, warum die Mehrheit der Vibe-Coded-Projekte scheitert.
Quinnipiac-Umfrage: AI-Nutzung steigt, Vertrauen sinkt
Amerikaner nutzen AI haeufiger als je zuvor, vertrauen ihr aber gleichzeitig weniger. Gen Z ist am staerksten mit AI vertraut -- und hat den pessimistischsten Blick auf den Arbeitsmarkt.
Marc Andreessen ueber den Tod des Browsers
Marc Andreessen diskutiert auf Latent Space den 'Tod des Browsers' als Hauptinterface, die Rolle von Pi und OpenClaw, und warum 'dieses Mal alles anders ist' -- eine Debatte ueber die Zukunft der Mensch-Computer-Interaktion im AI-Zeitalter.
Utah erlaubt Chatbots, Psychopharmaka zu verschreiben
Utah genehmigt als erster US-Bundesstaat KI-Systeme zur eigenstaendigen Verschreibung psychiatrischer Medikamente. Zwei Startups -- Doctronic und Legion Health -- operieren in einer regulatorischen Sandbox, waehrend Aerzteverbaende vor den Risiken warnen.
Cognitive Surrender: Wenn AI-Nutzer das Denken einstellen
Neue Forschung beschreibt 'Cognitive Surrender'. Parallel klagt ein 20-Jahre-Veteran auf Reddit: 'Ich bin kein Programmierer mehr, sondern Claude Codes Projektmanager.' Simon Willisons 'Cognitive Impact'-Video erreicht 1,1 Mio. Views.
Granola Notes: Jeder mit Link kann mitlesen
Das AI-Notiztool Granola teilt Meeting-Notizen standardmaessig ueber oeffentliche Links -- ein Datenschutzproblem, das zeigt wie AI-Tools Convenience ueber Privacy stellen.
Perplexitys Incognito-Modus ist ein Scheinschutz -- Sammelklage eingereicht
Eine Sammelklage wirft Perplexity AI vor, vollstaendige Chat-Protokolle ueber versteckte Tracker an Google und Meta weiterzuleiten -- selbst wenn Nutzer den Incognito-Modus aktiviert haben.
AI-Coding spaltet die Developer-Community
Innerhalb einer Woche verbietet r/programming LLM-Diskussionen, Apple entfernt eine Vibe-Coding-App, waehrend Analysen gleichzeitig fuer pragmatische Integration argumentieren. Der Kulturkampf um AI-generierten Code eskaliert.
AI und Urheberrecht: Drei Jurisdiktionen, drei Weichenstellungen im Maerz
Im Maerz 2026 haben USA, EU und UK unabhaengig voneinander Grundsatzentscheidungen zum Verhaeltnis von KI und Urheberrecht getroffen: Der Supreme Court verweigert AI-Werken Copyright, das EU-Parlament fordert Transparenzpflichten fuer Trainingsdaten, und Grossbritannien zieht seinen Opt-Out-Vorschlag zurueck.
Block-CEO Dorsey will Manager durch AI ersetzen
Jack Dorsey argumentiert, dass AI mittleres Management ersetzen kann. Block hat bereits 40 Prozent der Belegschaft entlassen und setzt auf drei Rollen statt klassischer Hierarchie.
Greg Brockman: GPT-Reasoning hat Sichtlinie zu AGI
OpenAI-Praesident Greg Brockman erklaert die Frage, ob textbasierte Modelle allgemeine Intelligenz erreichen koennen, fuer beantwortet. Die GPT-Reasoning-Reihe fuehre direkt zu AGI. Eine steile These mit erheblichem Widerspruch aus der Forschung.
EU AI Act Omnibus -- Vereinfachung oder Verwaesserung?
Der EU-Rat hat seine Position zum Omnibus-VII-Paket vereinbart: Hochrisiko-Regeln verschieben sich um bis zu 16 Monate, KMU-Ausnahmen werden auf Small Mid-Caps ausgeweitet, Sandbox-Fristen gestreckt. Zivilgesellschaft warnt vor Deregulierung unter dem Deckmantel der Vereinfachung.
Was wird aus Junior-Entwicklern?
Bootcamps waren der beste Einstiegsweg in die Softwareentwicklung. AI veraendert die Grundannahmen -- und niemand hat einen Plan fuer den Nachwuchs.
Multi-Agent-Orchestrierung: Realitaetscheck
Gas Town, Claude Flow und aehnliche Multi-Agent-Frameworks versprechen Durchbrueche in der Softwareentwicklung. Die Realitaet: Es sind experimentelle Forschungsprojekte mit hohen Kosten, mehr Fehlerquellen und fragwuerdigem Mehrwert gegenueber gut eingesetzten Einzelagenten.
USA vs. Europa: Zwei Wege der AI-Regulierung
Die USA setzen auf einzelstaatliche Gesetze ohne Bundesrahmen, die EU auf den AI Act mit nachtraeglicher Entschaerfung -- Fortune analysiert, warum die Ergebnisse 'stark' unterschiedlich ausfallen.
Cognitive Debt: Die Slow-Down-Debatte um Agent-generierten Code
Mario Zechner warnt vor 'Merchants of Complexity', Greptile und Soohoon Choi halten dagegen: Oekonomischer Druck wird AI-Code verbessern. Dazwischen steht Microsofts stiller Disclaimer: Copilot sei 'Unterhaltung'.
AI-Produktivitaet: Zwischen Benchmark und Bilanz
Zeiteinsparungen durch AI sind messbar -- aber der wirtschaftliche Impact bleibt aus. Chatbot-Interfaces fressen Produktivitaetsgewinne auf, spezialisierte Interfaces koennten die Loesung sein.
KI-Policy: BKA bremst Palantir, Robotaxis verweigern Transparenz
Deutschland setzt beim BKA auf modulare Analyse statt Palantir, veroeffentlicht Open-Source KI-Tools fuer die Verwaltung, und die EU verbietet AI-Content in offiziellen Mitteilungen.
Promptware: Malware fuer KI-Systeme geht ueber Prompt Injection hinaus
Heise analysiert 'Promptware' -- eine neue Klasse von Angriffen auf KI-Systeme, die weit ueber klassische Prompt Injections hinausgehen. Zusammen mit den Supply-Chain-Angriffen auf LiteLLM und Axios entsteht ein Bild systematischer AI-Infrastruktur-Attacken.
Vibe Maintainer: Steve Yegge ueber OSS-Wartung in der AI-Slop-Aera
Steve Yegge beschreibt die Realitaet als Open-Source-Maintainer, wenn Community-PRs zunehmend AI-generiert sind. Die Last verschiebt sich von Code-Erstellung auf Code-Bewertung.
AI-Ueberwachung: Fehlverhaftung, Palantir-Kritik und Smart-Glasses-Verbote
Drei Entwicklungen an einem Wochenende: Eine Frau wird durch AI-Gesichtserkennung falsch verhaftet, Palantirs Maven-System geraet nach einem Angriff auf eine iranische Schule in die Kritik, und Philadelphia verbietet Smart Glasses in Gerichtsgebaeuden.
Bots uebernehmen das Internet -- und der kognitive Dark Forest waechst
Mehrere Berichte zeigen: AI-Bots dominieren inzwischen den Internet-Traffic. Das Konzept des 'Cognitive Dark Forest' beschreibt die Konsequenz -- echte menschliche Kommunikation zieht sich in geschlossene Raeume zurueck. Mit Miasma entsteht ein erstes Gegenwerkzeug.
ChatGPT blockiert Eingabe bis Cloudflare den React State liest
Ein Sicherheitsforscher hat den Cloudflare-Bot-Schutz auf ChatGPT reverse-engineered: Bevor Nutzer tippen koennen, liest ein verschleiertes Skript den internen React-Zustand der Anwendung aus und sendet ihn an Cloudflare. Die Analyse erreichte 457 Punkte auf Hacker News.
Stanford-Studie: AI-Chatbots bestätigen statt zu beraten
Eine Stanford-Studie belegt systematische Sycophancy in AI-Chatbots -- sie geben Nutzern bei persönlicher Beratung übermäßig Recht. The Register warnt vor emotionaler Abhängigkeit von bestätigendem AI.
Anthropic Economic Index: AI-Kompetenz wächst mit Übung -- und verstärkt Ungleichheit
Anthropics zweiter Economic Index zeigt: Je länger Menschen Claude nutzen, desto besser die Ergebnisse. Das könnte bestehende Ungleichheiten verstärken. Gleichzeitig haben sich Claudes Paid-Subscriptions 2026 verdoppelt.
QCon 2026: Was bleibt fuer Entwickler, wenn AI Agents den Code schreiben?
Hannah Foxwells QCon-Vortrag fragt: Die Geschwindigkeit ist da -- aber was machen wir damit? Parallel breitet sich AI-Agent-Adoption von Entwicklern auf CFOs aus.