Hassabis: AGI wie zehn industrielle Revolutionen in einem Jahrzehnt
Demis Hassabis, CEO von Google DeepMind und Nobelpreistraeger fuer Chemie 2024, hat in einer Reihe von Interviews eine ungewoehnlich konkrete AGI-Prognose formuliert. Kuenstliche allgemeine Intelligenz koennte in etwa fuenf Jahren erreicht werden, und ihre Wirkung wuerde "zehn industriellen Revolutionen entsprechen, komprimiert in ein einziges Jahrzehnt". Im gleichen Atemzug warnt er: AI sei kurzfristig ueberhyped, aber auf Sicht von zehn Jahren massiv unterschaetzt.
Die Doppelaussage
Hassabis' Position ist kein klassisches AGI-Zeitplan-Versprechen. Er argumentiert auf zwei Zeitachsen gleichzeitig. Kurzfristig -- gemeint sind die naechsten ein bis zwei Jahre -- sieht er eine Hype-Bubble. Produktversprechen ueberholen das, was aktuelle Modelle wirklich leisten; Marktbewertungen preisen Entwicklungen ein, die noch nicht stattgefunden haben. Mittelfristig, auf Sicht von fuenf bis zehn Jahren, halte er die Oeffentlichkeit dagegen fuer zu zurueckhaltend. Die Geschwindigkeit und Tiefe der Veraenderungen wuerden die meisten Prognosen uebertreffen.
Die konkreten Zahlen: AGI in etwa fuenf Jahren, Wirkungsintensitaet "zehn industrielle Revolutionen", Zeitfenster der Umwaelzung "ein einziges Jahrzehnt". Mathematisch formuliert ist das die Behauptung, die Transformationsrate waere rund 100-mal hoeher als bei der ersten Industrialisierung, die sich ueber mehr als ein Jahrhundert erstreckte.
Einordnung im CEO-Kanon
Hassabis reiht sich in eine Phalanx von Branchen-Stimmen mit aehnlichen Zeitplaenen ein, unterscheidet sich aber im Ton. Sam Altman spricht seit Jahren von einer "Singularitaets-Vorstufe", ohne harte Zahlen zu nennen. Dario Amodei (Anthropic) hat in Essays von "starker KI" innerhalb weniger Jahre geschrieben und beschreibt Szenarien, in denen Krebs und Alzheimer innerhalb eines Jahrzehnts besiegt sein koennten. Ilya Sutskever schweigt oeffentlich, arbeitet aber mit Safe Superintelligence explizit an einer einzigen Frage: sichere Superintelligenz.
Greg Brockman (OpenAI) erklaerte zuletzt die Debatte fuer "definitiv beantwortet" und sieht "line of sight" zu AGI ueber Reasoning-Modelle -- eine These, die im Wiki bereits eingeordnet wurde (siehe Brockman-AGI-Sichtlinie). Matei Zaharia verschiebt die Definition gleich ganz und erklaert AGI fuer bereits erreicht (Zaharia: AGI ist schon da). Microsoft baut parallel das Superintelligence-Team unter Mustafa Suleyman aggressiv aus (Microsoft Superintelligence).
Die deutlichste Gegenstimme bleibt Yann LeCun (Meta). Er haelt reine LLM-Skalierung fuer eine Sackgasse und argumentiert, dass echte allgemeine Intelligenz fundamentale architektonische Neuerungen erfordere -- Weltmodelle, die aus Erfahrung lernen, nicht aus Text. LeCuns Zeithorizont ist "Jahrzehnte, nicht Jahre". Bemerkenswert: Hassabis und LeCun standen sich in frueheren Debatten inhaltlich nah. Beide haben betont, dass LLM-Scaling allein nicht reiche. Hassabis' juengste Aussagen lassen sich so lesen, dass DeepMind mit seiner Kombination aus Reasoning, Weltmodellen (Genie-Linie) und Suchmethoden einen Weg sieht, den LeCun noch nicht erkennt.
Was es fuer Entwickler heute bedeutet
Die praktische Frage ist, was von CEO-Prognosen in die eigene Arbeit uebernommen werden soll. Ein paar nuechterne Ableitungen:
- Keine Panik. Wer heute Software baut, wird auch in fuenf Jahren noch Software bauen. Die Historie technologischer Umwaelzungen zeigt, dass Berufe selten verschwinden, sondern sich verschieben. Mainframe-Entwickler wurden Client-Server-Entwickler wurden Web-Entwickler.
- Geschwindigkeit statt Richtung. Wenn Hassabis' Rate auch nur halbwegs stimmt, ist nicht die Frage "welche Technologie bleibt?", sondern "wie schnell lerne ich Neues?". Wer seine Lernrate optimiert, ist besser aufgestellt als wer auf eine bestimmte Stack-Wahl wettet.
- Agenten-Handwerk priorisieren. Der kuerzeste Hebel fuer 2026/2027 ist nicht AGI, sondern bessere Bedienung heutiger Agenten-Systeme. Prompt-Design, Tool-Use, Context-Management, Verification-Loops -- all das zahlt sich unmittelbar aus und bleibt auch dann relevant, wenn die Modelle darunter staerker werden.
- Kritisches Lesen von Benchmarks. Fortschritt auf geschlossenen Benchmarks sagt wenig ueber offene Probleme. Wer AGI-Prognosen einordnen will, sollte lernen, Benchmark-Ergebnisse nicht mit allgemeinen Faehigkeiten zu verwechseln.
Kritische Distanz
CEO-Aussagen zum eigenen Geschaeftsfeld sind immer auch Narrativ-Formung. Hassabis hat ein Interesse daran, dass DeepMind im Fruehjahr 2026 als fuehrender AGI-Kandidat wahrgenommen wird, waehrend OpenAI, Anthropic und Microsoft um Aufmerksamkeit und Kapital konkurrieren. Eine Fuenf-Jahres-Prognose ist in diesem Umfeld ein strategisches Signal an Investoren, Regierungen und Talente.
Gleichzeitig verdient Hassabis mehr Ernst als viele seiner Kollegen. Er ist promovierter Neurowissenschaftler, Nobelpreistraeger fuer AlphaFold und hat eine dokumentierte Geschichte, in der er gewettet hat und gewonnen hat -- zuletzt mit der Protein-Struktur-Vorhersage, die die Biologie tatsaechlich umgekrempelt hat. Wenn jemand aus dieser Rolle heraus sagt, dass aktuelle Aufregung zu gross und zugleich die mittelfristige Veraenderung zu klein eingeschaetzt wird, ist das keine Altman-Rhetorik, sondern die Einschaetzung eines Menschen, der schon einmal eine Wissenschaft beschleunigt hat.
Die ehrliche Haltung bleibt: Hassabis' Prognose ist nicht Gewissheit, sondern informierte Spekulation. Der richtige Umgang damit ist weder Euphorie noch Abwehr, sondern das Gleiche wie bei jeder guten Wette -- man beobachtet die Positionen, kennt die Interessenlagen, und passt die eigene Arbeit so an, dass man in mehreren Szenarien anschlussfaehig bleibt.
Quellen
- DeepMind CEO Hassabis says AGI will hit like ten industrial revolutions compressed into a single decade -- The Decoder
- Greg Brockman: GPT-Reasoning hat Sichtlinie zu AGI -- AI Radar Wiki
- Zaharia: AGI ist schon da -- AI Radar Wiki
- Microsoft baut Suleymans Superintelligence-Team massiv aus -- AI Radar Wiki