2. April 2026

Greg Brockman: GPT-Reasoning hat Sichtlinie zu AGI

OpenAI-Praesident Greg Brockman hat im Big Technology Podcast eine bemerkenswerte Festlegung getroffen: Die Debatte, ob grosse Sprachmodelle den Weg zu kuenstlicher allgemeiner Intelligenz (AGI) ebnen koennen, sei aus seiner Sicht entschieden. Woertlich: "I think that we have definitively answered that question -- it is to go to AGI. Like we see line of sight."

Was Brockman behauptet

Brockmans Kernthese ist, dass die GPT-Reasoning-Modelle -- also die o-Serie mit verlaengerter Denkzeit -- einen direkten Pfad zu AGI darstellen. Textbasiertes Reasoning sei der richtige Ast am Technologiebaum. Andere Ansaetze wie Sora, OpenAIs Video-Generierungsmodell, stuft er als Nebenzweig ein: Sie saessen auf "a different branch of the tech tree" als die Reasoning-Reihe.

Damit priorisiert Brockman explizit: Bei begrenzten Rechenressourcen setzt OpenAI auf sprachbasiertes Schlussfolgern statt auf multimodale Weltmodelle. Das ist nicht nur eine technische Einschaetzung, sondern eine strategische Wette des Unternehmens.

Was "Sichtlinie" bedeutet -- und was nicht

Der Begriff "line of sight" ist bewusst vage. Er bedeutet nicht, dass AGI erreicht ist oder dass ein konkreter Zeitplan existiert. Er bedeutet, dass Brockman glaubt, den Weg zu sehen -- ohne Garantie, dass der Weg auch gangbar ist. Der Unterschied zwischen "wir sehen das Ziel" und "wir wissen, wie wir dort hinkommen" ist erheblich.

Brockman raeumt das implizit ein: "In this field you do have to make choices. Right? You have to make a bet." Es ist eine Wette. Und Wetten koennen verloren gehen.

Gegenargumente

Die Gegenposition ist in der KI-Forschung breit vertreten. Yann LeCun (Meta) argumentiert seit Jahren, dass reine Sprachmodelle fundamentale Grenzen haben. Sprache allein bilde die Welt nicht ausreichend ab; echte Intelligenz erfordere Weltmodelle, die aus Erfahrung lernen, nicht nur aus Text. LeCuns Position: LLMs koennen beeindruckende Sprachverarbeitung leisten, aber der Sprung zu allgemeiner Intelligenz erfordert grundsaetzlich andere Architekturen.

Demis Hassabis (Google DeepMind) vertritt eine aehnliche Linie. Auch er sieht in reinem LLM-Scaling keinen plausiblen Pfad zu AGI und setzt stattdessen auf Ansaetze, die physikalisches Verstaendnis, Planung und Abstraktion verbinden.

Das Grundproblem der Brockman-These: "Sichtlinie" ist kein wissenschaftliches Argument. Es ist eine Einschaetzung, gestuetzt auf die beeindruckenden Fortschritte bei Reasoning-Benchmarks. Aber Benchmarks messen definierte Aufgaben. AGI -- nach gaengiger Definition -- wuerde bedeuten, beliebige kognitive Aufgaben auf menschlichem Niveau zu loesen. Dass ein Modell mathematische Olympiade-Aufgaben besser loest als vor einem Jahr, sagt wenig darueber aus, ob der gleiche Ansatz auch offene Probleme ohne klare Loesungsstruktur bewaeltigen kann.

Einordnung

Brockmans Aussage ist gleichzeitig eine Vertrauenserklaerung an die eigene Strategie und ein Stueck Unternehmenskommunikation. Als OpenAI-Praesident hat er ein Interesse daran, die Richtung des Unternehmens als die richtige darzustellen -- gegenueber Investoren, Mitarbeitern und der Oeffentlichkeit.

Das macht die Aussage nicht zwingend falsch. Es macht sie aber auch nicht zu einer belastbaren Prognose. Die ehrlichere Lesart: OpenAI glaubt an diesen Weg, investiert massiv, und hofft, dass die Wette aufgeht. Ob textbasiertes Reasoning tatsaechlich zu AGI fuehrt oder irgendwann an eine Grenze stoesst, die mit mehr Compute und besseren Trainingsmethoden nicht zu ueberwinden ist, bleibt eine offene Frage.

Die Forschungsgemeinschaft ist jedenfalls weit davon entfernt, die Debatte als "definitiv beantwortet" zu betrachten.

Quellen

Nach oben