2. April 2026

NVIDIAs GPU Technology Conference fand vom 16. bis 19. Maerz 2026 in San Jose statt. Ueber 30.000 Teilnehmer vor Ort, Millionen online. Das dominierende Thema war nicht ein neuer Chip oder ein neuer Benchmark-Rekord, sondern die Frage: Wie bringt man AI-Agenten in Unternehmensumgebungen in Produktion?

Jensen Huang widmete den groessten Teil seiner Keynote am 16. Maerz der Agentic-AI-Infrastruktur. Die zentrale These: Inference hat Training als dominante AI-Workload abgeloest, und die naechste Wertschoepfungsstufe liegt nicht in groesseren Modellen, sondern in Agenten, die autonom in Unternehmensumgebungen arbeiten.

Nemotron 3 Super: Das Modell fuer Multi-Agent-Systeme

Am 11. Maerz -- fuenf Tage vor der GTC -- veroeffentlichte NVIDIA Nemotron 3 Super. Die Architektur ist ungewoehnlich: Ein hybrides Mixture-of-Experts-Modell mit 120 Milliarden Parametern, von denen nur 12 Milliarden pro Inferenz-Schritt aktiv sind. Das Modell verschraenkt drei Schichttypen in einem wiederkehrenden Muster:

Die Kombination adressiert ein konkretes Problem von Multi-Agent-Systemen: Agentic Workflows erzeugen bis zu 15-mal mehr Token als Standard-Chat-Interaktionen. Ohne grosses Kontextfenster und effizientes Sequence Processing driften Agenten von ihrem urspruenglichen Ziel ab. Nemotron 3 Super liefert fuenfmal hoeheren Durchsatz als sein Vorgaenger und laeuft auf NVIDIA Blackwell im NVFP4-Format mit vierfacher Inferenzgeschwindigkeit gegenueber FP8 auf Hopper -- ohne Genauigkeitsverlust.

Die primaeren Einsatzszenarien sind Software-Entwicklung (ganze Codebases im Kontext laden), Cybersecurity-Triage (autonome Sicherheits-Orchestrierung durch praezises Tool Calling) und Finanzanalyse (tausende Berichtsseiten gleichzeitig verarbeiten). Auf PinchBench -- einem Benchmark speziell fuer LLMs als Agent-Steuerung -- erreicht Nemotron 3 Super 85,6% und ist damit das beste offene Modell in seiner Klasse.

Das Modell ist vollstaendig offen: offene Gewichte, Datensaetze (ueber 10 Billionen Token Pre- und Post-Training) und Training-Rezepte unter permissiver Lizenz.

OpenClaw: Ein Betriebssystem fuer Agenten

OpenClaw ist NVIDIAs Open-Source-Framework fuer agentenbasierte Systeme. Huang positionierte es als "Betriebssystem fuer agentenbasierte Computer" -- vergleichbar damit, wie Windows PCs eine standardisierte Laufzeitumgebung gab. Agenten koennen darueber Dateisysteme verwalten, Sub-Agenten starten, geplante Aufgaben ausfuehren und autonom operieren.

Huang formulierte es auf der Keynote unmissverstaendlich: Jedes Unternehmen brauche eine OpenClaw-Strategie. Das Framework laeuft auf NVIDIA- und Nicht-NVIDIA-Hardware, unterstuetzt persistenten Speicher und Echtzeit-Planung. Es ist modellunabhaengig -- lokale Open-Source-Modelle und Cloud-Frontier-Modelle koennen parallel genutzt werden.

NemoClaw: Die Enterprise-Schicht

NemoClaw ist die gehaertete Enterprise-Version, die sich mit einem einzigen Kommando auf OpenClaw installiert. Die Kernkomponente ist OpenShell, eine neue Open-Source-Laufzeitumgebung, die Agenten auf Prozessebene sandboxt. Was NemoClaw hinzufuegt:

Launch-Partner sind Salesforce, Cisco, Google Cloud, Adobe und CrowdStrike. NVIDIA beschreibt NemoClaw als fruehen Alpha-Release. Die Live-Workshops auf der GTC -- "Build-a-Claw" vom 16. bis 19. Maerz -- ermoeglichten es Teilnehmern, funktionsfaehige Agenten in unter einer Stunde zu deployen.

NemoClaw laeuft auf verschiedenen Hardware-Stufen: von GeForce-RTX-Laptops ueber RTX-PRO-Workstations bis hin zu DGX Station und DGX Spark.

Der groessere Shift

Die GTC 2026 markiert einen Wendepunkt in NVIDIAs Narrative. Fruehere Konferenzen waren gepraegt von Chip-Ankuendigungen und Benchmark-Rekorden. Dieses Jahr dominierte die Frage nach Produktionsreife. Die fuenf zentralen strategischen Verschiebungen:

  1. Von Modellen zu Infrastruktur: Nicht das groesste Modell gewinnt, sondern das beste Deployment-Geruest. OpenClaw und NemoClaw adressieren die Luecke zwischen Forschungs-Demo und Enterprise-Produktion.
  2. Von Training zu Inference: NVIDIA projiziert 1 Billion Dollar AI-Infrastruktur-Nachfrage bis 2027, getrieben primaer durch Inference-Workloads. Die Vera-Rubin-Plattform (H2 2026) soll Inferenzkosten pro Token um den Faktor 10 senken.
  3. Von geschlossenen zu offenen Systemen: Nemotron 3 Super, OpenClaw und OpenShell sind alle Open Source. NVIDIA baut ein offenes Oekosystem, in dem Unternehmen die Kontrolle ueber ihre Agent-Infrastruktur behalten.
  4. Von Einzel-Agenten zu Multi-Agent-Orchestrierung: Das eine-Million-Token-Kontextfenster, Sub-Agent-Spawning und Enterprise-Konnektoren (Salesforce, SAP, ServiceNow, Adobe, Microsoft 365) zeigen, dass NVIDIA auf koordinierte Agent-Teams setzt.
  5. Von Cloud-only zu Hybrid: NemoClaw auf dem Laptop bis zum Rechenzentrum -- der gleiche Stack auf jeder Ebene.

Einordnung

NVIDIAs Stack aus Nemotron 3 Super, OpenClaw und NemoClaw ist das bisher vollstaendigste Angebot fuer Enterprise-Agent-Deployments: offenes Modell, offenes Betriebssystem, Enterprise-Sicherheitsschicht, Hardware-Skalierung vom Laptop bis zum Rechenzentrum. Die Alpha-Kennzeichnung von NemoClaw daempft die Erwartungen zu Recht -- zwischen GTC-Demo und stabilem Produktionseinsatz liegt erfahrungsgemaess noch einiges an Arbeit.

Aber die Richtung ist klar: Der Wettbewerb in der AI-Branche verschiebt sich von "Wer hat das beste Modell?" zu "Wer hat die beste Infrastruktur, um Agenten sicher und skalierbar in Unternehmen zu betreiben?".

Quellen

Nach oben