7. April 2026

Der AI-Infrastrukturmarkt bewegt sich im April 2026 auf mehreren Ebenen gleichzeitig: Neue Datacenter-Kapazitaeten, vertikale Chipfertigung, alternative Silizium-Strategien, Konsolidierung im Scheduling-Bereich und ueberraschende Hardwareoeffnungen bei Apple.

Firmus: Nvidias Datacenter-Partner erreicht 5,5 Mrd. USD

Firmus, ein auf KI-Rechenzentren spezialisierter Anbieter in Asien, hat innerhalb von sechs Monaten 1,35 Mrd. USD eingesammelt und wird mit 5,5 Mrd. USD bewertet. Nvidia ist als Investor und strategischer Partner beteiligt. Das Unternehmen baut unter dem Projektnamen "Southgate" KI-optimierte Datacenter-Infrastruktur auf.

Die Bewertung unterstreicht den Kapitalfluss in physische AI-Infrastruktur abseits der USA. Waehrend westliche Hyperscaler ihre eigenen Rechenzentren hochziehen, entsteht in Asien ein paralleles Oekosystem aus spezialisierten Datacenter-Betreibern mit direkter GPU-Hersteller-Anbindung.

Intel und Musks Terafab: Chipfertigung in Texas

Intel beteiligt sich an Elon Musks Terafab-Projekt -- einer neuen Halbleiterfabrik in Texas. Die Fabrik soll Chips fuer Musks AI-Oekosystem fertigen, das SpaceX, Tesla und xAI umfasst. Details zu Investitionsvolumen und konkreten Chip-Designs sind noch nicht oeffentlich.

Fuer Intel ist der Deal eine Gelegenheit, die eigene Foundry-Sparte mit einem prominenten Ankermieter zu fuellen. Fuer Musk geht es um vertikale Integration: Wer eigene Modelle trainiert, eigene Fahrzeuge baut und eigene Satelliten betreibt, will langfristig auch die Chip-Lieferkette kontrollieren.

Uber setzt auf Amazons Trainium-Chips

Uber erweitert seinen AWS-Vertrag und verlagert zunehmend KI-Workloads auf Amazons hauseigene Trainium-Chips. Der Schritt reiht sich in eine wachsende Liste von Unternehmen ein, die Alternativen zu Nvidias GPUs evaluieren -- nicht aus technischer Ueberlegenheit, sondern aus Kosten- und Verfuegbarkeitsgruenden.

Amazon positioniert Trainium als guenstigere Alternative fuer Inferenz- und Trainingsworkloads. Fuer Nvidia ist das ein Signal: Die Dominanz bei Hyperscaler-Kunden ist nicht mehr selbstverstaendlich, sobald Custom Silicon in ausreichender Menge und Qualitaet verfuegbar ist.

Nvidia kauft SchedMD: Slurm unter neuer Kontrolle

Nvidia hat die Uebernahme von SchedMD abgeschlossen, dem Unternehmen hinter Slurm -- der Scheduling-Software, die auf rund 60 Prozent der Supercomputer weltweit laeuft. Meta, Mistral und Anthropic nutzen Slurm fuer das Training ihrer Modelle. Regierungssupercomputer setzen es fuer Wettervorhersage und Sicherheitsforschung ein.

Die Bedenken der Community sind konkret: Nvidia koennte GPU-spezifische Scheduling-Optimierungen bevorzugen und damit AMD- und Intel-Alternativen benachteiligen. Analysten sprechen von "Soft Power statt Hard Lock-in". Slurms tiefe Verankerung in Forschung und Academia macht einen schnellen Wechsel zu Alternativen wie Flux oder Kubernetes-basierten Schedulern teuer, aber nicht unmoeglich.

Apple Silicon: Erstmals eGPU-Treiber -- aber nur fuer KI

Tiny Corp, gegruendet von George Hotz in Hongkong, hat eGPU-Treiber fuer Apple Silicon Macs veroeffentlicht. Unterstuetzt werden AMD RDNA3+ und Nvidia Ampere-GPUs (darunter die RTX 6000 Pro) ueber Thunderbolt und USB4. Die Treiber erreichen bis zu 80 Prozent der RAM-Bandbreite der jeweiligen Karte, ohne dass SIP deaktiviert werden muss.

Der Haken: Die Treiber funktionieren ausschliesslich mit Tinys eigenem Neural-Network-Framework Tinygrad. Keine Videoausgabe, kein Gaming, keine Kompatibilitaet mit Apples MLX oder anderen Frameworks. Es handelt sich um einen hochspezialisierten Anwendungsfall -- aber es ist der erste funktionierende eGPU-Treiber fuer Apple Silicon ueberhaupt.

Quellen

Nach oben