2. April 2026

Gemma 4: Googles leistungsfaehigste offene Modellfamilie jetzt unter Apache 2.0

Google DeepMind hat mit Gemma 4 die bisher leistungsfaehigste offene Modellfamilie des Unternehmens veroeffentlicht. Der wichtigste Wechsel: Erstmals steht Gemma unter der Apache 2.0 Lizenz statt der bisherigen proprietaeren Gemma-Lizenz. Das beseitigt Einschraenkungen fuer kommerzielle Nutzung und Weiterentwicklung.

Vier Modelle, unterschiedliche Architekturen

Die Familie umfasst vier Modelle mit verschiedenen Groessen und Ansaetzen:

Alle vier Modelle sind vision-faehig und fuer Reasoning optimiert. Google spricht von "unprecedented intelligence-per-parameter".

Lokale Ausfuehrung im Fokus

Gemma 4 ist explizit fuer lokale Ausfuehrung ausgelegt. Das 26B MoE und das 31B Dense passen jeweils auf eine einzelne 80GB H100. In quantisierten Varianten laufen sie auf Consumer-GPUs. NVIDIA hat zeitgleich Optimierungen fuer RTX GPUs angekuendigt.

Fuer die groesseren Modelle bietet Google API-Zugang ueber AI Studio an -- aber der Fokus liegt klar auf Self-Hosting.

Einordnung

Der Wechsel zu Apache 2.0 ist strategisch bedeutsam. Google oeffnet damit den Wettbewerb mit Metas Llama und Alibabas Qwen auf der Lizenzebene vollstaendig. Die PLE-Architektur bei den kleineren Modellen und der MoE-Ansatz beim 26B zeigen, dass Google verschiedene Effizienzstrategien parallel verfolgt, statt auf eine einzige Architektur zu setzen.

Quellen

Nach oben