Google Releases Gemma 4 with Native Vision and 256K Context
“Google hat still und leise die erste offene Modellfamilie veroeffentlicht, die sich nicht wie ein Trostpreis anfuehlt. Vier Groessen, nativ multimodal, 256K Kontext, 140 Sprachen. Meta schaut aus dem Kaefig zu, den sie selbst gebaut haben.”

Sally's not done with you yet.
Drop a URL, screenshot, or file and Sally will give you the honest truth.
Sally's Take
Gemma 4 ist die erste Google Modell Veroeffentlichung bei der das Wort 'endlich' keine schwere Arbeit leistet. Native Vision, Audio, Function Calling, 256K Kontext und 140 Sprachen. Alle vier Groessen unter einer Lizenz die man tatsaechlich nutzen kann.
Das Timing ist chirurgisch. Meta kuendigte vor zwei Wochen an dass LLaMA nach Version 5 closed source wird. Google entschied dass das was Meta am meisten wehtut ist sie im selben Nachrichtenzyklus zu uebertreffen.
Die Benchmarks liegen in einem Bereich wo Benchmark nicht mehr viel bedeutet. Echter Test: kann ein Solo Entwickler die 9B Version downloaden und etwas shipen das nicht peinlich ist? Ja.

Think your work can survive this?
Drop a URL, screenshot, or file and Sally will give you the honest truth.
What Actually Happened
- •Gemma 4 in vier Groessen (2B, 9B, 27B, 90B) mit nativer Vision, Audio und Function Calling.
- •Kontextfenster auf 256K Tokens erweitert.
- •Unterstuetzung fuer 140+ Sprachen, vorher 35 in Gemma 3.
- •Lizenz erlaubt kommerzielle Nutzung und Distillation.
Who Got Burned
Meta, das vor zwei Wochen ankuendigte LLaMA 5 wuerde closed source werden 'aus Sicherheitsgruenden'. Google hat dieses Argument in eine Ausrede verwandelt.
Silver Lining
Zum ersten Mal seit Jahren kann ein Solo Entwickler mit einem Laptop ein legitim konkurrenzfaehiges Produkt bauen.

Your turn. Drop something.
Drop a URL, screenshot, or file and Sally will give you the honest truth.
