Google právě vydal Gemma 4 — novou generaci svých open-source jazykových modelů. A tentokrát to není jen marketingový refresh: 27B model sedí na 6. místě světového LM Arena leaderboardu, zatímco 31B verze je #3 mezi všemi open modely na světě. To jsou čísla, která stojí za pozornost.
Co je Gemma 4 a co přináší
Gemma 4 je série modelů vydaná Googlem v dubnu 2026, dostupná zdarma přes Hugging Face i Google AI Studio. Modely jsou dostupné v těchto velikostech:
- Gemma 4 1B — ultrarychlý, ideální pro edge zařízení a mobilní aplikace
- Gemma 4 4B — dobrý poměr výkon/rychlost pro většinu use-cases
- Gemma 4 12B — silný výkon, spustitelný na běžném herním GPU (RTX 3090/4090)
- Gemma 4 27B — flagship verze, #6 v LM Arena žebříčku
Klíčová novinka oproti Gemma 3: modely jsou multimodální — umí zpracovávat text i obrázky. Navíc podporují kontext okno až 128K tokenů, což je pro open model zatím unikátní.
Benchmark reálita: kde Gemma 4 vyniká
Benchmarky jsou jedna věc, praxe druhá. Gemma 4 27B překonává modely jako GPT-4o mini nebo starší Claude 3 Sonnet v:
- Matematickém reasoningu (MATH benchmark)
- Kódování (HumanEval — nad 80 %)
- Instrukčním followingu
- Vícejazyčném porozumění (včetně češtiny!)
Kde naopak ztrácí: velmi dlouhé dokumenty vyžadující složité multi-hop reasoning a kreativní psaní, kde stále dominují proprietární modely jako Claude 3.7 Sonnet.
Jak Gemma 4 spustit lokálně
Tohle je důvod, proč vývojáři Gemma 4 milují — žádný API klíč, žádné tokeny, žádný vendor lock-in. Nejjednodušší způsob je přes Ollama:
# Instalace Ollama (macOS/Linux)
curl -fsSL https://ollama.com/install.sh | sh
# Stažení a spuštění Gemma 4 4B
ollama run gemma4:4b
# Pro větší model (potřebuješ 16+ GB RAM)
ollama run gemma4:12bPro integraci do vlastní aplikace pak použij LangChain nebo přímé Ollama API. Nebo cloudovou verzi přes Google AI Studio (zdarma s rate limity).
Proč na tom záleží pro české vývojáře
Gemma 4 není jen technická kuriozita — je to strategická změna. Tři konkrétní důsledky:
- GDPR compliance bez bolesti: Data nikdy neopustí váš server. Pro aplikace zpracovávající osobní údaje je lokální model nejen levnější, ale právně přímočařejší.
- Cena: Inference přes Groq nebo Together AI stojí kolem $0.10/M tokenů — 10× méně než GPT-4o. Pro high-volume aplikace je to zásadní.
- Fine-tuning: Open model = můžete ho dotrénovat na vlastních datech. Specialized model pro váš obor (právní dokumenty, finanční reporting) je reálná možnost i bez Google-scale compute.
Srovnání s konkurencí
Jak Gemma 4 stojí vedle ostatních open modelů v dubnu 2026?
- Mistral Small 3.1 (24B) — srovnatelný výkon, silnější v evropských jazycích, horší multimodálně
- Llama 3.3 (70B) — lepší v komplexním reasoningu, ale vyžaduje výrazně více VRAM
- Qwen 2.5 (32B) — excelentní v kódování, silná čínsko-anglická multilingualita
Gemma 4 27B je v tomto srovnání nejlepší volbou pro multimodální úlohy a instrukční following, zatímco pro čistý kódovací asistent bych stále sáhl po Qwen 2.5 nebo Llama 3.3.
TL;DR
- Gemma 4 27B je #6 na světovém LM Arena leaderboardu mezi open modely
- Multimodální (text + obrázky), 128K kontext okno
- Spustitelný lokálně přes Ollama — žádný vendor lock-in
- 10× levnější než GPT-4o při cloud inferenci
- Ideální pro GDPR-sensitive aplikace nebo fine-tuning na vlastních datech