Gemma 4 : Google publie ses modèles open-source les plus puissants
Google DeepMind publie Gemma 4, sa nouvelle famille de modèles open-source. Variantes 2B, 9B, 27B, performances et licence : ce qu'il faut savoir.
- Google DeepMind publie Gemma 4, sa famille open weights.
- Variantes 2B, 9B, 27B paramètres, multilingue native.
- Performances en hausse face à Llama 5 sur les modèles compacts.
- License commerciale autorisée, téléchargeable sur Hugging Face.
Avec Gemma 4, Google ne lâche pas l open source. Stratégie en deux temps : Gemini 2 propriétaire pour le haut de gamme, Gemma 4 open pour démocratiser.
Gemma 4 est la nouvelle génération de modèles open weights de Google DeepMind, optimisés pour l auto-hébergement et le edge.
Famille open weights lancée en février 2024 par Google DeepMind, dérivée des recherches Gemini. Distribution gratuite sur Hugging Face avec licence commerciale autorisée. Concurrence frontale avec Llama (Meta) et Mistral (open weights).
Les variantes
Performances vs Llama 5
| Benchmark | Gemma 4 27B | Llama 5 70B |
|---|---|---|
| MMLU | 84 | 86 |
| HumanEval | 88 | 90 |
| Multilingue (XLI) | 82 | 79 |
Gemma 4 27B se rapproche de Llama 5 70B avec 2,5× moins de paramètres. Avantage : peut tourner sur 1 GPU H100 vs 2-3 pour Llama 5 70B.
Questions fréquentes
- Gemma 4 est-il vraiment open-source ?
- Sous licence Gemma , qui autorise l'usage commercial et la modification , mais inclut quelques restrictions (notamment sur les usages malveillants). C'est plus permissif que MIT/Apache mais pas strictement OSS au sens OSI.
- Faut-il un GPU coûteux pour faire tourner Gemma 4 ?
- Pas forcément. Les versions 2B et 9B tournent sur un MacBook M3/M4 grâce à la quantization. La 27B nécessite un GPU H100 ou équivalent.
- Vaut-il mieux choisir Gemma 4 ou Llama 5 ?
- Llama 5 70B reste plus puissant en valeur absolue. Gemma 4 27B est meilleur en rapport perf/coût et latence. Pour un POC ou un edge deployment, Gemma 4 ; pour le top de la qualité open, Llama 5.
Source : blog.google