DeepSeek : pourquoi le modèle chinois bouscule l IA mondiale
Histoire, performances, coût d entraînement, controverses, accès en France : tout sur DeepSeek, le modèle chinois qui change la donne.

- DeepSeek est un labo IA chinois basé à Hangzhou, filiale du fonds quantitatif High-Flyer.
- Son modèle R1 (janvier 2025) a démontré qu on pouvait égaler OpenAI o1 pour 50 fois moins cher.
- DeepSeek V4 figure dans le top 3 mondial sur le code en 2026.
- Censuré sur Taiwan, Tiananmen, Xinjiang. Préférer un hébergeur hors Chine pour les usages pros.
En janvier 2025, DeepSeek R1 a fait l effet d un séisme : un modèle de raisonnement open source quasi équivalent à OpenAI o1, entraîné pour 6 millions de dollars (contre des centaines de millions pour les concurrents). Un an plus tard, le laboratoire chinois confirme et accélère.
Filiale de High-Flyer, fonds quantitatif chinois basé à Hangzhou. Fondée en 2023 par Liang Wenfeng, qui a fait fortune dans le trading algorithmique avant de réorienter ses ressources vers l IA pure. Équipe d environ 200 personnes, recrute majoritairement des jeunes diplômés chinois.
Le choc R1 et ses suites
DeepSeek R1, sorti en janvier 2025, a démontré qu il était possible d atteindre les performances de raisonnement d OpenAI o1 avec un budget 50 fois inférieur, en utilisant une approche d apprentissage par renforcement directe sans étape de fine-tuning supervisée intermédiaire.
Technique où le modèle apprend par essais-erreurs récompensés, comme un humain qui apprend à jouer aux échecs. Découverte clé de DeepSeek : on peut sauter l étape coûteuse de "fine-tuning supervisé" et entraîner le modèle directement sur ses propres raisonnements.
V3 fin 2025, V4 début 2026 ont consolidé l avance.
Performances vs concurrents
| Benchmark | DeepSeek V4 | GPT-5.5 | Claude Opus 4.7 |
|---|---|---|---|
| MMLU | 91 | 92 | 93 |
| HumanEval | 95 | 94 | 96 |
| SWE-bench | 64 | 67 | 71 |
| GPQA | 78 | 82 | 84 |
L écart se mesure en quelques points. Sur le terrain (génération de code, analyse de documents techniques), DeepSeek est régulièrement préféré pour sa vitesse de réponse et son coût.
Coût d entraînement
C est le point le plus disruptif. DeepSeek revendique 6 à 10 millions de dollars pour entraîner V3, contre 100 à 200 millions pour GPT-4. Plusieurs experts ont contesté ces chiffres, mais la tendance est confirmée.
Anthropic, OpenAI et Google ne peuvent plus compter sur le coût de R&D comme moat. Ils doivent miser sur l écosystème, la sécurité, l intégration produit.
Les controverses
Utiliser DeepSeek en France
3 options :
Pour les développeurs, DeepSeek via Together coûte 5-10 fois moins cher que Claude ou GPT pour des performances comparables sur le code.
Verdict
DeepSeek est un excellent modèle de second pool, à utiliser pour le code et les tâches techniques quand la confidentialité n est pas critique.
Pour la rédaction française, l analyse stratégique sensible ou les usages grand public polyvalents, Claude, GPT-5.5 et Mistral restent préférables.
- DeepSeek, site officiel
- Modèles open source DeepSeek sur Hugging Face
- "DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning", janvier 2025
Questions fréquentes
- Qu est-ce que DeepSeek ?
- Un laboratoire IA chinois fondé en 2023 par High-Flyer, fonds quantitatif basé à Hangzhou. Devenu mondialement célèbre en janvier 2025 avec son modèle R1 capable de rivaliser avec OpenAI o1 pour 50 fois moins cher.
- DeepSeek est-il meilleur que ChatGPT ?
- Sur le code, DeepSeek V4 est au niveau de GPT-5.5. Sur le raisonnement général, l écart se mesure en quelques points. Sur le français créatif et l usage grand public polyvalent, GPT et Claude restent devant.
- Peut-on utiliser DeepSeek en France ?
- Oui mais pas via le site officiel (données traitées en Chine, risque RGPD). Préférez les hébergeurs européens et américains qui proposent les poids open source de DeepSeek (Together, Fireworks, Hugging Face).
- DeepSeek est-il vraiment 50 fois moins cher à entraîner ?
- DeepSeek revendique 6 à 10 millions de dollars pour V3 contre 100 à 200 millions pour GPT-4. Les chiffres exacts sont contestés mais la tendance est confirmée : la barrière à l entrée des modèles frontaliers chute fortement.
- DeepSeek est-il censuré ?
- Oui sur les sujets politiquement sensibles en Chine (Taiwan, Tiananmen, Xinjiang). Limitation sérieuse pour des usages éditoriaux ou journalistiques occidentaux.