NewsIA
En direct
Modèles de langage

DeepSeek : pourquoi le modèle chinois bouscule l IA mondiale

Histoire, performances, coût d entraînement, controverses, accès en France : tout sur DeepSeek, le modèle chinois qui change la donne.


PartagerXLinkedInEmail
DeepSeek : pourquoi le modèle chinois bouscule l IA mondiale
À retenir
  • DeepSeek est un labo IA chinois basé à Hangzhou, filiale du fonds quantitatif High-Flyer.
  • Son modèle R1 (janvier 2025) a démontré qu on pouvait égaler OpenAI o1 pour 50 fois moins cher.
  • DeepSeek V4 figure dans le top 3 mondial sur le code en 2026.
  • Censuré sur Taiwan, Tiananmen, Xinjiang. Préférer un hébergeur hors Chine pour les usages pros.

En janvier 2025, DeepSeek R1 a fait l effet d un séisme : un modèle de raisonnement open source quasi équivalent à OpenAI o1, entraîné pour 6 millions de dollars (contre des centaines de millions pour les concurrents). Un an plus tard, le laboratoire chinois confirme et accélère.

🐋
DeepSeek

Filiale de High-Flyer, fonds quantitatif chinois basé à Hangzhou. Fondée en 2023 par Liang Wenfeng, qui a fait fortune dans le trading algorithmique avant de réorienter ses ressources vers l IA pure. Équipe d environ 200 personnes, recrute majoritairement des jeunes diplômés chinois.

Le choc R1 et ses suites

DeepSeek R1, sorti en janvier 2025, a démontré qu il était possible d atteindre les performances de raisonnement d OpenAI o1 avec un budget 50 fois inférieur, en utilisant une approche d apprentissage par renforcement directe sans étape de fine-tuning supervisée intermédiaire.

Apprentissage par renforcement

Technique où le modèle apprend par essais-erreurs récompensés, comme un humain qui apprend à jouer aux échecs. Découverte clé de DeepSeek : on peut sauter l étape coûteuse de "fine-tuning supervisé" et entraîner le modèle directement sur ses propres raisonnements.

V3 fin 2025, V4 début 2026 ont consolidé l avance.

PerformanceLes benchmarks réels

Performances vs concurrents

95HumanEval
64SWE-bench
91MMLU
6M$Coût V3
Benchmark DeepSeek V4 GPT-5.5 Claude Opus 4.7
MMLU 91 92 93
HumanEval 95 94 96
SWE-bench 64 67 71
GPQA 78 82 84

L écart se mesure en quelques points. Sur le terrain (génération de code, analyse de documents techniques), DeepSeek est régulièrement préféré pour sa vitesse de réponse et son coût.

Coût d entraînement

C est le point le plus disruptif. DeepSeek revendique 6 à 10 millions de dollars pour entraîner V3, contre 100 à 200 millions pour GPT-4. Plusieurs experts ont contesté ces chiffres, mais la tendance est confirmée.

Anthropic, OpenAI et Google ne peuvent plus compter sur le coût de R&D comme moat. Ils doivent miser sur l écosystème, la sécurité, l intégration produit.

AvertissementLes controverses

Les controverses

  • Censure : DeepSeek refuse les sujets sensibles (Taiwan, Tiananmen, Xinjiang). Limitation sérieuse pour les usages occidentaux.
  • Données d entraînement : suspicion que DeepSeek ait massivement distillé GPT-4 et Claude. OpenAI a engagé des poursuites en 2025.
  • Souveraineté : utiliser DeepSeek via son API hébergée en Chine soulève des questions RGPD majeures.
  • Utiliser DeepSeek en France

    3 options :

  • Web officiel chat.deepseek.com : gratuit mais données traitées en Chine, déconseillé pour pro
  • Via Hugging Face ou Together.ai : poids open source, hébergement EU/US, RGPD safe
  • Auto-hébergement : possible avec un cluster GPU, recommandé pour les usages sensibles
  • Pour les développeurs, DeepSeek via Together coûte 5-10 fois moins cher que Claude ou GPT pour des performances comparables sur le code.

    Verdict

    DeepSeek est un excellent modèle de second pool, à utiliser pour le code et les tâches techniques quand la confidentialité n est pas critique.

    Pour la rédaction française, l analyse stratégique sensible ou les usages grand public polyvalents, Claude, GPT-5.5 et Mistral restent préférables.

    Le débat de fondIA open source vs propriétaire : que choisir en 2026

    L alternative européenneMistral AI, le champion français

    Sources

    Questions fréquentes

    Qu est-ce que DeepSeek ?
    Un laboratoire IA chinois fondé en 2023 par High-Flyer, fonds quantitatif basé à Hangzhou. Devenu mondialement célèbre en janvier 2025 avec son modèle R1 capable de rivaliser avec OpenAI o1 pour 50 fois moins cher.
    DeepSeek est-il meilleur que ChatGPT ?
    Sur le code, DeepSeek V4 est au niveau de GPT-5.5. Sur le raisonnement général, l écart se mesure en quelques points. Sur le français créatif et l usage grand public polyvalent, GPT et Claude restent devant.
    Peut-on utiliser DeepSeek en France ?
    Oui mais pas via le site officiel (données traitées en Chine, risque RGPD). Préférez les hébergeurs européens et américains qui proposent les poids open source de DeepSeek (Together, Fireworks, Hugging Face).
    DeepSeek est-il vraiment 50 fois moins cher à entraîner ?
    DeepSeek revendique 6 à 10 millions de dollars pour V3 contre 100 à 200 millions pour GPT-4. Les chiffres exacts sont contestés mais la tendance est confirmée : la barrière à l entrée des modèles frontaliers chute fortement.
    DeepSeek est-il censuré ?
    Oui sur les sujets politiquement sensibles en Chine (Taiwan, Tiananmen, Xinjiang). Limitation sérieuse pour des usages éditoriaux ou journalistiques occidentaux.
    Modèles cités

    À lire aussi