NewsIA
En direct
Hugging Face hero
Photo Unsplash , illustration IA open source
Hugging Face logo
Open source · Plateforme · Modèles

Hugging Face

Le "GitHub de l IA". Plateforme open source hébergeant 1M+ modèles. Co-fondée par 3 Français.

Flagship NewsIA
Siège
Paris / New York
Fondée
2016
10 ans
Effectifs
350
Levé total
380 M€
Site officiel Hugging Face, Inc.

« L IA open source n est pas juste une option , c est ce qui permettra à la prochaine génération d ingénieurs et de chercheurs de bâtir au-dessus des avancées de chacun. »

Clément Delangue, CEO et cofondateur de Hugging Face
01

À propos de Hugging Face

Hugging Face est devenue en moins d une décennie la plateforme infrastructure de référence pour l intelligence artificielle open sourceLogiciel dont le code source , et parfois les poids du modèle , sont publiés librement et réutilisables.. Surnommée le "GitHub de l IA", elle héberge plus d un million de modèles, des centaines de milliers de jeux de données, et permet à des millions de développeurs et chercheurs de partager, télécharger et déployer des modèles IA.

Fondée à New York en 2016 par trois Français (Clément Delangue, Julien Chaumond et Thomas Wolf), la société a longtemps été un chatbot pour adolescents avant de pivoter en 2018 vers l infrastructure open sourceLogiciel dont le code source , et parfois les poids du modèle , sont publiés librement et réutilisables.. Ce pivot, considéré comme l un des plus brillants de la tech française, l a transformée en pierre angulaire de l écosystème IA mondial. Valorisée 4,5 milliards de dollars en 2023, l entreprise compte 350 employés en 2026, dont une équipe parisienne significative.

Capital cumulé levé380 M€5 tours de table depuis 2018.
02

L'histoire de Hugging Face

  1. Étape 01

    Hugging Face est créée en 2016 à New York comme application de chatbot conversationnel pour adolescents. Pendant deux ans, l équipe peine à trouver son product-market fit malgré une exécution technique remarquée. En 2018, le pivot historique : Hugging Face publie en open sourceLogiciel dont le code source , et parfois les poids du modèle , sont publiés librement et réutilisables. la librairie Transformers, une implémentation Python des modèles BERT et GPT-2 alors fraîchement publiés par Google et OpenAI. La librairie devient instantanément un standard industriel.

  2. Étape 02

    À partir de 2019, la société pivote complètement vers l infrastructure open sourceLogiciel dont le code source , et parfois les poids du modèle , sont publiés librement et réutilisables. : elle lance le Hub, un repository centralisé où chercheurs et entreprises peuvent publier modèles et datasets. Le rythme s accélère : Spaces (apps interactives, 2021), Inference Endpoints (déploiement managé, 2022), AutoTrain (no-code training, 2022). En 2023, levée de 235 millions de dollars en Série D menée par Salesforce, Google, NVIDIA, Amazon, IBM et Intel, valorisant Hugging Face à 4,5 milliards de dollars.

  3. Étape 03

    En 2024, acquisition stratégique de Pollen Robotics (Bordeaux) pour entrer dans la robotique open sourceLogiciel dont le code source , et parfois les poids du modèle , sont publiés librement et réutilisables.. En 2025-2026, la société continue son expansion : 1 million de modèles hébergés, plus de 15 millions d utilisateurs, partenariats stratégiques avec Meta (Llama), Mistral, Microsoft, et l ouverture de l AppStore Reachy Mini pour robots agentiques.

En images
Logo Hugging Face , l emoji 🤗
Logo Hugging Face , l emoji 🤗
Wikipedia
03

Produit et offre

Hugging Face propose un écosystème complet pour l IA open sourceLogiciel dont le code source , et parfois les poids du modèle , sont publiés librement et réutilisables. : le Hub (1M+ modèles, datasets, applications), Spaces (déploiement d apps interactives en quelques clics), Inference Endpoints (APIApplication Programming Interface , canal d'accès programmatique à un service ou un modèle. managée pour servir des modèles), AutoTrain (entraînement no-code), Optimum (optimisation hardware), et les librairies Python open source qui sont devenues standards : Transformers, Datasets, Accelerate, PEFT (fine-tuningSpécialisation d'un modèle pré-entraîné sur un jeu de données ciblé pour améliorer ses performances sur une tâche. LoRA), Diffusers (génération d images), TRL (RLHF).

04

Produits phares

  • Hugging Face Hub

    Repository central de 1M+ modèles, datasets et apps IA open sourceLogiciel dont le code source , et parfois les poids du modèle , sont publiés librement et réutilisables..

  • Transformers

    Librairie Python open sourceLogiciel dont le code source , et parfois les poids du modèle , sont publiés librement et réutilisables. de référence pour les LLMLarge Language Model , modèle de langage entraîné sur des milliards de paramètres pour générer et comprendre du texte.. 130k+ étoiles GitHub.

  • Inference Endpoints

    Service managé de déploiement de modèles en production.

  • Spaces

    Plateforme de déploiement d apps IA interactives en un clic.

  • AutoTrain

    Entraînement de modèles personnalisés sans code.

  • TGI (Text Generation Inference)

    Serveur open sourceLogiciel dont le code source , et parfois les poids du modèle , sont publiés librement et réutilisables. haute performance pour servir les LLMLarge Language Model , modèle de langage entraîné sur des milliards de paramètres pour générer et comprendre du texte..

Vidéo

Clément Delangue sur l open source IA et Nvidia GTC (mars 2026)

05

Technologie et architecture

Stack open sourceLogiciel dont le code source , et parfois les poids du modèle , sont publiés librement et réutilisables. : Python (librairies cœur), Rust (parties critiques perf), TypeScript (frontend Hub). Infrastructure cloud multi-providers (AWS, Azure, GCP). Inference Endpoints utilise NVIDIA Triton, vLLM, TGI (Text Generation Inference, leur solution maison). Stockage modèles : 50+ pétaoctets de poids et datasets distribués via CDN. Le Hub gère le versioning Git pour les modèles (Git LFS).

06

Modèle économique

Modèle freemium classique infrastructure : Hub gratuit pour la majorité des usages, payant pour les organisations entreprise (Pro, Team, Enterprise) avec quotas, support, sécurité. Revenus principaux : Inference Endpoints (paid APIApplication Programming Interface , canal d'accès programmatique à un service ou un modèle.), Spaces hébergés en GPUGraphics Processing Unit , puce hautement parallèle, devenue le standard pour entraîner les modèles d'IA. (paid), Enterprise Hub (5 à 50 $/utilisateur/mois), partenariats cloud (commissions sur Bedrock, Azure ML). Revenu annuel estimé : 100-150 millions de dollars en 2025.

07

Positionnement marché

Hugging Face occupe une position quasi-monopolistique sur l hébergement open sourceLogiciel dont le code source , et parfois les poids du modèle , sont publiés librement et réutilisables. de modèles IA. Les principaux concurrents sont GitHub (qui héberge le code mais pas les poids), les marketplaces des cloud providers (AWS Bedrock, Azure ML), et des challengers émergents comme Replicate (focus inférence). La force de Hugging Face : la communauté (15M+ utilisateurs, 1M+ modèles) et l infrastructure logicielle open source devenue standard de fait.

Concurrents principaux
GitHubAWS BedrockAzure MLGoogle Vertex AIReplicateModal
08

Clients et partenaires majeurs

  • Meta
  • Microsoft
  • Mistral AI
  • NVIDIA
  • Bloomberg
  • Roche
  • Pfizer
  • plus de 50 000 entreprises
09

Équipe fondatrice

  • Clément Delangue
    Clément Delangue
    CEO et cofondateur

    Entrepreneur français, ancien Stanford GSB. Devenu l un des Français les plus influents de la tech mondiale.

  • JC
    Julien Chaumond
    CTO et cofondateur

    Ingénieur français, Polytechnique et Stanford. Architecte de la plateforme.

  • Thomas Wolf
    Thomas Wolf
    Chief Science Officer et cofondateur

    PhD physique statistique, ancien chercheur. Auteur principal des librairies open source Transformers et Datasets.

10

Historique des levées de fonds

Mai 2018
4 M€
Décembre 2019
13 M€
Mars 2021
35 M€
Mai 2022
90 M€
Août 2023
235 M€
DateTourMontant
Mai 2018Seed4 M€
Décembre 2019Série A13 M€
Mars 2021Série B35 M€
Mai 2022Série C90 M€
Août 2023Série D235 M€
Total levé380 M€