Statistiques et perspectives de DeepSeek 2026

Voici un aperçu des données et des statistiques de DeepSeek. Trouvez des informations clés pour vous aider à comprendre tout ce qui concerne DeepSeek.

Aperçu de DeepSeek

CatégorieDétails
Fondateur :Liang Wenfeng
Fondé le :1er mai 2023
Siège social :Hangzhou, Chine
Société mère :High-Flyer (Hedge Fund)
Architecture du modèle :Mélange d’experts (MoE)
Paramètres totaux (V3/R1) :671 milliards
Lancement mondial :20 janvier 2025

Financement et valorisation

MétriqueDétail
Dernière valorisation (début 2025)3,4 milliards $
Total des fonds de capital-risque levésPlus de 1,1 milliard $
Financement de série C (T1 2025)520 millions $
Financement de série B (fin 2024)310 millions $
Investisseurs clésSequoia Capital, Lightspeed, Andreessen Horowitz, Accel, Index Ventures
Financeur initialHigh-Flyer (hedge fund chinois)
Statut de l’entreprisePrivée ; non cotée en bourse

Aperçu clé : DeepSeek a obtenu plus de 1,1 milliard $ de financement et a atteint une valorisation de 3,4 milliards $ au début de 2025, soutenu par d’éminentes sociétés de capital-risque.

Chronologie des événements clés

DateÉvénement
Mai 2023DeepSeek AI est fondée à Hangzhou, en Chine.
Nov 2023Sortie de son premier modèle open-source, DeepSeek Coder.
10 janv 2025Lance son application de chatbot sur iOS et Android.
27 janv 2025Devient l’application gratuite la plus téléchargée sur l’App Store iOS aux États-Unis.
27 janv 2025Signale des cyberattaques à grande échelle, limitant les nouvelles inscriptions d’utilisateurs.
Août 2025Sortie du puissant modèle hybride DeepSeek-V3.1.

Efficacité de l’utilisation des ressources

MétriqueDétail
Coût de formation (DeepSeek-V3)5,5 millions $
Coût de formation comparatifEnviron 1/18ème du coût de construction de GPT-4 d’OpenAI
Ressources de formation utilisées2,788 millions d’heures de GPU H800 utilisant environ 2 000 puces Nvidia H800
Efficacité de l’architectureLe modèle Mixture-of-Experts (MoE) possède 671 milliards de paramètres au total, mais seulement 37 milliards sont activés pour une tâche donnée.
Performance sur l’appareilLes versions quantifiées prennent en charge l’inférence sur l’appareil avec moins de 8 Go de VRAM.

Aperçu clé : L’efficacité de DeepSeek est évidente dans ses coûts de formation nettement inférieurs à ceux de ses concurrents.

Impact sur le marché boursier américain

EntrepriseChute de l’actionPerte de capitalisation boursièreDate de l’impact
Nvidia-17%600 milliards $27 janvier 2025
Microsoft-2,14%27 janvier 2025
Google (Alphabet)-4%27 janvier 2025
S&P 500 Secteur Tech-5,6%27 janvier 2025
Nasdaq Composite-3,4%27 janvier 2025
Marché américain total1 billion $27 janvier 2025

Aperçu clé : Le lancement mondial de DeepSeek en janvier 2025 a déclenché la plus forte baisse du secteur technologique en une seule journée depuis septembre 2020 aux États-Unis, effaçant 1 billion $ de valeur sur le marché américain.

Démographie des utilisateurs par âge et plateforme

Groupe d’âgeUtilisateurs iOSUtilisateurs AndroidDifférence
18-24 ans38,7%44,9%+6,2% Android
25-34 ans22,1%13,2%+8,9% iOS
35-49 ans15,3%14,9%+0,4% iOS
50-64 ans23,3%26,1%+2,8% Android
65 ans et +0,6%1,0%+0,4% Android

Aperçu clé : Les jeunes adultes âgés de 18 à 24 ans représentent le segment d’utilisateurs le plus important sur les deux plateformes, Android affichant une adoption plus forte chez les populations plus jeunes.

 Statistiques de trafic du site web

MétriqueValeur
Trafic mensuel436,2 millions
Trafic quotidien moyen14,5 millions
Part du trafic sur ordinateur81,63%
Part du trafic mobile18,37%
Durée moyenne de la session4m 58s
Taux de rebond33,73%
Trafic de recherche directe61,29%
Trafic de recherche organique33,56%
Principale source de réseaux sociauxYouTube (59,44%)

Aperçu clé : Les utilisateurs d’ordinateurs dominent le trafic de DeepSeek à 81,63 %, ce qui suggère que la plateforme est principalement utilisée pour le travail professionnel et le développement plutôt que pour une consommation mobile occasionnelle.

Comparaison des coûts entre les modèles d’IA

ModèleCoût d’entrée (par M de tokens)Coût de sortie (par M de tokens)Coût total (E/S combinées)
DeepSeek-V30,14 $0,28 $0,42 $
DeepSeek-R10,55 $2,19 $2,74 $
OpenAI GPT-3.50,10 $0,10 $
OpenAI GPT-4 Mini0,07 $3,00 $3,07 $
GPT-410,00 $30,00 $40,00 $
Claude-3.5-Sonnet30,00 $30,00 $60,00 $
Gemini 1.5 Pro2,50 $10,00 $12,50 $
Meta Llama-3.5-70B2,00 $2,00 $4,00 $

Aperçu clé : DeepSeek-V3 offre le traitement d’IA le plus rentable à 0,14 $ par million de tokens d’entrée, représentant un avantage de coût de 214x par rapport à Claude-3.5-Sonnet.

Spécifications techniques

SpécificationDeepSeek-V3DeepSeek-R1Détails
Paramètres totaux671 milliards671 milliardsMême architecture de base
Paramètres activés37 milliards37 milliardsMélange d’experts
Longueur du contexte128 000 tokens128 000 tokensFenêtre de contexte étendue
Tokens de formation14,8 billions14,8 billionsDonnées de formation étendues
Heures GPU (H800)2,788 millions2,788 millionsFormation efficace
Coût de développement5,5 millions $Moins de 6 millions $1/18ème du coût de GPT-4
Langages de programmation80+80+Support multi-langages
Tokens de sortie max8 0008 000Limite de réponse unique

Aperçu clé : DeepSeek a atteint des performances de niveau GPT-4 avec seulement 5,5 millions $ de coûts de développement, démontrant une efficacité de coût remarquable dans le développement de modèles d’IA.

Pays et organisations ayant banni DeepSeek

Pays/OrganisationType de bannissementRaisonDate
ItalieRetrait de l’App StoreEnquête sur la vie privéeJanvier 2025
AllemagneDemande de blocage App StoreProtection des donnéesJuin 2025
TaïwanAgences gouvernementalesProblèmes de sécurité2025
AustralieAgences gouvernementalesProblèmes de sécurité2025
Corée du SudMinistères clésProblèmes de sécurité2025
Congrès des États-UnisRestriction d’utilisationProblèmes de sécurité2025
US NavyRestriction d’utilisationProblèmes de sécurité2025

Aperçu clé : Les pays occidentaux et leurs alliés, d’après les données, sont les seuls à avoir ressenti le besoin de restreindre DeepSeek.

Benchmarks de performance vs OpenAI

BenchmarkDeepSeek-R1OpenAI-o1-1217GagnantMarge
AIME 202479,8%79,2%DeepSeek+0,6%
MATH-50097,3%96,4%DeepSeek+0,9%
LiveCodeBench65,9%63,4%DeepSeek+2,5%
SWE Verified49,2%48,9%DeepSeek+0,3%
Classement Codeforces20292061OpenAI-32
Percentile Codeforces96,3%96,6%OpenAI-0,3%
Aider-Polyglot53,3%61,7%OpenAI-8,4%

Aperçu clé : DeepSeek-R1 surpasse OpenAI dans 4 des 7 benchmarks, excellant particulièrement dans les tâches de raisonnement mathématique tout en étant en retrait sur les capacités de codage multilingue.

Métriques d’utilisation par produit (2025)

ProduitMétrique d’utilisation
API DeepSeek LLM5,7 milliards d’appels API par mois
DeepSeek-Coder1,9 milliard de requêtes de génération de code au S1 2025
DeepSeek-VL (Multimodal)980 millions de requêtes multimodales par mois

Aperçu clé : L’API LLM à usage général reçoit le volume de trafic le plus élevé, soit plus du double des volumes de requêtes combinés des modèles Coder et VL.

Téléchargements d’applications par pays

PaysPourcentage de téléchargements
Chine34%
Inde8%
Russie7%
États-Unis6%
Pakistan4%
Brésil4%
Indonésie4%
France3%
Royaume-Uni3%
Autres pays27%

Aperçu clé : Bien que l’activité des utilisateurs soit élevée en Inde et en Indonésie, la Russie représente un pourcentage plus élevé de téléchargements d’applications que l’un ou l’autre de ces pays.

Métriques de qualité de génération de contenu

Catégorie de qualitéBenchmark / MétriqueScore / Performance rapporté
Raisonnement général et connaissancesMMLU (Massive Multitask Language Understanding)90,8% (DeepSeek-R1)
DROP (Discrete Reasoning Over Paragraphs)91,6% (DeepSeek-R1)
ARC Challenge (AI2 Reasoning Challenge)80,1% (DeepSeek-Chat)
Tâches GLUE (General Language Understanding Evaluation)Score F1 moyen de 92,7% (Modèles DeepSeek LLM)
Raisonnement mathématiqueMATH-50097,3% (DeepSeek-R1)
AIME-202479,8% (DeepSeek-R1)
Raisonnement quantitatif (Score NBC News)97 sur 100 (DeepSeek)
CodageHumanEval85,6% (DeepSeek-Coder V2.1)
LiveCodeBench65,9% (DeepSeek-R1)
SWE-bench Verified49,2% (DeepSeek-R1)
Exactitude factuelleTruthfulQA64,3% (DeepSeek-Chat)
Multimodal (Vision et Langage)VQAv2 (Visual Question Answering v2)87,2% (DeepSeek-VL)
Précision OCR (Reconnaissance optique de caractères)Précision de reconnaissance de 92,1% (DeepSeek-VL)
Recherche d’informationScore nDCG (Récupération dense)0,925 (DeepSeek-Embed)

Aperçu clé : Les modèles de DeepSeek démontrent des performances d’élite sur divers types de contenu, atteignant des scores supérieurs à 90 % dans la compréhension générale du langage, la résolution de problèmes mathématiques et les benchmarks de reconnaissance optique de caractères.

Performance de génération de code

Benchmark / MétriqueModèleScore rapporté
HumanEval (Synthèse de code Python)DeepSeek-Coder V2.185,6%
LiveCodeBench (Codage général)DeepSeek-R165,9%
SWE-bench Verified (Génie logiciel)DeepSeek-R149,2%
Codeforces (Programmation compétitive)DeepSeek-R196,3% (Percentile)
Productivité des développeurs (Enquête entreprise)DeepSeek-Coder82% des développeurs ont signalé une productivité accrue

Aperçu clé : Les modèles de codage de DeepSeek excellent à la fois dans les benchmarks standardisés, comme HumanEval, et dans l’application pratique, avec une majorité significative de développeurs en entreprise signalant une productivité accrue.

Matrice de support linguistique

CapacitéLangues supportées
Langues naturelles (Multimodal)Le modèle DeepSeek-VL supporte 12 langues.
Support localiséLa plateforme s’est étendue à 37 pays avec un support localisé pour des langues incluant l’arabe, le swahili et le vietnamien.
Langages de programmation (Général)DeepSeek supporte plus de 80 langages de programmation.
Langages de programmation (Coder V2.1)Le modèle DeepSeek-Coder V2.1 supporte spécifiquement 32 langages de programmation, incluant le COBOL et le Rust.

Aperçu clé : La plateforme offre un large support linguistique, couvrant des dizaines de langages de programmation pour les développeurs.

Métriques d’intégration en entreprise

MétriqueChiffre / Détail
Comptes d’entreprise intégrésPlus de 26 000
Déploiements de la suite entrepriseDéployée dans plus de 3 200 organisations
Appels API mensuels5,7 milliards
Réduction du temps d’intégrationLe temps d’intégration des développeurs a été réduit de 42 % grâce à l’amélioration de la documentation et des outils au T1 2025.

Aperçu clé : DeepSeek a démontré une intégration réussie en entreprise à grande échelle, comme en témoignent les milliards d’appels API mensuels et le déploiement dans des milliers d’organisations.

Contributions à l’écosystème Open-Source

Domaine de contributionMétrique / Détail
Engagement de la communautéLe dépôt GitHub a dépassé les 170 000 étoiles, devenant le projet d’IA le plus étoilé en 2025
Collaboration des développeursPlus de 60 000 contributeurs uniques ont participé aux projets DeepSeek
Jeux de données publicsPublication de 4 jeux de données majeurs en 2025, incluant un corpus multilingue de 2,1 billions de tokens
Accessibilité des modèlesLes archives de poids LLM ouverts ont été téléchargées 11,2 millions de fois au cours des cinq premiers mois de 2025
Impact académiqueLes outils ou jeux de données DeepSeek ont été cités dans 38 % de tous les nouveaux articles de recherche en IA sur Arxiv au T1 2025

Aperçu clé : L’impact de DeepSeek s’étend au-delà de ses produits à la communauté de l’IA au sens large, où il mène en termes d’engagement open-source, de partage de données et d’influence académique.


Références

DataGlobeHub utilise les meilleures sources de données disponibles pour étayer chaque publication. Nous donnons la priorité aux sources de bonne réputation, comme les sources gouvernementales, les sources faisant autorité, les sources d’experts et les publications bien documentées. Lors de la citation de nos sources, nous fournissons le titre du rapport suivi du nom de la publication. Lorsque cela n’est pas applicable, nous fournissons uniquement le nom de la publication.

  1. Utilisateurs actifs quotidiens de DeepSeek – Statista
  2. DeepSeek expliqué – TechTarget
  3. Statistiques et faits sur les utilisateurs de DeepSeek AI – GrabOn
  4. Statistiques d’utilisation de DeepSeek – BytePlus
  5. Statistiques DeepSeek AI  – Sq Magazine
  6. 50 dernières statistiques DeepSeek – Thunderbit

Partager