Statistiques et perspectives de DeepSeek 2026
Voici un aperçu des données et des statistiques de DeepSeek. Trouvez des informations clés pour vous aider à comprendre tout ce qui concerne DeepSeek.

Aperçu de DeepSeek
| Catégorie | Détails |
| Fondateur : | Liang Wenfeng |
| Fondé le : | 1er mai 2023 |
| Siège social : | Hangzhou, Chine |
| Société mère : | High-Flyer (Hedge Fund) |
| Architecture du modèle : | Mélange d’experts (MoE) |
| Paramètres totaux (V3/R1) : | 671 milliards |
| Lancement mondial : | 20 janvier 2025 |
Financement et valorisation
| Métrique | Détail |
| Dernière valorisation (début 2025) | 3,4 milliards $ |
| Total des fonds de capital-risque levés | Plus de 1,1 milliard $ |
| Financement de série C (T1 2025) | 520 millions $ |
| Financement de série B (fin 2024) | 310 millions $ |
| Investisseurs clés | Sequoia Capital, Lightspeed, Andreessen Horowitz, Accel, Index Ventures |
| Financeur initial | High-Flyer (hedge fund chinois) |
| Statut de l’entreprise | Privée ; non cotée en bourse |
Aperçu clé : DeepSeek a obtenu plus de 1,1 milliard $ de financement et a atteint une valorisation de 3,4 milliards $ au début de 2025, soutenu par d’éminentes sociétés de capital-risque.
Chronologie des événements clés
| Date | Événement |
| Mai 2023 | DeepSeek AI est fondée à Hangzhou, en Chine. |
| Nov 2023 | Sortie de son premier modèle open-source, DeepSeek Coder. |
| 10 janv 2025 | Lance son application de chatbot sur iOS et Android. |
| 27 janv 2025 | Devient l’application gratuite la plus téléchargée sur l’App Store iOS aux États-Unis. |
| 27 janv 2025 | Signale des cyberattaques à grande échelle, limitant les nouvelles inscriptions d’utilisateurs. |
| Août 2025 | Sortie du puissant modèle hybride DeepSeek-V3.1. |
Efficacité de l’utilisation des ressources
| Métrique | Détail |
| Coût de formation (DeepSeek-V3) | 5,5 millions $ |
| Coût de formation comparatif | Environ 1/18ème du coût de construction de GPT-4 d’OpenAI |
| Ressources de formation utilisées | 2,788 millions d’heures de GPU H800 utilisant environ 2 000 puces Nvidia H800 |
| Efficacité de l’architecture | Le modèle Mixture-of-Experts (MoE) possède 671 milliards de paramètres au total, mais seulement 37 milliards sont activés pour une tâche donnée. |
| Performance sur l’appareil | Les versions quantifiées prennent en charge l’inférence sur l’appareil avec moins de 8 Go de VRAM. |
Aperçu clé : L’efficacité de DeepSeek est évidente dans ses coûts de formation nettement inférieurs à ceux de ses concurrents.
Impact sur le marché boursier américain
| Entreprise | Chute de l’action | Perte de capitalisation boursière | Date de l’impact |
|---|---|---|---|
| Nvidia | -17% | 600 milliards $ | 27 janvier 2025 |
| Microsoft | -2,14% | – | 27 janvier 2025 |
| Google (Alphabet) | -4% | – | 27 janvier 2025 |
| S&P 500 Secteur Tech | -5,6% | – | 27 janvier 2025 |
| Nasdaq Composite | -3,4% | – | 27 janvier 2025 |
| Marché américain total | – | 1 billion $ | 27 janvier 2025 |
Aperçu clé : Le lancement mondial de DeepSeek en janvier 2025 a déclenché la plus forte baisse du secteur technologique en une seule journée depuis septembre 2020 aux États-Unis, effaçant 1 billion $ de valeur sur le marché américain.
Démographie des utilisateurs par âge et plateforme
| Groupe d’âge | Utilisateurs iOS | Utilisateurs Android | Différence |
|---|---|---|---|
| 18-24 ans | 38,7% | 44,9% | +6,2% Android |
| 25-34 ans | 22,1% | 13,2% | +8,9% iOS |
| 35-49 ans | 15,3% | 14,9% | +0,4% iOS |
| 50-64 ans | 23,3% | 26,1% | +2,8% Android |
| 65 ans et + | 0,6% | 1,0% | +0,4% Android |
Aperçu clé : Les jeunes adultes âgés de 18 à 24 ans représentent le segment d’utilisateurs le plus important sur les deux plateformes, Android affichant une adoption plus forte chez les populations plus jeunes.
Statistiques de trafic du site web
| Métrique | Valeur |
|---|---|
| Trafic mensuel | 436,2 millions |
| Trafic quotidien moyen | 14,5 millions |
| Part du trafic sur ordinateur | 81,63% |
| Part du trafic mobile | 18,37% |
| Durée moyenne de la session | 4m 58s |
| Taux de rebond | 33,73% |
| Trafic de recherche directe | 61,29% |
| Trafic de recherche organique | 33,56% |
| Principale source de réseaux sociaux | YouTube (59,44%) |
Aperçu clé : Les utilisateurs d’ordinateurs dominent le trafic de DeepSeek à 81,63 %, ce qui suggère que la plateforme est principalement utilisée pour le travail professionnel et le développement plutôt que pour une consommation mobile occasionnelle.
Comparaison des coûts entre les modèles d’IA
| Modèle | Coût d’entrée (par M de tokens) | Coût de sortie (par M de tokens) | Coût total (E/S combinées) |
|---|---|---|---|
| DeepSeek-V3 | 0,14 $ | 0,28 $ | 0,42 $ |
| DeepSeek-R1 | 0,55 $ | 2,19 $ | 2,74 $ |
| OpenAI GPT-3.5 | 0,10 $ | – | 0,10 $ |
| OpenAI GPT-4 Mini | 0,07 $ | 3,00 $ | 3,07 $ |
| GPT-4 | 10,00 $ | 30,00 $ | 40,00 $ |
| Claude-3.5-Sonnet | 30,00 $ | 30,00 $ | 60,00 $ |
| Gemini 1.5 Pro | 2,50 $ | 10,00 $ | 12,50 $ |
| Meta Llama-3.5-70B | 2,00 $ | 2,00 $ | 4,00 $ |
Aperçu clé : DeepSeek-V3 offre le traitement d’IA le plus rentable à 0,14 $ par million de tokens d’entrée, représentant un avantage de coût de 214x par rapport à Claude-3.5-Sonnet.
Spécifications techniques
| Spécification | DeepSeek-V3 | DeepSeek-R1 | Détails |
|---|---|---|---|
| Paramètres totaux | 671 milliards | 671 milliards | Même architecture de base |
| Paramètres activés | 37 milliards | 37 milliards | Mélange d’experts |
| Longueur du contexte | 128 000 tokens | 128 000 tokens | Fenêtre de contexte étendue |
| Tokens de formation | 14,8 billions | 14,8 billions | Données de formation étendues |
| Heures GPU (H800) | 2,788 millions | 2,788 millions | Formation efficace |
| Coût de développement | 5,5 millions $ | Moins de 6 millions $ | 1/18ème du coût de GPT-4 |
| Langages de programmation | 80+ | 80+ | Support multi-langages |
| Tokens de sortie max | 8 000 | 8 000 | Limite de réponse unique |
Aperçu clé : DeepSeek a atteint des performances de niveau GPT-4 avec seulement 5,5 millions $ de coûts de développement, démontrant une efficacité de coût remarquable dans le développement de modèles d’IA.
Pays et organisations ayant banni DeepSeek
| Pays/Organisation | Type de bannissement | Raison | Date |
|---|---|---|---|
| Italie | Retrait de l’App Store | Enquête sur la vie privée | Janvier 2025 |
| Allemagne | Demande de blocage App Store | Protection des données | Juin 2025 |
| Taïwan | Agences gouvernementales | Problèmes de sécurité | 2025 |
| Australie | Agences gouvernementales | Problèmes de sécurité | 2025 |
| Corée du Sud | Ministères clés | Problèmes de sécurité | 2025 |
| Congrès des États-Unis | Restriction d’utilisation | Problèmes de sécurité | 2025 |
| US Navy | Restriction d’utilisation | Problèmes de sécurité | 2025 |
Aperçu clé : Les pays occidentaux et leurs alliés, d’après les données, sont les seuls à avoir ressenti le besoin de restreindre DeepSeek.
Benchmarks de performance vs OpenAI
| Benchmark | DeepSeek-R1 | OpenAI-o1-1217 | Gagnant | Marge |
|---|---|---|---|---|
| AIME 2024 | 79,8% | 79,2% | DeepSeek | +0,6% |
| MATH-500 | 97,3% | 96,4% | DeepSeek | +0,9% |
| LiveCodeBench | 65,9% | 63,4% | DeepSeek | +2,5% |
| SWE Verified | 49,2% | 48,9% | DeepSeek | +0,3% |
| Classement Codeforces | 2029 | 2061 | OpenAI | -32 |
| Percentile Codeforces | 96,3% | 96,6% | OpenAI | -0,3% |
| Aider-Polyglot | 53,3% | 61,7% | OpenAI | -8,4% |
Aperçu clé : DeepSeek-R1 surpasse OpenAI dans 4 des 7 benchmarks, excellant particulièrement dans les tâches de raisonnement mathématique tout en étant en retrait sur les capacités de codage multilingue.
Métriques d’utilisation par produit (2025)
| Produit | Métrique d’utilisation |
| API DeepSeek LLM | 5,7 milliards d’appels API par mois |
| DeepSeek-Coder | 1,9 milliard de requêtes de génération de code au S1 2025 |
| DeepSeek-VL (Multimodal) | 980 millions de requêtes multimodales par mois |
Aperçu clé : L’API LLM à usage général reçoit le volume de trafic le plus élevé, soit plus du double des volumes de requêtes combinés des modèles Coder et VL.
Téléchargements d’applications par pays
| Pays | Pourcentage de téléchargements |
| Chine | 34% |
| Inde | 8% |
| Russie | 7% |
| États-Unis | 6% |
| Pakistan | 4% |
| Brésil | 4% |
| Indonésie | 4% |
| France | 3% |
| Royaume-Uni | 3% |
| Autres pays | 27% |
Aperçu clé : Bien que l’activité des utilisateurs soit élevée en Inde et en Indonésie, la Russie représente un pourcentage plus élevé de téléchargements d’applications que l’un ou l’autre de ces pays.
Métriques de qualité de génération de contenu
| Catégorie de qualité | Benchmark / Métrique | Score / Performance rapporté |
| Raisonnement général et connaissances | MMLU (Massive Multitask Language Understanding) | 90,8% (DeepSeek-R1) |
| DROP (Discrete Reasoning Over Paragraphs) | 91,6% (DeepSeek-R1) | |
| ARC Challenge (AI2 Reasoning Challenge) | 80,1% (DeepSeek-Chat) | |
| Tâches GLUE (General Language Understanding Evaluation) | Score F1 moyen de 92,7% (Modèles DeepSeek LLM) | |
| Raisonnement mathématique | MATH-500 | 97,3% (DeepSeek-R1) |
| AIME-2024 | 79,8% (DeepSeek-R1) | |
| Raisonnement quantitatif (Score NBC News) | 97 sur 100 (DeepSeek) | |
| Codage | HumanEval | 85,6% (DeepSeek-Coder V2.1) |
| LiveCodeBench | 65,9% (DeepSeek-R1) | |
| SWE-bench Verified | 49,2% (DeepSeek-R1) | |
| Exactitude factuelle | TruthfulQA | 64,3% (DeepSeek-Chat) |
| Multimodal (Vision et Langage) | VQAv2 (Visual Question Answering v2) | 87,2% (DeepSeek-VL) |
| Précision OCR (Reconnaissance optique de caractères) | Précision de reconnaissance de 92,1% (DeepSeek-VL) | |
| Recherche d’information | Score nDCG (Récupération dense) | 0,925 (DeepSeek-Embed) |
Aperçu clé : Les modèles de DeepSeek démontrent des performances d’élite sur divers types de contenu, atteignant des scores supérieurs à 90 % dans la compréhension générale du langage, la résolution de problèmes mathématiques et les benchmarks de reconnaissance optique de caractères.
Performance de génération de code
| Benchmark / Métrique | Modèle | Score rapporté |
| HumanEval (Synthèse de code Python) | DeepSeek-Coder V2.1 | 85,6% |
| LiveCodeBench (Codage général) | DeepSeek-R1 | 65,9% |
| SWE-bench Verified (Génie logiciel) | DeepSeek-R1 | 49,2% |
| Codeforces (Programmation compétitive) | DeepSeek-R1 | 96,3% (Percentile) |
| Productivité des développeurs (Enquête entreprise) | DeepSeek-Coder | 82% des développeurs ont signalé une productivité accrue |
Aperçu clé : Les modèles de codage de DeepSeek excellent à la fois dans les benchmarks standardisés, comme HumanEval, et dans l’application pratique, avec une majorité significative de développeurs en entreprise signalant une productivité accrue.
Matrice de support linguistique
| Capacité | Langues supportées |
| Langues naturelles (Multimodal) | Le modèle DeepSeek-VL supporte 12 langues. |
| Support localisé | La plateforme s’est étendue à 37 pays avec un support localisé pour des langues incluant l’arabe, le swahili et le vietnamien. |
| Langages de programmation (Général) | DeepSeek supporte plus de 80 langages de programmation. |
| Langages de programmation (Coder V2.1) | Le modèle DeepSeek-Coder V2.1 supporte spécifiquement 32 langages de programmation, incluant le COBOL et le Rust. |
Aperçu clé : La plateforme offre un large support linguistique, couvrant des dizaines de langages de programmation pour les développeurs.
Métriques d’intégration en entreprise
| Métrique | Chiffre / Détail |
| Comptes d’entreprise intégrés | Plus de 26 000 |
| Déploiements de la suite entreprise | Déployée dans plus de 3 200 organisations |
| Appels API mensuels | 5,7 milliards |
| Réduction du temps d’intégration | Le temps d’intégration des développeurs a été réduit de 42 % grâce à l’amélioration de la documentation et des outils au T1 2025. |
Aperçu clé : DeepSeek a démontré une intégration réussie en entreprise à grande échelle, comme en témoignent les milliards d’appels API mensuels et le déploiement dans des milliers d’organisations.
Contributions à l’écosystème Open-Source
| Domaine de contribution | Métrique / Détail |
| Engagement de la communauté | Le dépôt GitHub a dépassé les 170 000 étoiles, devenant le projet d’IA le plus étoilé en 2025 |
| Collaboration des développeurs | Plus de 60 000 contributeurs uniques ont participé aux projets DeepSeek |
| Jeux de données publics | Publication de 4 jeux de données majeurs en 2025, incluant un corpus multilingue de 2,1 billions de tokens |
| Accessibilité des modèles | Les archives de poids LLM ouverts ont été téléchargées 11,2 millions de fois au cours des cinq premiers mois de 2025 |
| Impact académique | Les outils ou jeux de données DeepSeek ont été cités dans 38 % de tous les nouveaux articles de recherche en IA sur Arxiv au T1 2025 |
Aperçu clé : L’impact de DeepSeek s’étend au-delà de ses produits à la communauté de l’IA au sens large, où il mène en termes d’engagement open-source, de partage de données et d’influence académique.
Références
DataGlobeHub utilise les meilleures sources de données disponibles pour étayer chaque publication. Nous donnons la priorité aux sources de bonne réputation, comme les sources gouvernementales, les sources faisant autorité, les sources d’experts et les publications bien documentées. Lors de la citation de nos sources, nous fournissons le titre du rapport suivi du nom de la publication. Lorsque cela n’est pas applicable, nous fournissons uniquement le nom de la publication.
- Utilisateurs actifs quotidiens de DeepSeek – Statista
- DeepSeek expliqué – TechTarget
- Statistiques et faits sur les utilisateurs de DeepSeek AI – GrabOn
- Statistiques d’utilisation de DeepSeek – BytePlus
- Statistiques DeepSeek AI – Sq Magazine
- 50 dernières statistiques DeepSeek – Thunderbit



