DeepSeek Statistiken und Einblicke 2026
Hier ist ein Blick auf die Daten und Statistiken von DeepSeek. Finden Sie wichtige Erkenntnisse, die Ihnen helfen, alles rund um DeepSeek zu verstehen.

DeepSeek Überblick
| Kategorie | Details |
| Gründer: | Liang Wenfeng |
| Gegründet am: | 1. Mai 2023 |
| Hauptsitz: | Hangzhou, China |
| Muttergesellschaft: | High-Flyer (Hedgefonds) |
| Modellarchitektur: | Mixture of Experts (MoE) |
| Gesamtparameter (V3/R1): | 671 Milliarden |
| Globaler Start: | 20. Januar 2025 |
Finanzierung und Bewertung
| Metrik | Detail |
| Aktuelle Bewertung (Anfang 2025) | 3,4 Milliarden $ |
| Gesamtes eingeworbenes Risikokapital | Über 1,1 Milliarden $ |
| Serie-C-Finanzierung (Q1 2025) | 520 Millionen $ |
| Serie-B-Finanzierung (Ende 2024) | 310 Millionen $ |
| Wichtige Investoren | Sequoia Capital, Lightspeed, Andreessen Horowitz, Accel, Index Ventures |
| Initialer Geldgeber | High-Flyer (chinesischer Hedgefonds) |
| Unternehmensstatus | Privat; nicht an Börsen notiert |
Wichtige Erkenntnis: DeepSeek sicherte sich bis Anfang 2025 über 1,1 Milliarden $ an Finanzierungsmitteln und erreichte eine Bewertung von 3,4 Milliarden $, unterstützt von namhaften Risikokapitalgesellschaften.
Zeitplan der wichtigsten Ereignisse
| Datum | Ereignis |
| Mai 2023 | DeepSeek AI wird in Hangzhou, China, gegründet. |
| Nov 2023 | Veröffentlicht sein erstes Open-Source-Modell, DeepSeek Coder. |
| 10. Jan 2025 | Startet seine Chatbot-App auf iOS und Android. |
| 27. Jan 2025 | Wird zur am häufigsten heruntergeladenen kostenlosen App im US iOS App Store. |
| 27. Jan 2025 | Meldet groß angelegte Cyberangriffe, die Neuanmeldungen einschränken. |
| Aug 2025 | Veröffentlicht das leistungsstarke Hybridmodell DeepSeek-V3.1. |
Effizienz der Ressourcennutzung
| Metrik | Detail |
| Trainingskosten (DeepSeek-V3) | 5,5 Millionen $ |
| Vergleichbare Trainingskosten | Etwa 1/18 der Kosten für die Erstellung von OpenAIs GPT-4 |
| Genutzte Trainingsressourcen | 2,788 Millionen H800-GPU-Stunden mit rund 2.000 Nvidia H800-Chips |
| Architektureffizienz | Das Mixture-of-Experts (MoE)-Modell verfügt über insgesamt 671 Milliarden Parameter, aber nur 37 Milliarden werden für eine bestimmte Aufgabe aktiviert. |
| On-Device-Leistung | Quantisierte Versionen unterstützen On-Device-Inferenz mit weniger als 8 GB VRAM. |
Wichtige Erkenntnis: Die Effizienz von DeepSeek zeigt sich in den deutlich niedrigeren Trainingskosten im Vergleich zu Wettbewerbern.
Marktauswirkungen auf den US-Aktienmarkt
| Unternehmen | Aktienrückgang | Verlust an Marktkapitalisierung | Datum der Auswirkung |
|---|---|---|---|
| Nvidia | -17% | 600 Milliarden $ | 27. Januar 2025 |
| Microsoft | -2,14% | – | 27. Januar 2025 |
| Google (Alphabet) | -4% | – | 27. Januar 2025 |
| S&P 500 Tech-Sektor | -5,6% | – | 27. Januar 2025 |
| Nasdaq Composite | -3,4% | – | 27. Januar 2025 |
| Gesamter US-Markt | – | 1 Billion $ | 27. Januar 2025 |
Wichtige Erkenntnis: Der globale Start von DeepSeek im Januar 2025 löste den größten eintägigen Rückgang im Technologiesektor in den USA seit September 2020 aus und vernichtete 1 Billion $ an US-Marktwert.
Nutzerdemografie nach Alter und Plattform
| Altersgruppe | iOS-Nutzer | Android-Nutzer | Differenz |
|---|---|---|---|
| 18-24 Jahre | 38,7% | 44,9% | +6,2% Android |
| 25-34 Jahre | 22,1% | 13,2% | +8,9% iOS |
| 35-49 Jahre | 15,3% | 14,9% | +0,4% iOS |
| 50-64 Jahre | 23,3% | 26,1% | +2,8% Android |
| 65+ Jahre | 0,6% | 1,0% | +0,4% Android |
Wichtige Erkenntnis: Junge Erwachsene im Alter von 18 bis 24 Jahren stellen das größte Nutzersegment auf beiden Plattformen dar, wobei Android eine stärkere Akzeptanz bei jüngeren Demografien zeigt.
Website-Verkehrsstatistiken
| Metrik | Wert |
|---|---|
| Monatlicher Verkehr | 436,2 Millionen |
| Durchschnittlicher täglicher Verkehr | 14,5 Millionen |
| Anteil Desktop-Verkehr | 81,63% |
| Anteil mobiler Verkehr | 18,37% |
| Durchschnittliche Sitzungsdauer | 4m 58s |
| Absprungrate | 33,73% |
| Direkter Suchverkehr | 61,29% |
| Organischer Suchverkehr | 33,56% |
| Top Social Media Empfehlung | YouTube (59,44%) |
Wichtige Erkenntnis: Desktop-Nutzer dominieren den Verkehr von DeepSeek mit 81,63%, was darauf hindeutet, dass die Plattform primär für professionelle und Entwicklungsarbeiten genutzt wird und weniger für den gelegentlichen mobilen Konsum.
Kostenvergleich zwischen KI-Modellen
| Modell | Input-Kosten (pro Mio. Token) | Output-Kosten (pro Mio. Token) | Gesamtkosten (I/O kombiniert) |
|---|---|---|---|
| DeepSeek-V3 | 0,14 $ | 0,28 $ | 0,42 $ |
| DeepSeek-R1 | 0,55 $ | 2,19 $ | 2,74 $ |
| OpenAI GPT-3.5 | 0,10 $ | – | 0,10 $ |
| OpenAI GPT-4 Mini | 0,07 $ | 3,00 $ | 3,07 $ |
| GPT-4 | 10,00 $ | 30,00 $ | 40,00 $ |
| Claude-3.5-Sonnet | 30,00 $ | 30,00 $ | 60,00 $ |
| Gemini 1.5 Pro | 2,50 $ | 10,00 $ | 12,50 $ |
| Meta Llama-3.5-70B | 2,00 $ | 2,00 $ | 4,00 $ |
Wichtige Erkenntnis: DeepSeek-V3 bietet die kosteneffizienteste KI-Verarbeitung mit 0,14 $ pro Million Input-Token, was einen 214-fachen Kostenvorteil gegenüber Claude-3.5-Sonnet darstellt.
Technische Spezifikationen
| Spezifikation | DeepSeek-V3 | DeepSeek-R1 | Details |
|---|---|---|---|
| Gesamtparameter | 671 Milliarden | 671 Milliarden | Gleiche Basisarchitektur |
| Aktivierte Parameter | 37 Milliarden | 37 Milliarden | Mixture of Experts |
| Kontextlänge | 128.000 Token | 128.000 Token | Erweitertes Kontextfenster |
| Trainings-Token | 14,8 Billionen | 14,8 Billionen | Umfangreiche Trainingsdaten |
| GPU-Stunden (H800) | 2,788 Millionen | 2,788 Millionen | Effizientes Training |
| Entwicklungskosten | 5,5 Millionen $ | Unter 6 Millionen $ | 1/18 der Kosten von GPT-4 |
| Programmiersprachen | 80+ | 80+ | Unterstützung mehrerer Sprachen |
| Max. Output-Token | 8.000 | 8.000 | Limit für einzelne Antwort |
Wichtige Erkenntnis: DeepSeek erreichte eine Leistung auf GPT-4-Niveau mit Entwicklungskosten von nur 5,5 Millionen $, was eine bemerkenswerte Kosteneffizienz bei der Entwicklung von KI-Modellen demonstriert.
Länder und Organisationen, die DeepSeek verboten haben
| Land/Organisation | Art des Verbots | Grund | Datum |
|---|---|---|---|
| Italien | Entfernung aus dem App Store | Datenschutzuntersuchung | Januar 2025 |
| Deutschland | Antrag auf App-Store-Sperre | Datenschutz | Juni 2025 |
| Taiwan | Regierungsbehörden | Sicherheitsbedenken | 2025 |
| Australien | Regierungsbehörden | Sicherheitsbedenken | 2025 |
| Südkorea | Wichtige Ministerien | Sicherheitsbedenken | 2025 |
| US-Kongress | Nutzungsbeschränkung | Sicherheitsbedenken | 2025 |
| US-Marine | Nutzungsbeschränkung | Sicherheitsbedenken | 2025 |
Wichtige Erkenntnis: Westliche Länder und ihre Verbündeten sind laut den Daten die einzigen, die die Notwendigkeit sahen, DeepSeek einzuschränken.
Leistungsbenchmarks vs. OpenAI
| Benchmark | DeepSeek-R1 | OpenAI-o1-1217 | Gewinner | Vorsprung |
|---|---|---|---|---|
| AIME 2024 | 79,8% | 79,2% | DeepSeek | +0,6% |
| MATH-500 | 97,3% | 96,4% | DeepSeek | +0,9% |
| LiveCodeBench | 65,9% | 63,4% | DeepSeek | +2,5% |
| SWE Verified | 49,2% | 48,9% | DeepSeek | +0,3% |
| Codeforces Rating | 2029 | 2061 | OpenAI | -32 |
| Codeforces Perzentil | 96,3% | 96,6% | OpenAI | -0,3% |
| Aider-Polyglot | 53,3% | 61,7% | OpenAI | -8,4% |
Wichtige Erkenntnis: DeepSeek-R1 übertrifft OpenAI in 4 von 7 Benchmarks und glänzt besonders bei mathematischen Denkaufgaben, während es bei mehrsprachigen Programmierfähigkeiten zurückliegt.
Nutzungsmetriken nach Produkt (2025)
| Produkt | Nutzungsmetrik |
| DeepSeek LLM API | 5,7 Milliarden API-Aufrufe pro Monat |
| DeepSeek-Coder | 1,9 Milliarden Code-Generierungsanfragen im 1. Halbjahr 2025 |
| DeepSeek-VL (Multimodal) | 980 Millionen multimodale Anfragen pro Monat |
Wichtige Erkenntnis: Die Allzweck-LLM-API erhält das höchste Verkehrsaufkommen, mehr als das Doppelte des kombinierten Anfragevolumens der Coder- und VL-Modelle.
Anwendungs-Downloads nach Land
| Land | Prozentsatz der Downloads |
| China | 34% |
| Indien | 8% |
| Russland | 7% |
| Vereinigte Staaten | 6% |
| Pakistan | 4% |
| Brasilien | 4% |
| Indonesien | 4% |
| Frankreich | 3% |
| Vereinigtes Königreich | 3% |
| Andere Länder | 27% |
Wichtige Erkenntnis: Während die Nutzeraktivität in Indien und Indonesien hoch ist, entfällt auf Russland ein höherer Prozentsatz an Anwendungs-Downloads als auf beide zusammen.
Qualitätsmetriken der Inhaltsgenerierung
| Qualitätskategorie | Benchmark / Metrik | Gemeldeter Score / Leistung |
| Allgemeines Denken & Wissen | MMLU (Massive Multitask Language Understanding) | 90,8% (DeepSeek-R1) |
| DROP (Discrete Reasoning Over Paragraphs) | 91,6% (DeepSeek-R1) | |
| ARC Challenge (AI2 Reasoning Challenge) | 80,1% (DeepSeek-Chat) | |
| GLUE Tasks (General Language Understanding Evaluation) | 92,7% Durchschnittlicher F1-Score (DeepSeek LLM Modelle) | |
| Mathematisches Denken | MATH-500 | 97,3% (DeepSeek-R1) |
| AIME-2024 | 79,8% (DeepSeek-R1) | |
| Quantitative Reasoning (NBC News Score) | 97 von 100 (DeepSeek) | |
| Programmierung | HumanEval | 85,6% (DeepSeek-Coder V2.1) |
| LiveCodeBench | 65,9% (DeepSeek-R1) | |
| SWE-bench Verified | 49,2% (DeepSeek-R1) | |
| Faktische Genauigkeit | TruthfulQA | 64,3% (DeepSeek-Chat) |
| Multimodal (Bild & Sprache) | VQAv2 (Visual Question Answering v2) | 87,2% (DeepSeek-VL) |
| OCR-Präzision (Optical Character Recognition) | 92,1% Erkennungsgenauigkeit (DeepSeek-VL) | |
| Informationsbeschaffung | nDCG Score (Dense Retrieval) | 0,925 (DeepSeek-Embed) |
Wichtige Erkenntnis: Die Modelle von DeepSeek zeigen Spitzenleistungen über verschiedene Inhaltstypen hinweg und erreichen Werte von über 90% in den Benchmarks für allgemeines Sprachverständnis, mathematische Problemlösung und optische Zeichenerkennung.
Leistung der Code-Generierung
| Benchmark / Metrik | Modell | Gemeldeter Score |
| HumanEval (Python Code Synthese) | DeepSeek-Coder V2.1 | 85,6% |
| LiveCodeBench (Allgemeine Programmierung) | DeepSeek-R1 | 65,9% |
| SWE-bench Verified (Software Engineering) | DeepSeek-R1 | 49,2% |
| Codeforces (Wettbewerbsorientierte Programmierung) | DeepSeek-R1 | 96,3% (Perzentil) |
| Entwicklerproduktivität (Unternehmensumfrage) | DeepSeek-Coder | 82% der Entwickler berichteten von höherer Produktivität |
Wichtige Erkenntnis: Die Programmiermodelle von DeepSeek zeichnen sich sowohl in standardisierten Benchmarks wie HumanEval als auch in der praktischen Anwendung aus, wobei eine deutliche Mehrheit der Unternehmensentwickler eine gesteigerte Produktivität meldet.
Sprachunterstützungsmatrix
| Fähigkeit | Unterstützte Sprachen |
| Natürliche Sprachen (Multimodal) | Das DeepSeek-VL-Modell unterstützt 12 Sprachen. |
| Lokalisierte Unterstützung | Die Plattform wurde auf 37 Länder ausgeweitet, mit lokalisierter Unterstützung für Sprachen wie Arabisch, Swahili und Vietnamesisch. |
| Programmiersprachen (Allgemein) | DeepSeek unterstützt über 80 Programmiersprachen. |
| Programmiersprachen (Coder V2.1) | Das DeepSeek-Coder V2.1-Modell unterstützt speziell 32 Programmiersprachen, einschließlich COBOL und Rust. |
Wichtige Erkenntnis: Die Plattform bietet eine breite Sprachunterstützung, die Dutzende von Programmiersprachen für Entwickler abdeckt.
Metriken zur Unternehmenseintegration
| Metrik | Zahl / Detail |
| Integrierte Unternehmenskonten | Über 26.000 |
| Bereitstellungen der Enterprise Suite | In über 3.200 Organisationen bereitgestellt |
| Monatliche API-Aufrufe | 5,7 Milliarden |
| Reduzierung der Onboarding-Zeit | Die Onboarding-Zeit für Entwickler wurde im 1. Quartal 2025 dank verbesserter Dokumentation und Tools um 42% verkürzt. |
Wichtige Erkenntnis: DeepSeek hat eine erfolgreiche Unternehmenseintegration in großem Maßstab bewiesen, was durch Milliarden von monatlichen API-Aufrufen und die Bereitstellung in Tausenden von Organisationen belegt wird.
Beiträge zum Open-Source-Ökosystem
| Beitragsbereich | Metrik / Detail |
| Community-Engagement | Das GitHub-Repository überschritt 170.000 Sterne und wurde zum am häufigsten mit Sternen ausgezeichneten KI-Projekt im Jahr 2025 |
| Zusammenarbeit mit Entwicklern | Über 60.000 einzigartige Mitwirkende haben an DeepSeek-Projekten teilgenommen |
| Öffentliche Datensätze | Veröffentlichung von 4 großen Datensätzen im Jahr 2025, einschließlich eines mehrsprachigen Korpus mit 2,1 Milliarden Token |
| Modell-Zugänglichkeit | Offene LLM-Gewichtsarchive wurden in den ersten fünf Monaten des Jahres 2025 11,2 Millionen Mal heruntergeladen |
| Akademischer Einfluss | DeepSeek-Tools oder -Datensätze wurden im 1. Quartal 2025 in 38% aller neuen KI-Forschungsarbeiten auf Arxiv zitiert |
Wichtige Erkenntnis: Der Einfluss von DeepSeek erstreckt sich über seine Produkte hinaus auf die breitere KI-Community, wo das Unternehmen führend in den Bereichen Open-Source-Engagement, Datenaustausch und akademischer Einfluss ist.
Referenzen
DataGlobeHub nutzt die besten verfügbaren Datenquellen, um jede Publikation zu unterstützen. Wir priorisieren Quellen mit gutem Ruf, wie Regierungsquellen, autorisierte Quellen, Expertenquellen und gut recherchierte Publikationen. Wenn wir unsere Quellen zitieren, geben wir den Titel des Berichts gefolgt vom Namen der Publikation an. Wo dies nicht zutrifft, geben wir nur den Namen der Publikation an.
- Täglich aktive Nutzer von DeepSeek – Statista
- DeepSeek erklärt – TechTarget
- DeepSeek KI Nutzerstatistiken und Fakten – GrabOn
- DeepSeek Nutzungsstatistiken – BytePlus
- DeepSeek KI Statistiken – Sq Magazine
- 50 aktuellste DeepSeek Statistiken – Thunderbit



