DeepSeek Statistiken und Einblicke 2026

Hier ist ein Blick auf die Daten und Statistiken von DeepSeek. Finden Sie wichtige Erkenntnisse, die Ihnen helfen, alles rund um DeepSeek zu verstehen.

DeepSeek Überblick

KategorieDetails
Gründer:Liang Wenfeng
Gegründet am:1. Mai 2023
Hauptsitz:Hangzhou, China
Muttergesellschaft:High-Flyer (Hedgefonds)
Modellarchitektur:Mixture of Experts (MoE)
Gesamtparameter (V3/R1):671 Milliarden
Globaler Start:20. Januar 2025

Finanzierung und Bewertung

MetrikDetail
Aktuelle Bewertung (Anfang 2025)3,4 Milliarden $
Gesamtes eingeworbenes RisikokapitalÜber 1,1 Milliarden $
Serie-C-Finanzierung (Q1 2025)520 Millionen $
Serie-B-Finanzierung (Ende 2024)310 Millionen $
Wichtige InvestorenSequoia Capital, Lightspeed, Andreessen Horowitz, Accel, Index Ventures
Initialer GeldgeberHigh-Flyer (chinesischer Hedgefonds)
UnternehmensstatusPrivat; nicht an Börsen notiert

Wichtige Erkenntnis: DeepSeek sicherte sich bis Anfang 2025 über 1,1 Milliarden $ an Finanzierungsmitteln und erreichte eine Bewertung von 3,4 Milliarden $, unterstützt von namhaften Risikokapitalgesellschaften.

Zeitplan der wichtigsten Ereignisse

DatumEreignis
Mai 2023DeepSeek AI wird in Hangzhou, China, gegründet.
Nov 2023Veröffentlicht sein erstes Open-Source-Modell, DeepSeek Coder.
10. Jan 2025Startet seine Chatbot-App auf iOS und Android.
27. Jan 2025Wird zur am häufigsten heruntergeladenen kostenlosen App im US iOS App Store.
27. Jan 2025Meldet groß angelegte Cyberangriffe, die Neuanmeldungen einschränken.
Aug 2025Veröffentlicht das leistungsstarke Hybridmodell DeepSeek-V3.1.

Effizienz der Ressourcennutzung

MetrikDetail
Trainingskosten (DeepSeek-V3)5,5 Millionen $
Vergleichbare TrainingskostenEtwa 1/18 der Kosten für die Erstellung von OpenAIs GPT-4
Genutzte Trainingsressourcen2,788 Millionen H800-GPU-Stunden mit rund 2.000 Nvidia H800-Chips
ArchitektureffizienzDas Mixture-of-Experts (MoE)-Modell verfügt über insgesamt 671 Milliarden Parameter, aber nur 37 Milliarden werden für eine bestimmte Aufgabe aktiviert.
On-Device-LeistungQuantisierte Versionen unterstützen On-Device-Inferenz mit weniger als 8 GB VRAM.

Wichtige Erkenntnis: Die Effizienz von DeepSeek zeigt sich in den deutlich niedrigeren Trainingskosten im Vergleich zu Wettbewerbern.

Marktauswirkungen auf den US-Aktienmarkt

UnternehmenAktienrückgangVerlust an MarktkapitalisierungDatum der Auswirkung
Nvidia-17%600 Milliarden $27. Januar 2025
Microsoft-2,14%27. Januar 2025
Google (Alphabet)-4%27. Januar 2025
S&P 500 Tech-Sektor-5,6%27. Januar 2025
Nasdaq Composite-3,4%27. Januar 2025
Gesamter US-Markt1 Billion $27. Januar 2025

Wichtige Erkenntnis: Der globale Start von DeepSeek im Januar 2025 löste den größten eintägigen Rückgang im Technologiesektor in den USA seit September 2020 aus und vernichtete 1 Billion $ an US-Marktwert.

Nutzerdemografie nach Alter und Plattform

AltersgruppeiOS-NutzerAndroid-NutzerDifferenz
18-24 Jahre38,7%44,9%+6,2% Android
25-34 Jahre22,1%13,2%+8,9% iOS
35-49 Jahre15,3%14,9%+0,4% iOS
50-64 Jahre23,3%26,1%+2,8% Android
65+ Jahre0,6%1,0%+0,4% Android

Wichtige Erkenntnis: Junge Erwachsene im Alter von 18 bis 24 Jahren stellen das größte Nutzersegment auf beiden Plattformen dar, wobei Android eine stärkere Akzeptanz bei jüngeren Demografien zeigt.

 Website-Verkehrsstatistiken

MetrikWert
Monatlicher Verkehr436,2 Millionen
Durchschnittlicher täglicher Verkehr14,5 Millionen
Anteil Desktop-Verkehr81,63%
Anteil mobiler Verkehr18,37%
Durchschnittliche Sitzungsdauer4m 58s
Absprungrate33,73%
Direkter Suchverkehr61,29%
Organischer Suchverkehr33,56%
Top Social Media EmpfehlungYouTube (59,44%)

Wichtige Erkenntnis: Desktop-Nutzer dominieren den Verkehr von DeepSeek mit 81,63%, was darauf hindeutet, dass die Plattform primär für professionelle und Entwicklungsarbeiten genutzt wird und weniger für den gelegentlichen mobilen Konsum.

Kostenvergleich zwischen KI-Modellen

ModellInput-Kosten (pro Mio. Token)Output-Kosten (pro Mio. Token)Gesamtkosten (I/O kombiniert)
DeepSeek-V30,14 $0,28 $0,42 $
DeepSeek-R10,55 $2,19 $2,74 $
OpenAI GPT-3.50,10 $0,10 $
OpenAI GPT-4 Mini0,07 $3,00 $3,07 $
GPT-410,00 $30,00 $40,00 $
Claude-3.5-Sonnet30,00 $30,00 $60,00 $
Gemini 1.5 Pro2,50 $10,00 $12,50 $
Meta Llama-3.5-70B2,00 $2,00 $4,00 $

Wichtige Erkenntnis: DeepSeek-V3 bietet die kosteneffizienteste KI-Verarbeitung mit 0,14 $ pro Million Input-Token, was einen 214-fachen Kostenvorteil gegenüber Claude-3.5-Sonnet darstellt.

Technische Spezifikationen

SpezifikationDeepSeek-V3DeepSeek-R1Details
Gesamtparameter671 Milliarden671 MilliardenGleiche Basisarchitektur
Aktivierte Parameter37 Milliarden37 MilliardenMixture of Experts
Kontextlänge128.000 Token128.000 TokenErweitertes Kontextfenster
Trainings-Token14,8 Billionen14,8 BillionenUmfangreiche Trainingsdaten
GPU-Stunden (H800)2,788 Millionen2,788 MillionenEffizientes Training
Entwicklungskosten5,5 Millionen $Unter 6 Millionen $1/18 der Kosten von GPT-4
Programmiersprachen80+80+Unterstützung mehrerer Sprachen
Max. Output-Token8.0008.000Limit für einzelne Antwort

Wichtige Erkenntnis: DeepSeek erreichte eine Leistung auf GPT-4-Niveau mit Entwicklungskosten von nur 5,5 Millionen $, was eine bemerkenswerte Kosteneffizienz bei der Entwicklung von KI-Modellen demonstriert.

Länder und Organisationen, die DeepSeek verboten haben

Land/OrganisationArt des VerbotsGrundDatum
ItalienEntfernung aus dem App StoreDatenschutzuntersuchungJanuar 2025
DeutschlandAntrag auf App-Store-SperreDatenschutzJuni 2025
TaiwanRegierungsbehördenSicherheitsbedenken2025
AustralienRegierungsbehördenSicherheitsbedenken2025
SüdkoreaWichtige MinisterienSicherheitsbedenken2025
US-KongressNutzungsbeschränkungSicherheitsbedenken2025
US-MarineNutzungsbeschränkungSicherheitsbedenken2025

Wichtige Erkenntnis: Westliche Länder und ihre Verbündeten sind laut den Daten die einzigen, die die Notwendigkeit sahen, DeepSeek einzuschränken.

Leistungsbenchmarks vs. OpenAI

BenchmarkDeepSeek-R1OpenAI-o1-1217GewinnerVorsprung
AIME 202479,8%79,2%DeepSeek+0,6%
MATH-50097,3%96,4%DeepSeek+0,9%
LiveCodeBench65,9%63,4%DeepSeek+2,5%
SWE Verified49,2%48,9%DeepSeek+0,3%
Codeforces Rating20292061OpenAI-32
Codeforces Perzentil96,3%96,6%OpenAI-0,3%
Aider-Polyglot53,3%61,7%OpenAI-8,4%

Wichtige Erkenntnis: DeepSeek-R1 übertrifft OpenAI in 4 von 7 Benchmarks und glänzt besonders bei mathematischen Denkaufgaben, während es bei mehrsprachigen Programmierfähigkeiten zurückliegt.

Nutzungsmetriken nach Produkt (2025)

ProduktNutzungsmetrik
DeepSeek LLM API5,7 Milliarden API-Aufrufe pro Monat
DeepSeek-Coder1,9 Milliarden Code-Generierungsanfragen im 1. Halbjahr 2025
DeepSeek-VL (Multimodal)980 Millionen multimodale Anfragen pro Monat

Wichtige Erkenntnis: Die Allzweck-LLM-API erhält das höchste Verkehrsaufkommen, mehr als das Doppelte des kombinierten Anfragevolumens der Coder- und VL-Modelle.

Anwendungs-Downloads nach Land

LandProzentsatz der Downloads
China34%
Indien8%
Russland7%
Vereinigte Staaten6%
Pakistan4%
Brasilien4%
Indonesien4%
Frankreich3%
Vereinigtes Königreich3%
Andere Länder27%

Wichtige Erkenntnis: Während die Nutzeraktivität in Indien und Indonesien hoch ist, entfällt auf Russland ein höherer Prozentsatz an Anwendungs-Downloads als auf beide zusammen.

Qualitätsmetriken der Inhaltsgenerierung

QualitätskategorieBenchmark / MetrikGemeldeter Score / Leistung
Allgemeines Denken & WissenMMLU (Massive Multitask Language Understanding)90,8% (DeepSeek-R1)
DROP (Discrete Reasoning Over Paragraphs)91,6% (DeepSeek-R1)
ARC Challenge (AI2 Reasoning Challenge)80,1% (DeepSeek-Chat)
GLUE Tasks (General Language Understanding Evaluation)92,7% Durchschnittlicher F1-Score (DeepSeek LLM Modelle)
Mathematisches DenkenMATH-50097,3% (DeepSeek-R1)
AIME-202479,8% (DeepSeek-R1)
Quantitative Reasoning (NBC News Score)97 von 100 (DeepSeek)
ProgrammierungHumanEval85,6% (DeepSeek-Coder V2.1)
LiveCodeBench65,9% (DeepSeek-R1)
SWE-bench Verified49,2% (DeepSeek-R1)
Faktische GenauigkeitTruthfulQA64,3% (DeepSeek-Chat)
Multimodal (Bild & Sprache)VQAv2 (Visual Question Answering v2)87,2% (DeepSeek-VL)
OCR-Präzision (Optical Character Recognition)92,1% Erkennungsgenauigkeit (DeepSeek-VL)
InformationsbeschaffungnDCG Score (Dense Retrieval)0,925 (DeepSeek-Embed)

Wichtige Erkenntnis: Die Modelle von DeepSeek zeigen Spitzenleistungen über verschiedene Inhaltstypen hinweg und erreichen Werte von über 90% in den Benchmarks für allgemeines Sprachverständnis, mathematische Problemlösung und optische Zeichenerkennung.

Leistung der Code-Generierung

Benchmark / MetrikModellGemeldeter Score
HumanEval (Python Code Synthese)DeepSeek-Coder V2.185,6%
LiveCodeBench (Allgemeine Programmierung)DeepSeek-R165,9%
SWE-bench Verified (Software Engineering)DeepSeek-R149,2%
Codeforces (Wettbewerbsorientierte Programmierung)DeepSeek-R196,3% (Perzentil)
Entwicklerproduktivität (Unternehmensumfrage)DeepSeek-Coder82% der Entwickler berichteten von höherer Produktivität

Wichtige Erkenntnis: Die Programmiermodelle von DeepSeek zeichnen sich sowohl in standardisierten Benchmarks wie HumanEval als auch in der praktischen Anwendung aus, wobei eine deutliche Mehrheit der Unternehmensentwickler eine gesteigerte Produktivität meldet.

Sprachunterstützungsmatrix

FähigkeitUnterstützte Sprachen
Natürliche Sprachen (Multimodal)Das DeepSeek-VL-Modell unterstützt 12 Sprachen.
Lokalisierte UnterstützungDie Plattform wurde auf 37 Länder ausgeweitet, mit lokalisierter Unterstützung für Sprachen wie Arabisch, Swahili und Vietnamesisch.
Programmiersprachen (Allgemein)DeepSeek unterstützt über 80 Programmiersprachen.
Programmiersprachen (Coder V2.1)Das DeepSeek-Coder V2.1-Modell unterstützt speziell 32 Programmiersprachen, einschließlich COBOL und Rust.

Wichtige Erkenntnis: Die Plattform bietet eine breite Sprachunterstützung, die Dutzende von Programmiersprachen für Entwickler abdeckt.

Metriken zur Unternehmenseintegration

MetrikZahl / Detail
Integrierte UnternehmenskontenÜber 26.000
Bereitstellungen der Enterprise SuiteIn über 3.200 Organisationen bereitgestellt
Monatliche API-Aufrufe5,7 Milliarden
Reduzierung der Onboarding-ZeitDie Onboarding-Zeit für Entwickler wurde im 1. Quartal 2025 dank verbesserter Dokumentation und Tools um 42% verkürzt.

Wichtige Erkenntnis: DeepSeek hat eine erfolgreiche Unternehmenseintegration in großem Maßstab bewiesen, was durch Milliarden von monatlichen API-Aufrufen und die Bereitstellung in Tausenden von Organisationen belegt wird.

Beiträge zum Open-Source-Ökosystem

BeitragsbereichMetrik / Detail
Community-EngagementDas GitHub-Repository überschritt 170.000 Sterne und wurde zum am häufigsten mit Sternen ausgezeichneten KI-Projekt im Jahr 2025
Zusammenarbeit mit EntwicklernÜber 60.000 einzigartige Mitwirkende haben an DeepSeek-Projekten teilgenommen
Öffentliche DatensätzeVeröffentlichung von 4 großen Datensätzen im Jahr 2025, einschließlich eines mehrsprachigen Korpus mit 2,1 Milliarden Token
Modell-ZugänglichkeitOffene LLM-Gewichtsarchive wurden in den ersten fünf Monaten des Jahres 2025 11,2 Millionen Mal heruntergeladen
Akademischer EinflussDeepSeek-Tools oder -Datensätze wurden im 1. Quartal 2025 in 38% aller neuen KI-Forschungsarbeiten auf Arxiv zitiert

Wichtige Erkenntnis: Der Einfluss von DeepSeek erstreckt sich über seine Produkte hinaus auf die breitere KI-Community, wo das Unternehmen führend in den Bereichen Open-Source-Engagement, Datenaustausch und akademischer Einfluss ist.


Referenzen

DataGlobeHub nutzt die besten verfügbaren Datenquellen, um jede Publikation zu unterstützen. Wir priorisieren Quellen mit gutem Ruf, wie Regierungsquellen, autorisierte Quellen, Expertenquellen und gut recherchierte Publikationen. Wenn wir unsere Quellen zitieren, geben wir den Titel des Berichts gefolgt vom Namen der Publikation an. Wo dies nicht zutrifft, geben wir nur den Namen der Publikation an.

  1. Täglich aktive Nutzer von DeepSeek – Statista
  2. DeepSeek erklärt – TechTarget
  3. DeepSeek KI Nutzerstatistiken und Fakten – GrabOn
  4. DeepSeek Nutzungsstatistiken – BytePlus
  5. DeepSeek KI Statistiken  – Sq Magazine
  6. 50 aktuellste DeepSeek Statistiken – Thunderbit

Teilen