DeepSeek 2026 年统计数据与见解

以下是 DeepSeek 的数据和统计概览。寻找关键洞察,帮助您全面了解 DeepSeek 的一切。

DeepSeek 概览

类别详情
创始人:梁文锋
成立日期:2023年5月1日
总部:中国杭州
母公司:幻方量化 (对冲基金)
模型架构:混合专家模型 (MoE)
总参数量 (V3/R1):6710 亿
全球发布:2025年1月20日

融资与估值

指标详情
最新估值 (2025年初)34 亿美元
累计风险融资额超过 11 亿美元
C 轮融资 (2025年第一季度)5.2 亿美元
B 轮融资 (2024年底)3.1 亿美元
关键投资者红杉资本、光速创投、Andreessen Horowitz、Accel、Index Ventures
初始出资方幻方量化 (中国对冲基金)
公司状态私有;未在证券交易所上市

核心洞察: 截至 2025 年初,DeepSeek 在知名风险投资机构的支持下,已获得超过 11 亿美元的融资,估值达到 34 亿美元。

关键事件时间线

日期事件
2023年5月DeepSeek AI 在中国杭州成立
2023年11月发布首个开源模型 DeepSeek Coder
2025年1月10日在 iOS 和 Android 平台推出聊天机器人应用
2025年1月27日成为美国 iOS 应用商店下载量第一的免费应用
2025年1月27日报告遭受大规模网络攻击,限制了新用户注册
2025年8月发布强大的 DeepSeek-V3.1 混合模型

资源利用效率

指标详情
训练成本 (DeepSeek-V3)550 万美元
训练成本对比约为构建 OpenAI GPT-4 成本的 1/18
使用的训练资源使用约 2,000 片英伟达 H800 芯片,共计 278.8 万 H800 GPU 小时
架构效率混合专家 (MoE) 模型拥有 6710 亿总参数,但针对任何特定任务仅激活 370 亿参数
端侧性能量化版本支持在显存低于 8GB 的设备上进行端侧推理

核心洞察: DeepSeek 的效率显而易见,其训练成本远低于竞争对手。

对美国股市的市场影响

公司股价跌幅市值损失影响日期
英伟达 (Nvidia)-17%6000 亿美元2025年1月27日
微软 (Microsoft)-2.14%2025年1月27日
谷歌 (Alphabet)-4%2025年1月27日
标普 500 科技板块-5.6%2025年1月27日
纳斯达克综合指数-3.4%2025年1月27日
美国市场总计1 万亿美元2025年1月27日

核心洞察: DeepSeek 于 2025 年 1 月的全球发布引发了美国科技板块自 2020 年 9 月以来最大的单日跌幅,蒸发了 1 万亿美元的美国市场价值。

按年龄和平台划分的用户人口统计

年龄段iOS 用户Android 用户差异
18-24 岁38.7%44.9%Android 高出 6.2%
25-34 岁22.1%13.2%iOS 高出 8.9%
35-49 岁15.3%14.9%iOS 高出 0.4%
50-64 岁23.3%26.1%Android 高出 2.8%
65 岁以上0.6%1.0%Android 高出 0.4%

核心洞察: 18-24 岁的年轻人是两个平台上最大的用户群体,其中 Android 在更年轻的人口统计中表现出更强的采用率。

 网站流量统计

指标数值
月度流量4.362 亿
日均流量1450 万
桌面端流量占比81.63%
移动端流量占比18.37%
平均会话时长4分 58秒
跳出率33.73%
直接搜索流量61.29%
自然搜索流量33.56%
顶级社交媒体引流YouTube (59.44%)

核心洞察: 桌面端用户以 81.63% 的比例主导了 DeepSeek 的流量,这表明该平台主要用于专业和开发工作,而非休闲移动消费。

各 AI 模型成本对比

模型输入成本 (每百万 token)输出成本 (每百万 token)总成本 (输入/输出合计)
DeepSeek-V3$0.14$0.28$0.42
DeepSeek-R1$0.55$2.19$2.74
OpenAI GPT-3.5$0.10$0.10
OpenAI GPT-4 Mini$0.07$3.00$3.07
GPT-4$10.00$30.00$40.00
Claude-3.5-Sonnet$30.00$30.00$60.00
Gemini 1.5 Pro$2.50$10.00$12.50
Meta Llama-3.5-70B$2.00$2.00$4.00

核心洞察: DeepSeek-V3 提供了最具成本效益的 AI 处理,每百万输入 token 仅需 0.14 美元,相比 Claude-3.5-Sonnet 具有 214 倍的成本优势。

技术规格

规格DeepSeek-V3DeepSeek-R1详情
总参数量6710 亿6710 亿相同的基础架构
激活参数量370 亿370 亿混合专家模型
上下文长度128,000 token128,000 token扩展的上下文窗口
训练 Token 数14.8 万亿14.8 万亿海量训练数据
GPU 小时 (H800)278.8 万278.8 万高效训练
开发成本550 万美元低于 600 万美元GPT-4 成本的 1/18
编程语言80+ 种80+ 种多语言支持
最大输出 Token 数8,0008,000单次响应限制

核心洞察: DeepSeek 仅用 550 万美元的开发成本就实现了 GPT-4 级别的性能,展示了 AI 模型开发中卓越的成本效率。

禁用 DeepSeek 的国家和组织

国家/组织禁用类型原因日期
意大利应用商店下架隐私调查2025年1月
德国应用商店封锁请求数据保护2025年6月
台湾政府机构安全担忧2025年
澳大利亚政府机构安全担忧2025年
韩国关键部委安全担忧2025年
美国国会使用限制安全担忧2025年
美国海军使用限制安全担忧2025年

核心洞察: 数据显示,西方国家及其盟友是唯一感到有必要限制 DeepSeek 的群体。

性能基准测试:DeepSeek vs OpenAI

基准测试DeepSeek-R1OpenAI-o1-1217胜者差距
AIME 202479.8%79.2%DeepSeek+0.6%
MATH-50097.3%96.4%DeepSeek+0.9%
LiveCodeBench65.9%63.4%DeepSeek+2.5%
SWE Verified49.2%48.9%DeepSeek+0.3%
Codeforces 评分20292061OpenAI-32
Codeforces 百分位96.3%96.6%OpenAI-0.3%
Aider-Polyglot53.3%61.7%OpenAI-8.4%

核心洞察: DeepSeek-R1 在 7 项基准测试中有 4 项超越了 OpenAI,尤其在数学推理任务中表现出色,但在多语言编程能力方面略逊一筹。

按产品划分的使用指标 (2025)

产品使用指标
DeepSeek LLM API每月 57 亿次 API 调用
DeepSeek-Coder2025年上半年 19 亿次代码生成查询
DeepSeek-VL (多模态)每月 9.8 亿次多模态查询

核心洞察: 通用 LLM API 的流量最高,是 Coder 和 VL 模型查询量总和的两倍多。

按国家划分的应用下载量

国家下载百分比
中国34%
印度8%
俄罗斯7%
美国6%
巴基斯坦4%
巴西4%
印度尼西亚4%
法国3%
英国3%
其他国家27%

核心洞察: 虽然印度和印度尼西亚的用户活跃度很高,但俄罗斯的应用下载百分比高于这两个国家

内容生成质量指标

质量类别基准测试 / 指标报告得分 / 表现
通用推理与知识MMLU (大规模多任务语言理解)90.8% (DeepSeek-R1)
DROP (段落离散推理)91.6% (DeepSeek-R1)
ARC Challenge (AI2 推理挑战)80.1% (DeepSeek-Chat)
GLUE 任务 (通用语言理解评估)平均 F1 分数 92.7% (DeepSeek LLM 模型)
数学推理MATH-50097.3% (DeepSeek-R1)
AIME-202479.8% (DeepSeek-R1)
定量推理 (NBC News 评分)97 / 100 (DeepSeek)
编程HumanEval85.6% (DeepSeek-Coder V2.1)
LiveCodeBench65.9% (DeepSeek-R1)
SWE-bench Verified49.2% (DeepSeek-R1)
事实准确性TruthfulQA64.3% (DeepSeek-Chat)
多模态 (视觉与语言)VQAv2 (视觉问答 v2)87.2% (DeepSeek-VL)
OCR 精度 (光学字符识别)92.1% 识别准确率 (DeepSeek-VL)
信息检索nDCG 分数 (稠密检索)0.925 (DeepSeek-Embed)

核心洞察: DeepSeek 的模型在各类内容类型中均表现出顶尖水平,在通用语言理解、数学问题解决和光学字符识别基准测试中均获得了 90% 以上的评分。

代码生成性能

基准测试 / 指标模型报告得分
HumanEval (Python 代码合成)DeepSeek-Coder V2.185.6%
LiveCodeBench (通用编程)DeepSeek-R165.9%
SWE-bench Verified (软件工程)DeepSeek-R149.2%
Codeforces (竞赛编程)DeepSeek-R196.3% (百分位)
开发者生产力 (企业调查)DeepSeek-Coder82% 的开发者报告生产力提高

核心洞察: DeepSeek 的编程模型在 HumanEval 等标准化基准测试以及实际应用中均表现出色,绝大多数企业开发者报告了生产力的提升。

语言支持矩阵

能力支持的语言
自然语言 (多模态)DeepSeek-VL 模型支持 12 种语言
本地化支持该平台已扩展至 37 个国家,并提供包括阿拉伯语、斯瓦希里语和越南语在内的语言本地化支持
编程语言 (通用)DeepSeek 支持超过 80 种编程语言
编程语言 (Coder V2.1)DeepSeek-Coder V2.1 模型专门支持 32 种编程语言,包括 COBOL 和 Rust

核心洞察: 该平台提供了广泛的语言支持,为开发者覆盖了数十种编程语言。

企业集成指标

指标数据 / 详情
集成的企业账户超过 26,000 个
企业套件部署已在超过 3,200 家机构中部署
每月 API 调用量57 亿次
入职时间缩短由于 2025 年第一季度文档和工具的改进,开发者入职时间缩短了 42%

核心洞察: DeepSeek 已证明其具备大规模成功的企业集成能力,每月数十亿次的 API 调用以及在数千家机构中的部署就是明证。

开源生态系统贡献

贡献领域指标 / 详情
社区参与度GitHub 仓库星标数超过 170,000,成为 2025 年星标数第一的 AI 项目
开发者协作超过 60,000 名独立贡献者参与了 DeepSeek 项目
公共数据集2025 年发布了 4 个主要数据集,包括一个 21 亿 token 的多语言语料库
模型可访问性2025 年前五个月,开源 LLM 权重存档被下载了 1120 万次
学术影响2025 年第一季度,Arxiv 上 38% 的新 AI 研究论文引用了 DeepSeek 的工具或数据集

核心洞察: DeepSeek 的影响超出了其产品本身,延伸到了更广泛的 AI 社区,在开源参与、数据共享和学术影响力方面处于领先地位。


参考资料

DataGlobeHub 利用现有的最佳数据源来支持每篇出版物。我们优先考虑声誉良好的来源,如政府来源、权威来源、专家来源和经过充分研究的出版物。在引用来源时,我们提供报告标题,后跟出版物名称。如果不适用,我们仅提供出版物名称。

  1. DeepSeek 日活跃用户数 – Statista
  2. DeepSeek 详解 – TechTarget
  3. DeepSeek AI 用户统计与事实 – GrabOn
  4. DeepSeek 使用统计 – BytePlus
  5. DeepSeek AI 统计数据  – Sq Magazine
  6. 50 项最新 DeepSeek 统计数据 – Thunderbit

分享