DeepSeek 2026 年统计数据与见解
以下是 DeepSeek 的数据和统计概览。寻找关键洞察,帮助您全面了解 DeepSeek 的一切。

DeepSeek 概览
| 类别 | 详情 |
| 创始人: | 梁文锋 |
| 成立日期: | 2023年5月1日 |
| 总部: | 中国杭州 |
| 母公司: | 幻方量化 (对冲基金) |
| 模型架构: | 混合专家模型 (MoE) |
| 总参数量 (V3/R1): | 6710 亿 |
| 全球发布: | 2025年1月20日 |
融资与估值
| 指标 | 详情 |
| 最新估值 (2025年初) | 34 亿美元 |
| 累计风险融资额 | 超过 11 亿美元 |
| C 轮融资 (2025年第一季度) | 5.2 亿美元 |
| B 轮融资 (2024年底) | 3.1 亿美元 |
| 关键投资者 | 红杉资本、光速创投、Andreessen Horowitz、Accel、Index Ventures |
| 初始出资方 | 幻方量化 (中国对冲基金) |
| 公司状态 | 私有;未在证券交易所上市 |
核心洞察: 截至 2025 年初,DeepSeek 在知名风险投资机构的支持下,已获得超过 11 亿美元的融资,估值达到 34 亿美元。
关键事件时间线
| 日期 | 事件 |
| 2023年5月 | DeepSeek AI 在中国杭州成立。 |
| 2023年11月 | 发布首个开源模型 DeepSeek Coder。 |
| 2025年1月10日 | 在 iOS 和 Android 平台推出聊天机器人应用。 |
| 2025年1月27日 | 成为美国 iOS 应用商店下载量第一的免费应用。 |
| 2025年1月27日 | 报告遭受大规模网络攻击,限制了新用户注册。 |
| 2025年8月 | 发布强大的 DeepSeek-V3.1 混合模型。 |
资源利用效率
| 指标 | 详情 |
| 训练成本 (DeepSeek-V3) | 550 万美元 |
| 训练成本对比 | 约为构建 OpenAI GPT-4 成本的 1/18 |
| 使用的训练资源 | 使用约 2,000 片英伟达 H800 芯片,共计 278.8 万 H800 GPU 小时 |
| 架构效率 | 混合专家 (MoE) 模型拥有 6710 亿总参数,但针对任何特定任务仅激活 370 亿参数。 |
| 端侧性能 | 量化版本支持在显存低于 8GB 的设备上进行端侧推理。 |
核心洞察: DeepSeek 的效率显而易见,其训练成本远低于竞争对手。
对美国股市的市场影响
| 公司 | 股价跌幅 | 市值损失 | 影响日期 |
|---|---|---|---|
| 英伟达 (Nvidia) | -17% | 6000 亿美元 | 2025年1月27日 |
| 微软 (Microsoft) | -2.14% | – | 2025年1月27日 |
| 谷歌 (Alphabet) | -4% | – | 2025年1月27日 |
| 标普 500 科技板块 | -5.6% | – | 2025年1月27日 |
| 纳斯达克综合指数 | -3.4% | – | 2025年1月27日 |
| 美国市场总计 | – | 1 万亿美元 | 2025年1月27日 |
核心洞察: DeepSeek 于 2025 年 1 月的全球发布引发了美国科技板块自 2020 年 9 月以来最大的单日跌幅,蒸发了 1 万亿美元的美国市场价值。
按年龄和平台划分的用户人口统计
| 年龄段 | iOS 用户 | Android 用户 | 差异 |
|---|---|---|---|
| 18-24 岁 | 38.7% | 44.9% | Android 高出 6.2% |
| 25-34 岁 | 22.1% | 13.2% | iOS 高出 8.9% |
| 35-49 岁 | 15.3% | 14.9% | iOS 高出 0.4% |
| 50-64 岁 | 23.3% | 26.1% | Android 高出 2.8% |
| 65 岁以上 | 0.6% | 1.0% | Android 高出 0.4% |
核心洞察: 18-24 岁的年轻人是两个平台上最大的用户群体,其中 Android 在更年轻的人口统计中表现出更强的采用率。
网站流量统计
| 指标 | 数值 |
|---|---|
| 月度流量 | 4.362 亿 |
| 日均流量 | 1450 万 |
| 桌面端流量占比 | 81.63% |
| 移动端流量占比 | 18.37% |
| 平均会话时长 | 4分 58秒 |
| 跳出率 | 33.73% |
| 直接搜索流量 | 61.29% |
| 自然搜索流量 | 33.56% |
| 顶级社交媒体引流 | YouTube (59.44%) |
核心洞察: 桌面端用户以 81.63% 的比例主导了 DeepSeek 的流量,这表明该平台主要用于专业和开发工作,而非休闲移动消费。
各 AI 模型成本对比
| 模型 | 输入成本 (每百万 token) | 输出成本 (每百万 token) | 总成本 (输入/输出合计) |
|---|---|---|---|
| DeepSeek-V3 | $0.14 | $0.28 | $0.42 |
| DeepSeek-R1 | $0.55 | $2.19 | $2.74 |
| OpenAI GPT-3.5 | $0.10 | – | $0.10 |
| OpenAI GPT-4 Mini | $0.07 | $3.00 | $3.07 |
| GPT-4 | $10.00 | $30.00 | $40.00 |
| Claude-3.5-Sonnet | $30.00 | $30.00 | $60.00 |
| Gemini 1.5 Pro | $2.50 | $10.00 | $12.50 |
| Meta Llama-3.5-70B | $2.00 | $2.00 | $4.00 |
核心洞察: DeepSeek-V3 提供了最具成本效益的 AI 处理,每百万输入 token 仅需 0.14 美元,相比 Claude-3.5-Sonnet 具有 214 倍的成本优势。
技术规格
| 规格 | DeepSeek-V3 | DeepSeek-R1 | 详情 |
|---|---|---|---|
| 总参数量 | 6710 亿 | 6710 亿 | 相同的基础架构 |
| 激活参数量 | 370 亿 | 370 亿 | 混合专家模型 |
| 上下文长度 | 128,000 token | 128,000 token | 扩展的上下文窗口 |
| 训练 Token 数 | 14.8 万亿 | 14.8 万亿 | 海量训练数据 |
| GPU 小时 (H800) | 278.8 万 | 278.8 万 | 高效训练 |
| 开发成本 | 550 万美元 | 低于 600 万美元 | GPT-4 成本的 1/18 |
| 编程语言 | 80+ 种 | 80+ 种 | 多语言支持 |
| 最大输出 Token 数 | 8,000 | 8,000 | 单次响应限制 |
核心洞察: DeepSeek 仅用 550 万美元的开发成本就实现了 GPT-4 级别的性能,展示了 AI 模型开发中卓越的成本效率。
禁用 DeepSeek 的国家和组织
| 国家/组织 | 禁用类型 | 原因 | 日期 |
|---|---|---|---|
| 意大利 | 应用商店下架 | 隐私调查 | 2025年1月 |
| 德国 | 应用商店封锁请求 | 数据保护 | 2025年6月 |
| 台湾 | 政府机构 | 安全担忧 | 2025年 |
| 澳大利亚 | 政府机构 | 安全担忧 | 2025年 |
| 韩国 | 关键部委 | 安全担忧 | 2025年 |
| 美国国会 | 使用限制 | 安全担忧 | 2025年 |
| 美国海军 | 使用限制 | 安全担忧 | 2025年 |
核心洞察: 数据显示,西方国家及其盟友是唯一感到有必要限制 DeepSeek 的群体。
性能基准测试:DeepSeek vs OpenAI
| 基准测试 | DeepSeek-R1 | OpenAI-o1-1217 | 胜者 | 差距 |
|---|---|---|---|---|
| AIME 2024 | 79.8% | 79.2% | DeepSeek | +0.6% |
| MATH-500 | 97.3% | 96.4% | DeepSeek | +0.9% |
| LiveCodeBench | 65.9% | 63.4% | DeepSeek | +2.5% |
| SWE Verified | 49.2% | 48.9% | DeepSeek | +0.3% |
| Codeforces 评分 | 2029 | 2061 | OpenAI | -32 |
| Codeforces 百分位 | 96.3% | 96.6% | OpenAI | -0.3% |
| Aider-Polyglot | 53.3% | 61.7% | OpenAI | -8.4% |
核心洞察: DeepSeek-R1 在 7 项基准测试中有 4 项超越了 OpenAI,尤其在数学推理任务中表现出色,但在多语言编程能力方面略逊一筹。
按产品划分的使用指标 (2025)
| 产品 | 使用指标 |
| DeepSeek LLM API | 每月 57 亿次 API 调用 |
| DeepSeek-Coder | 2025年上半年 19 亿次代码生成查询 |
| DeepSeek-VL (多模态) | 每月 9.8 亿次多模态查询 |
核心洞察: 通用 LLM API 的流量最高,是 Coder 和 VL 模型查询量总和的两倍多。
按国家划分的应用下载量
| 国家 | 下载百分比 |
| 中国 | 34% |
| 印度 | 8% |
| 俄罗斯 | 7% |
| 美国 | 6% |
| 巴基斯坦 | 4% |
| 巴西 | 4% |
| 印度尼西亚 | 4% |
| 法国 | 3% |
| 英国 | 3% |
| 其他国家 | 27% |
核心洞察: 虽然印度和印度尼西亚的用户活跃度很高,但俄罗斯的应用下载百分比高于这两个国家。
内容生成质量指标
| 质量类别 | 基准测试 / 指标 | 报告得分 / 表现 |
| 通用推理与知识 | MMLU (大规模多任务语言理解) | 90.8% (DeepSeek-R1) |
| DROP (段落离散推理) | 91.6% (DeepSeek-R1) | |
| ARC Challenge (AI2 推理挑战) | 80.1% (DeepSeek-Chat) | |
| GLUE 任务 (通用语言理解评估) | 平均 F1 分数 92.7% (DeepSeek LLM 模型) | |
| 数学推理 | MATH-500 | 97.3% (DeepSeek-R1) |
| AIME-2024 | 79.8% (DeepSeek-R1) | |
| 定量推理 (NBC News 评分) | 97 / 100 (DeepSeek) | |
| 编程 | HumanEval | 85.6% (DeepSeek-Coder V2.1) |
| LiveCodeBench | 65.9% (DeepSeek-R1) | |
| SWE-bench Verified | 49.2% (DeepSeek-R1) | |
| 事实准确性 | TruthfulQA | 64.3% (DeepSeek-Chat) |
| 多模态 (视觉与语言) | VQAv2 (视觉问答 v2) | 87.2% (DeepSeek-VL) |
| OCR 精度 (光学字符识别) | 92.1% 识别准确率 (DeepSeek-VL) | |
| 信息检索 | nDCG 分数 (稠密检索) | 0.925 (DeepSeek-Embed) |
核心洞察: DeepSeek 的模型在各类内容类型中均表现出顶尖水平,在通用语言理解、数学问题解决和光学字符识别基准测试中均获得了 90% 以上的评分。
代码生成性能
| 基准测试 / 指标 | 模型 | 报告得分 |
| HumanEval (Python 代码合成) | DeepSeek-Coder V2.1 | 85.6% |
| LiveCodeBench (通用编程) | DeepSeek-R1 | 65.9% |
| SWE-bench Verified (软件工程) | DeepSeek-R1 | 49.2% |
| Codeforces (竞赛编程) | DeepSeek-R1 | 96.3% (百分位) |
| 开发者生产力 (企业调查) | DeepSeek-Coder | 82% 的开发者报告生产力提高 |
核心洞察: DeepSeek 的编程模型在 HumanEval 等标准化基准测试以及实际应用中均表现出色,绝大多数企业开发者报告了生产力的提升。
语言支持矩阵
| 能力 | 支持的语言 |
| 自然语言 (多模态) | DeepSeek-VL 模型支持 12 种语言。 |
| 本地化支持 | 该平台已扩展至 37 个国家,并提供包括阿拉伯语、斯瓦希里语和越南语在内的语言本地化支持。 |
| 编程语言 (通用) | DeepSeek 支持超过 80 种编程语言。 |
| 编程语言 (Coder V2.1) | DeepSeek-Coder V2.1 模型专门支持 32 种编程语言,包括 COBOL 和 Rust。 |
核心洞察: 该平台提供了广泛的语言支持,为开发者覆盖了数十种编程语言。
企业集成指标
| 指标 | 数据 / 详情 |
| 集成的企业账户 | 超过 26,000 个 |
| 企业套件部署 | 已在超过 3,200 家机构中部署 |
| 每月 API 调用量 | 57 亿次 |
| 入职时间缩短 | 由于 2025 年第一季度文档和工具的改进,开发者入职时间缩短了 42%。 |
核心洞察: DeepSeek 已证明其具备大规模成功的企业集成能力,每月数十亿次的 API 调用以及在数千家机构中的部署就是明证。
开源生态系统贡献
| 贡献领域 | 指标 / 详情 |
| 社区参与度 | GitHub 仓库星标数超过 170,000,成为 2025 年星标数第一的 AI 项目 |
| 开发者协作 | 超过 60,000 名独立贡献者参与了 DeepSeek 项目 |
| 公共数据集 | 2025 年发布了 4 个主要数据集,包括一个 21 亿 token 的多语言语料库 |
| 模型可访问性 | 2025 年前五个月,开源 LLM 权重存档被下载了 1120 万次 |
| 学术影响 | 2025 年第一季度,Arxiv 上 38% 的新 AI 研究论文引用了 DeepSeek 的工具或数据集 |
核心洞察: DeepSeek 的影响超出了其产品本身,延伸到了更广泛的 AI 社区,在开源参与、数据共享和学术影响力方面处于领先地位。
参考资料
DataGlobeHub 利用现有的最佳数据源来支持每篇出版物。我们优先考虑声誉良好的来源,如政府来源、权威来源、专家来源和经过充分研究的出版物。在引用来源时,我们提供报告标题,后跟出版物名称。如果不适用,我们仅提供出版物名称。
- DeepSeek 日活跃用户数 – Statista
- DeepSeek 详解 – TechTarget
- DeepSeek AI 用户统计与事实 – GrabOn
- DeepSeek 使用统计 – BytePlus
- DeepSeek AI 统计数据 – Sq Magazine
- 50 项最新 DeepSeek 统计数据 – Thunderbit



