Estadísticas e Información de DeepSeek 2026
Aquí tienes un vistazo a los datos y estadísticas de DeepSeek. Encuentra información clave que te ayude a dar sentido a todo lo relacionado con DeepSeek.

Resumen de DeepSeek
| Categoría | Detalles |
| Fundador: | Liang Wenfeng |
| Fundado el: | 1 de mayo de 2023 |
| Sede: | Hangzhou, China |
| Empresa matriz: | High-Flyer (Hedge Fund) |
| Arquitectura del modelo: | Mezcla de expertos (MoE) |
| Parámetros totales (V3/R1): | 671 mil millones |
| Lanzamiento global: | 20 de enero de 2025 |
Financiación y valoración
| Métrica | Detalle |
| Última valoración (principios de 2025) | $3.4 mil millones |
| Total de financiación de riesgo recaudada | Más de $1.1 mil millones |
| Financiación Serie C (Q1 2025) | $520 millones |
| Financiación Serie B (finales de 2024) | $310 millones |
| Inversores clave | Sequoia Capital, Lightspeed, Andreessen Horowitz, Accel, Index Ventures |
| Financiador inicial | High-Flyer (fondo de cobertura chino) |
| Estado de la empresa | Privada; no cotiza en bolsas de valores |
Información clave: DeepSeek aseguró más de $1.1 mil millones en financiación y alcanzó una valoración de $3.4 mil millones a principios de 2025, con el respaldo de destacadas firmas de capital de riesgo.
Cronología de eventos clave
| Fecha | Evento |
| Mayo de 2023 | Se funda DeepSeek AI en Hangzhou, China. |
| Noviembre de 2023 | Lanza su primer modelo de código abierto, DeepSeek Coder. |
| 10 de enero de 2025 | Lanza su aplicación de chatbot en iOS y Android. |
| 27 de enero de 2025 | Se convierte en la aplicación gratuita número 1 más descargada en la App Store de iOS en EE. UU.. |
| 27 de enero de 2025 | Informa de ciberataques a gran escala, limitando los registros de nuevos usuarios. |
| Agosto de 2025 | Lanza el potente modelo híbrido DeepSeek-V3.1. |
Eficiencia en la utilización de recursos
| Métrica | Detalle |
| Costo de entrenamiento (DeepSeek-V3) | $5.5 millones |
| Costo de entrenamiento comparativo | Aproximadamente 1/18 del costo de construcción de GPT-4 de OpenAI |
| Recursos de entrenamiento utilizados | 2.788 millones de horas de GPU H800 utilizando alrededor de 2,000 chips Nvidia H800 |
| Eficiencia de la arquitectura | El modelo de Mezcla de Expertos (MoE) tiene 671 mil millones de parámetros totales, pero solo 37 mil millones se activan para cualquier tarea dada. |
| Rendimiento en el dispositivo | Las versiones cuantizadas admiten la inferencia en el dispositivo con menos de 8 GB de VRAM. |
Información clave: La eficiencia de DeepSeek es evidente en sus costos de entrenamiento significativamente más bajos en comparación con sus competidores.
Impacto en el mercado de valores de EE. UU.
| Empresa | Caída de acciones | Pérdida de capitalización de mercado | Fecha del impacto |
|---|---|---|---|
| Nvidia | -17% | $600 mil millones | 27 de enero de 2025 |
| Microsoft | -2.14% | – | 27 de enero de 2025 |
| Google (Alphabet) | -4% | – | 27 de enero de 2025 |
| Sector tecnológico del S&P 500 | -5.6% | – | 27 de enero de 2025 |
| Nasdaq Composite | -3.4% | – | 27 de enero de 2025 |
| Mercado total de EE. UU. | – | $1 billón | 27 de enero de 2025 |
Información clave: El lanzamiento global de DeepSeek en enero de 2025 provocó la mayor caída del sector tecnológico en un solo día desde septiembre de 2020 en los EE. UU., eliminando $1 billón en valor de mercado estadounidense.
Demografía de usuarios por edad y plataforma
| Grupo de edad | Usuarios de iOS | Usuarios de Android | Diferencia |
|---|---|---|---|
| 18-24 años | 38.7% | 44.9% | +6.2% Android |
| 25-34 años | 22.1% | 13.2% | +8.9% iOS |
| 35-49 años | 15.3% | 14.9% | +0.4% iOS |
| 50-64 años | 23.3% | 26.1% | +2.8% Android |
| 65+ años | 0.6% | 1.0% | +0.4% Android |
Información clave: Los adultos jóvenes de 18 a 24 años representan el segmento de usuarios más grande en ambas plataformas, y Android muestra una adopción más fuerte entre los grupos demográficos más jóvenes.
Estadísticas de tráfico del sitio web
| Métrica | Valor |
|---|---|
| Tráfico mensual | 436.2 millones |
| Tráfico promedio diario | 14.5 millones |
| Cuota de tráfico de escritorio | 81.63% |
| Cuota de tráfico móvil | 18.37% |
| Duración promedio de la sesión | 4m 58s |
| Tasa de rebote | 33.73% |
| Tráfico de búsqueda directa | 61.29% |
| Tráfico de búsqueda orgánica | 33.56% |
| Principal referencia de redes sociales | YouTube (59.44%) |
Información clave: Los usuarios de escritorio dominan el tráfico de DeepSeek con un 81.63%, lo que sugiere que la plataforma se utiliza principalmente para trabajo profesional y de desarrollo en lugar de consumo móvil casual.
Comparación de costos entre modelos de IA
| Modelo | Costo de entrada (por M de tokens) | Costo de salida (por M de tokens) | Costo total (E/S combinadas) |
|---|---|---|---|
| DeepSeek-V3 | $0.14 | $0.28 | $0.42 |
| DeepSeek-R1 | $0.55 | $2.19 | $2.74 |
| OpenAI GPT-3.5 | $0.10 | – | $0.10 |
| OpenAI GPT-4 Mini | $0.07 | $3.00 | $3.07 |
| GPT-4 | $10.00 | $30.00 | $40.00 |
| Claude-3.5-Sonnet | $30.00 | $30.00 | $60.00 |
| Gemini 1.5 Pro | $2.50 | $10.00 | $12.50 |
| Meta Llama-3.5-70B | $2.00 | $2.00 | $4.00 |
Información clave: DeepSeek-V3 ofrece el procesamiento de IA más rentable a $0.14 por millón de tokens de entrada, lo que representa una ventaja de costo de 214 veces sobre Claude-3.5-Sonnet.
Especificaciones técnicas
| Especificación | DeepSeek-V3 | DeepSeek-R1 | Detalles |
|---|---|---|---|
| Parámetros totales | 671 mil millones | 671 mil millones | Misma arquitectura base |
| Parámetros activados | 37 mil millones | 37 mil millones | Mezcla de expertos |
| Longitud de contexto | 128,000 tokens | 128,000 tokens | Ventana de contexto extendida |
| Tokens de entrenamiento | 14.8 billones | 14.8 billones | Extensos datos de entrenamiento |
| Horas de GPU (H800) | 2.788 millones | 2.788 millones | Entrenamiento eficiente |
| Costo de desarrollo | $5.5 millones | Menos de $6 millones | 1/18 del costo de GPT-4 |
| Lenguajes de programación | 80+ | 80+ | Soporte multilenguaje |
| Máximo de tokens de salida | 8,000 | 8,000 | Límite de respuesta única |
Información clave: DeepSeek logró un rendimiento de nivel GPT-4 utilizando solo $5.5 millones en costos de desarrollo, demostrando una notable eficiencia de costos en el desarrollo de modelos de IA.
Países y organizaciones que prohibieron DeepSeek
| País/Organización | Tipo de prohibición | Razón | Fecha |
|---|---|---|---|
| Italia | Eliminación de la App Store | Investigación de privacidad | Enero de 2025 |
| Alemania | Solicitud de bloqueo de la App Store | Protección de datos | Junio de 2025 |
| Taiwán | Agencias gubernamentales | Preocupaciones de seguridad | 2025 |
| Australia | Agencias gubernamentales | Preocupaciones de seguridad | 2025 |
| Corea del Sur | Ministerios clave | Preocupaciones de seguridad | 2025 |
| Congreso de EE. UU. | Restricción de uso | Preocupaciones de seguridad | 2025 |
| Armada de EE. UU. | Restricción de uso | Preocupaciones de seguridad | 2025 |
Información clave: Los países occidentales y sus aliados, según los datos, son los únicos que sintieron la necesidad de restringir DeepSeek.
Puntos de referencia de rendimiento frente a OpenAI
| Punto de referencia | DeepSeek-R1 | OpenAI-o1-1217 | Ganador | Margen |
|---|---|---|---|---|
| AIME 2024 | 79.8% | 79.2% | DeepSeek | +0.6% |
| MATH-500 | 97.3% | 96.4% | DeepSeek | +0.9% |
| LiveCodeBench | 65.9% | 63.4% | DeepSeek | +2.5% |
| SWE Verified | 49.2% | 48.9% | DeepSeek | +0.3% |
| Calificación de Codeforces | 2029 | 2061 | OpenAI | -32 |
| Percentil de Codeforces | 96.3% | 96.6% | OpenAI | -0.3% |
| Aider-Polyglot | 53.3% | 61.7% | OpenAI | -8.4% |
Información clave: DeepSeek-R1 supera a OpenAI en 4 de los 7 puntos de referencia, destacando particularmente en tareas de razonamiento matemático mientras queda rezagado en capacidades de codificación multilingüe.
Métricas de uso por producto (2025)
| Producto | Métrica de uso |
| API de DeepSeek LLM | 5.7 mil millones de llamadas a la API por mes |
| DeepSeek-Coder | 1.9 mil millones de consultas de generación de código en el H1 2025 |
| DeepSeek-VL (Multimodal) | 980 millones de consultas multimodales por mes |
Información clave: La API de LLM de propósito general recibe el mayor volumen de tráfico, más del doble de los volúmenes de consultas combinados de los modelos Coder y VL.
Descargas de aplicaciones por país
| País | Porcentaje de descargas |
| China | 34% |
| India | 8% |
| Rusia | 7% |
| Estados Unidos | 6% |
| Pakistán | 4% |
| Brasil | 4% |
| Indonesia | 4% |
| Francia | 3% |
| Reino Unido | 3% |
| Otros países | 27% |
Información clave: Si bien la actividad de los usuarios es alta en India e Indonesia, Rusia representa un porcentaje más alto de descargas de aplicaciones que cualquiera de ellos.
Métricas de calidad de generación de contenido
| Categoría de calidad | Punto de referencia / Métrica | Puntuación / Rendimiento informado |
| Razonamiento general y conocimiento | MMLU (Massive Multitask Language Understanding) | 90.8% (DeepSeek-R1) |
| DROP (Discrete Reasoning Over Paragraphs) | 91.6% (DeepSeek-R1) | |
| ARC Challenge (AI2 Reasoning Challenge) | 80.1% (DeepSeek-Chat) | |
| Tareas GLUE (General Language Understanding Evaluation) | 92.7% Promedio F1-Score (Modelos DeepSeek LLM) | |
| Razonamiento matemático | MATH-500 | 97.3% (DeepSeek-R1) |
| AIME-2024 | 79.8% (DeepSeek-R1) | |
| Razonamiento cuantitativo (Puntuación de NBC News) | 97 de 100 (DeepSeek) | |
| Codificación | HumanEval | 85.6% (DeepSeek-Coder V2.1) |
| LiveCodeBench | 65.9% (DeepSeek-R1) | |
| SWE-bench Verified | 49.2% (DeepSeek-R1) | |
| Precisión fáctica | TruthfulQA | 64.3% (DeepSeek-Chat) |
| Multimodal (Visión y Lenguaje) | VQAv2 (Visual Question Answering v2) | 87.2% (DeepSeek-VL) |
| Precisión OCR (Reconocimiento óptico de caracteres) | 92.1% de precisión de reconocimiento (DeepSeek-VL) | |
| Recuperación de información | Puntuación nDCG (Recuperación densa) | 0.925 (DeepSeek-Embed) |
Información clave: Los modelos de DeepSeek demuestran un rendimiento de élite en diversos tipos de contenido, logrando puntuaciones superiores al 90% en comprensión general del lenguaje, resolución de problemas matemáticos y puntos de referencia de reconocimiento óptico de caracteres.
Rendimiento de generación de código
| Punto de referencia / Métrica | Modelo | Puntuación informada |
| HumanEval (Síntesis de código Python) | DeepSeek-Coder V2.1 | 85.6% |
| LiveCodeBench (Codificación general) | DeepSeek-R1 | 65.9% |
| SWE-bench Verified (Ingeniería de software) | DeepSeek-R1 | 49.2% |
| Codeforces (Programación competitiva) | DeepSeek-R1 | 96.3% (Percentil) |
| Productividad del desarrollador (Encuesta empresarial) | DeepSeek-Coder | El 82% de los desarrolladores informaron una mayor productividad |
Información clave: Los modelos de codificación de DeepSeek destacan tanto en puntos de referencia estandarizados, como HumanEval, como en aplicaciones prácticas, con una gran mayoría de desarrolladores empresariales que informan de un aumento de la productividad.
Matriz de soporte de idiomas
| Capacidad | Idiomas admitidos |
| Lenguajes naturales (Multimodal) | El modelo DeepSeek-VL admite 12 idiomas. |
| Soporte localizado | La plataforma se ha expandido a 37 países con soporte localizado para idiomas que incluyen árabe, suajili y vietnamita. |
| Lenguajes de programación (General) | DeepSeek admite más de 80 lenguajes de programación. |
| Lenguajes de programación (Coder V2.1) | El modelo DeepSeek-Coder V2.1 admite específicamente 32 lenguajes de programación, incluidos COBOL y Rust. |
Información clave: La plataforma proporciona un amplio soporte de idiomas, cubriendo docenas de lenguajes de programación para desarrolladores.
Métricas de integración empresarial
| Métrica | Cifra / Detalle |
| Cuentas empresariales integradas | Más de 26,000 |
| Implementaciones de suites empresariales | Implementado en más de 3,200 organizaciones |
| Llamadas mensuales a la API | 5.7 mil millones |
| Reducción del tiempo de incorporación | El tiempo de incorporación de los desarrolladores se redujo en un 42% debido a la mejora de la documentación y las herramientas en el Q1 2025. |
Información clave: DeepSeek ha demostrado una integración empresarial exitosa a escala, evidenciada por miles de millones de llamadas mensuales a la API e implementación en miles de organizaciones.
Contribuciones al ecosistema de código abierto
| Área de contribución | Métrica / Detalle |
| Compromiso de la comunidad | El repositorio de GitHub superó las 170,000 estrellas, convirtiéndose en el proyecto de IA con más estrellas en 2025 |
| Colaboración de desarrolladores | Más de 60,000 colaboradores únicos han participado en proyectos de DeepSeek |
| Conjuntos de datos públicos | Lanzó 4 conjuntos de datos principales en 2025, incluido un corpus multilingüe de 2.1 billones de tokens |
| Accesibilidad del modelo | Los archivos de pesos de LLM abiertos se descargaron 11.2 millones de veces en los primeros cinco meses de 2025 |
| Impacto académico | Las herramientas o conjuntos de datos de DeepSeek fueron citados en el 38% de todos los nuevos artículos de investigación de IA en Arxiv en el Q1 2025 |
Información clave: El impacto de DeepSeek se extiende más allá de sus productos a la comunidad de IA en general, donde lidera en compromiso de código abierto, intercambio de datos e influencia académica.
Referencias
DataGlobeHub utiliza las mejores fuentes de datos disponibles para respaldar cada publicación. Priorizamos fuentes de buena reputación, como fuentes gubernamentales, fuentes autorizadas, fuentes expertas y publicaciones bien investigadas. Al citar nuestras fuentes, proporcionamos el título del informe seguido del nombre de la publicación. Cuando no sea aplicable, proporcionamos solo el nombre de la publicación.
- Usuarios activos diarios de DeepSeek – Statista
- DeepSeek explicado – TechTarget
- Estadísticas y hechos de los usuarios de DeepSeek AI – GrabOn
- Estadísticas de uso de DeepSeek – BytePlus
- Estadísticas de DeepSeek AI – Sq Magazine
- 50 últimas estadísticas de DeepSeek – Thunderbit



