Estadísticas e Información de DeepSeek 2026

Aquí tienes un vistazo a los datos y estadísticas de DeepSeek. Encuentra información clave que te ayude a dar sentido a todo lo relacionado con DeepSeek.

Resumen de DeepSeek

CategoríaDetalles
Fundador:Liang Wenfeng
Fundado el:1 de mayo de 2023
Sede:Hangzhou, China
Empresa matriz:High-Flyer (Hedge Fund)
Arquitectura del modelo:Mezcla de expertos (MoE)
Parámetros totales (V3/R1):671 mil millones
Lanzamiento global:20 de enero de 2025

Financiación y valoración

MétricaDetalle
Última valoración (principios de 2025)$3.4 mil millones
Total de financiación de riesgo recaudadaMás de $1.1 mil millones
Financiación Serie C (Q1 2025)$520 millones
Financiación Serie B (finales de 2024)$310 millones
Inversores claveSequoia Capital, Lightspeed, Andreessen Horowitz, Accel, Index Ventures
Financiador inicialHigh-Flyer (fondo de cobertura chino)
Estado de la empresaPrivada; no cotiza en bolsas de valores

Información clave: DeepSeek aseguró más de $1.1 mil millones en financiación y alcanzó una valoración de $3.4 mil millones a principios de 2025, con el respaldo de destacadas firmas de capital de riesgo.

Cronología de eventos clave

FechaEvento
Mayo de 2023Se funda DeepSeek AI en Hangzhou, China.
Noviembre de 2023Lanza su primer modelo de código abierto, DeepSeek Coder.
10 de enero de 2025Lanza su aplicación de chatbot en iOS y Android.
27 de enero de 2025Se convierte en la aplicación gratuita número 1 más descargada en la App Store de iOS en EE. UU..
27 de enero de 2025Informa de ciberataques a gran escala, limitando los registros de nuevos usuarios.
Agosto de 2025Lanza el potente modelo híbrido DeepSeek-V3.1.

Eficiencia en la utilización de recursos

MétricaDetalle
Costo de entrenamiento (DeepSeek-V3)$5.5 millones
Costo de entrenamiento comparativoAproximadamente 1/18 del costo de construcción de GPT-4 de OpenAI
Recursos de entrenamiento utilizados2.788 millones de horas de GPU H800 utilizando alrededor de 2,000 chips Nvidia H800
Eficiencia de la arquitecturaEl modelo de Mezcla de Expertos (MoE) tiene 671 mil millones de parámetros totales, pero solo 37 mil millones se activan para cualquier tarea dada.
Rendimiento en el dispositivoLas versiones cuantizadas admiten la inferencia en el dispositivo con menos de 8 GB de VRAM.

Información clave: La eficiencia de DeepSeek es evidente en sus costos de entrenamiento significativamente más bajos en comparación con sus competidores.

Impacto en el mercado de valores de EE. UU.

EmpresaCaída de accionesPérdida de capitalización de mercadoFecha del impacto
Nvidia-17%$600 mil millones27 de enero de 2025
Microsoft-2.14%27 de enero de 2025
Google (Alphabet)-4%27 de enero de 2025
Sector tecnológico del S&P 500-5.6%27 de enero de 2025
Nasdaq Composite-3.4%27 de enero de 2025
Mercado total de EE. UU.$1 billón27 de enero de 2025

Información clave: El lanzamiento global de DeepSeek en enero de 2025 provocó la mayor caída del sector tecnológico en un solo día desde septiembre de 2020 en los EE. UU., eliminando $1 billón en valor de mercado estadounidense.

Demografía de usuarios por edad y plataforma

Grupo de edadUsuarios de iOSUsuarios de AndroidDiferencia
18-24 años38.7%44.9%+6.2% Android
25-34 años22.1%13.2%+8.9% iOS
35-49 años15.3%14.9%+0.4% iOS
50-64 años23.3%26.1%+2.8% Android
65+ años0.6%1.0%+0.4% Android

Información clave: Los adultos jóvenes de 18 a 24 años representan el segmento de usuarios más grande en ambas plataformas, y Android muestra una adopción más fuerte entre los grupos demográficos más jóvenes.

 Estadísticas de tráfico del sitio web

MétricaValor
Tráfico mensual436.2 millones
Tráfico promedio diario14.5 millones
Cuota de tráfico de escritorio81.63%
Cuota de tráfico móvil18.37%
Duración promedio de la sesión4m 58s
Tasa de rebote33.73%
Tráfico de búsqueda directa61.29%
Tráfico de búsqueda orgánica33.56%
Principal referencia de redes socialesYouTube (59.44%)

Información clave: Los usuarios de escritorio dominan el tráfico de DeepSeek con un 81.63%, lo que sugiere que la plataforma se utiliza principalmente para trabajo profesional y de desarrollo en lugar de consumo móvil casual.

Comparación de costos entre modelos de IA

ModeloCosto de entrada (por M de tokens)Costo de salida (por M de tokens)Costo total (E/S combinadas)
DeepSeek-V3$0.14$0.28$0.42
DeepSeek-R1$0.55$2.19$2.74
OpenAI GPT-3.5$0.10$0.10
OpenAI GPT-4 Mini$0.07$3.00$3.07
GPT-4$10.00$30.00$40.00
Claude-3.5-Sonnet$30.00$30.00$60.00
Gemini 1.5 Pro$2.50$10.00$12.50
Meta Llama-3.5-70B$2.00$2.00$4.00

Información clave: DeepSeek-V3 ofrece el procesamiento de IA más rentable a $0.14 por millón de tokens de entrada, lo que representa una ventaja de costo de 214 veces sobre Claude-3.5-Sonnet.

Especificaciones técnicas

EspecificaciónDeepSeek-V3DeepSeek-R1Detalles
Parámetros totales671 mil millones671 mil millonesMisma arquitectura base
Parámetros activados37 mil millones37 mil millonesMezcla de expertos
Longitud de contexto128,000 tokens128,000 tokensVentana de contexto extendida
Tokens de entrenamiento14.8 billones14.8 billonesExtensos datos de entrenamiento
Horas de GPU (H800)2.788 millones2.788 millonesEntrenamiento eficiente
Costo de desarrollo$5.5 millonesMenos de $6 millones1/18 del costo de GPT-4
Lenguajes de programación80+80+Soporte multilenguaje
Máximo de tokens de salida8,0008,000Límite de respuesta única

Información clave: DeepSeek logró un rendimiento de nivel GPT-4 utilizando solo $5.5 millones en costos de desarrollo, demostrando una notable eficiencia de costos en el desarrollo de modelos de IA.

Países y organizaciones que prohibieron DeepSeek

País/OrganizaciónTipo de prohibiciónRazónFecha
ItaliaEliminación de la App StoreInvestigación de privacidadEnero de 2025
AlemaniaSolicitud de bloqueo de la App StoreProtección de datosJunio de 2025
TaiwánAgencias gubernamentalesPreocupaciones de seguridad2025
AustraliaAgencias gubernamentalesPreocupaciones de seguridad2025
Corea del SurMinisterios clavePreocupaciones de seguridad2025
Congreso de EE. UU.Restricción de usoPreocupaciones de seguridad2025
Armada de EE. UU.Restricción de usoPreocupaciones de seguridad2025

Información clave: Los países occidentales y sus aliados, según los datos, son los únicos que sintieron la necesidad de restringir DeepSeek.

Puntos de referencia de rendimiento frente a OpenAI

Punto de referenciaDeepSeek-R1OpenAI-o1-1217GanadorMargen
AIME 202479.8%79.2%DeepSeek+0.6%
MATH-50097.3%96.4%DeepSeek+0.9%
LiveCodeBench65.9%63.4%DeepSeek+2.5%
SWE Verified49.2%48.9%DeepSeek+0.3%
Calificación de Codeforces20292061OpenAI-32
Percentil de Codeforces96.3%96.6%OpenAI-0.3%
Aider-Polyglot53.3%61.7%OpenAI-8.4%

Información clave: DeepSeek-R1 supera a OpenAI en 4 de los 7 puntos de referencia, destacando particularmente en tareas de razonamiento matemático mientras queda rezagado en capacidades de codificación multilingüe.

Métricas de uso por producto (2025)

ProductoMétrica de uso
API de DeepSeek LLM5.7 mil millones de llamadas a la API por mes
DeepSeek-Coder1.9 mil millones de consultas de generación de código en el H1 2025
DeepSeek-VL (Multimodal)980 millones de consultas multimodales por mes

Información clave: La API de LLM de propósito general recibe el mayor volumen de tráfico, más del doble de los volúmenes de consultas combinados de los modelos Coder y VL.

Descargas de aplicaciones por país

PaísPorcentaje de descargas
China34%
India8%
Rusia7%
Estados Unidos6%
Pakistán4%
Brasil4%
Indonesia4%
Francia3%
Reino Unido3%
Otros países27%

Información clave: Si bien la actividad de los usuarios es alta en India e Indonesia, Rusia representa un porcentaje más alto de descargas de aplicaciones que cualquiera de ellos.

Métricas de calidad de generación de contenido

Categoría de calidadPunto de referencia / MétricaPuntuación / Rendimiento informado
Razonamiento general y conocimientoMMLU (Massive Multitask Language Understanding)90.8% (DeepSeek-R1)
DROP (Discrete Reasoning Over Paragraphs)91.6% (DeepSeek-R1)
ARC Challenge (AI2 Reasoning Challenge)80.1% (DeepSeek-Chat)
Tareas GLUE (General Language Understanding Evaluation)92.7% Promedio F1-Score (Modelos DeepSeek LLM)
Razonamiento matemáticoMATH-50097.3% (DeepSeek-R1)
AIME-202479.8% (DeepSeek-R1)
Razonamiento cuantitativo (Puntuación de NBC News)97 de 100 (DeepSeek)
CodificaciónHumanEval85.6% (DeepSeek-Coder V2.1)
LiveCodeBench65.9% (DeepSeek-R1)
SWE-bench Verified49.2% (DeepSeek-R1)
Precisión fácticaTruthfulQA64.3% (DeepSeek-Chat)
Multimodal (Visión y Lenguaje)VQAv2 (Visual Question Answering v2)87.2% (DeepSeek-VL)
Precisión OCR (Reconocimiento óptico de caracteres)92.1% de precisión de reconocimiento (DeepSeek-VL)
Recuperación de informaciónPuntuación nDCG (Recuperación densa)0.925 (DeepSeek-Embed)

Información clave: Los modelos de DeepSeek demuestran un rendimiento de élite en diversos tipos de contenido, logrando puntuaciones superiores al 90% en comprensión general del lenguaje, resolución de problemas matemáticos y puntos de referencia de reconocimiento óptico de caracteres.

Rendimiento de generación de código

Punto de referencia / MétricaModeloPuntuación informada
HumanEval (Síntesis de código Python)DeepSeek-Coder V2.185.6%
LiveCodeBench (Codificación general)DeepSeek-R165.9%
SWE-bench Verified (Ingeniería de software)DeepSeek-R149.2%
Codeforces (Programación competitiva)DeepSeek-R196.3% (Percentil)
Productividad del desarrollador (Encuesta empresarial)DeepSeek-CoderEl 82% de los desarrolladores informaron una mayor productividad

Información clave: Los modelos de codificación de DeepSeek destacan tanto en puntos de referencia estandarizados, como HumanEval, como en aplicaciones prácticas, con una gran mayoría de desarrolladores empresariales que informan de un aumento de la productividad.

Matriz de soporte de idiomas

CapacidadIdiomas admitidos
Lenguajes naturales (Multimodal)El modelo DeepSeek-VL admite 12 idiomas.
Soporte localizadoLa plataforma se ha expandido a 37 países con soporte localizado para idiomas que incluyen árabe, suajili y vietnamita.
Lenguajes de programación (General)DeepSeek admite más de 80 lenguajes de programación.
Lenguajes de programación (Coder V2.1)El modelo DeepSeek-Coder V2.1 admite específicamente 32 lenguajes de programación, incluidos COBOL y Rust.

Información clave: La plataforma proporciona un amplio soporte de idiomas, cubriendo docenas de lenguajes de programación para desarrolladores.

Métricas de integración empresarial

MétricaCifra / Detalle
Cuentas empresariales integradasMás de 26,000
Implementaciones de suites empresarialesImplementado en más de 3,200 organizaciones
Llamadas mensuales a la API5.7 mil millones
Reducción del tiempo de incorporaciónEl tiempo de incorporación de los desarrolladores se redujo en un 42% debido a la mejora de la documentación y las herramientas en el Q1 2025.

Información clave: DeepSeek ha demostrado una integración empresarial exitosa a escala, evidenciada por miles de millones de llamadas mensuales a la API e implementación en miles de organizaciones.

Contribuciones al ecosistema de código abierto

Área de contribuciónMétrica / Detalle
Compromiso de la comunidadEl repositorio de GitHub superó las 170,000 estrellas, convirtiéndose en el proyecto de IA con más estrellas en 2025
Colaboración de desarrolladoresMás de 60,000 colaboradores únicos han participado en proyectos de DeepSeek
Conjuntos de datos públicosLanzó 4 conjuntos de datos principales en 2025, incluido un corpus multilingüe de 2.1 billones de tokens
Accesibilidad del modeloLos archivos de pesos de LLM abiertos se descargaron 11.2 millones de veces en los primeros cinco meses de 2025
Impacto académicoLas herramientas o conjuntos de datos de DeepSeek fueron citados en el 38% de todos los nuevos artículos de investigación de IA en Arxiv en el Q1 2025

Información clave: El impacto de DeepSeek se extiende más allá de sus productos a la comunidad de IA en general, donde lidera en compromiso de código abierto, intercambio de datos e influencia académica.


Referencias

DataGlobeHub utiliza las mejores fuentes de datos disponibles para respaldar cada publicación. Priorizamos fuentes de buena reputación, como fuentes gubernamentales, fuentes autorizadas, fuentes expertas y publicaciones bien investigadas. Al citar nuestras fuentes, proporcionamos el título del informe seguido del nombre de la publicación. Cuando no sea aplicable, proporcionamos solo el nombre de la publicación.

  1. Usuarios activos diarios de DeepSeek – Statista
  2. DeepSeek explicado – TechTarget
  3. Estadísticas y hechos de los usuarios de DeepSeek AI – GrabOn
  4. Estadísticas de uso de DeepSeek – BytePlus
  5. Estadísticas de DeepSeek AI  – Sq Magazine
  6. 50 últimas estadísticas de DeepSeek – Thunderbit

Compartir