Estatísticas e Insights do DeepSeek 2026
Aqui está uma análise dos dados e estatísticas do DeepSeek. Encontre insights fundamentais para ajudar você a entender tudo sobre o DeepSeek.

Visão Geral da DeepSeek
| Categoria | Detalhes |
| Fundador: | Liang Wenfeng |
| Fundada em: | 1 de maio de 2023 |
| Sede: | Hangzhou, China |
| Empresa-mãe: | High-Flyer (Hedge Fund) |
| Arquitetura do Modelo: | Mistura de Especialistas (MoE) |
| Total de Parâmetros (V3/R1): | 671 Bilhões |
| Lançamento Global: | 20 de janeiro de 2025 |
Financiamento e Avaliação
| Métrica | Detalhe |
| Última Avaliação (Início de 2025) | $3,4 bilhões |
| Total de Financiamento de Risco Arrecadado | Mais de $1,1 bilhão |
| Financiamento Série C (Q1 2025) | $520 milhões |
| Financiamento Série B (Final de 2024) | $310 milhões |
| Principais Investidores | Sequoia Capital, Lightspeed, Andreessen Horowitz, Accel, Index Ventures |
| Financiador Inicial | High-Flyer (hedge fund chinês) |
| Status da Empresa | Privada; não listada em bolsas de valores |
Insight Principal: A DeepSeek garantiu mais de $1,1 bilhão em financiamento e alcançou uma avaliação de $3,4 bilhões no início de 2025, apoiada por empresas proeminentes de capital de risco.
Cronograma de Eventos Principais
| Data | Evento |
| Maio de 2023 | DeepSeek AI é fundada em Hangzhou, China. |
| Nov de 2023 | Lança seu primeiro modelo de código aberto, DeepSeek Coder. |
| 10 de jan de 2025 | Lança seu aplicativo de chatbot no iOS e Android. |
| 27 de jan de 2025 | Torna-se o aplicativo gratuito nº 1 mais baixado na App Store do iOS nos EUA. |
| 27 de jan de 2025 | Relata ataques cibernéticos em larga escala, limitando novos registros de usuários. |
| Ago de 2025 | Lança o poderoso modelo híbrido DeepSeek-V3.1. |
Eficiência na Utilização de Recursos
| Métrica | Detalhe |
| Custo de Treinamento (DeepSeek-V3) | $5,5 milhões |
| Custo de Treinamento Comparativo | Aproximadamente 1/18 do custo de construção do GPT-4 da OpenAI |
| Recursos de Treinamento Utilizados | 2,788 milhões de horas de GPU H800 usando cerca de 2.000 chips Nvidia H800 |
| Eficiência da Arquitetura | O modelo Mixture-of-Experts (MoE) possui 671 bilhões de parâmetros totais, mas apenas 37 bilhões são ativados para qualquer tarefa específica. |
| Desempenho no Dispositivo | Versões quantizadas suportam inferência no dispositivo com menos de 8GB de VRAM. |
Insight Principal: A eficiência da DeepSeek é evidente em seus custos de treinamento significativamente mais baixos em comparação aos concorrentes.
Impacto no Mercado de Ações dos EUA
| Empresa | Queda nas Ações | Perda de Valor de Mercado | Data do Impacto |
|---|---|---|---|
| Nvidia | -17% | $600 bilhões | 27 de janeiro de 2025 |
| Microsoft | -2,14% | – | 27 de janeiro de 2025 |
| Google (Alphabet) | -4% | – | 27 de janeiro de 2025 |
| Setor de Tecnologia S&P 500 | -5,6% | – | 27 de janeiro de 2025 |
| Nasdaq Composite | -3,4% | – | 27 de janeiro de 2025 |
| Mercado Total dos EUA | – | $1 trilhão | 27 de janeiro de 2025 |
Insight Principal: O lançamento global da DeepSeek em janeiro de 2025 desencadeou o maior declínio diário do setor de tecnologia desde setembro de 2020 nos EUA, eliminando $1 trilhão em valor de mercado dos EUA.
Demografia de Usuários por Idade e Plataforma
| Faixa Etária | Usuários iOS | Usuários Android | Diferença |
|---|---|---|---|
| 18-24 anos | 38,7% | 44,9% | +6,2% Android |
| 25-34 anos | 22,1% | 13,2% | +8,9% iOS |
| 35-49 anos | 15,3% | 14,9% | +0,4% iOS |
| 50-64 anos | 23,3% | 26,1% | +2,8% Android |
| 65+ anos | 0,6% | 1,0% | +0,4% Android |
Insight Principal: Jovens adultos de 18 a 24 anos representam o maior segmento de usuários em ambas as plataformas, com o Android mostrando uma adoção mais forte entre as demografias mais jovens.
Estatísticas de Tráfego do Site
| Métrica | Valor |
|---|---|
| Tráfego Mensal | 436,2 milhões |
| Média de Tráfego Diário | 14,5 milhões |
| Participação de Tráfego Desktop | 81,63% |
| Participação de Tráfego Móvel | 18,37% |
| Duração Média da Sessão | 4m 58s |
| Taxa de Rejeição | 33,73% |
| Tráfego de Busca Direta | 61,29% |
| Tráfego de Busca Orgânica | 33,56% |
| Principal Referência de Mídia Social | YouTube (59,44%) |
Insight Principal: Usuários de desktop dominam o tráfego da DeepSeek com 81,63%, sugerindo que a plataforma é usada principalmente para trabalho profissional e de desenvolvimento, em vez de consumo móvel casual.
Comparação de Custos entre Modelos de IA
| Modelo | Custo de Entrada (por M tokens) | Custo de Saída (por M tokens) | Custo Total (I/O combinado) |
|---|---|---|---|
| DeepSeek-V3 | $0,14 | $0,28 | $0,42 |
| DeepSeek-R1 | $0,55 | $2,19 | $2,74 |
| OpenAI GPT-3.5 | $0,10 | – | $0,10 |
| OpenAI GPT-4 Mini | $0,07 | $3,00 | $3,07 |
| GPT-4 | $10,00 | $30,00 | $40,00 |
| Claude-3.5-Sonnet | $30,00 | $30,00 | $60,00 |
| Gemini 1.5 Pro | $2,50 | $10,00 | $12,50 |
| Meta Llama-3.5-70B | $2,00 | $2,00 | $4,00 |
Insight Principal: O DeepSeek-V3 oferece o processamento de IA mais econômico a $0,14 por milhão de tokens de entrada, representando uma vantagem de custo de 214x sobre o Claude-3.5-Sonnet.
Especificações Técnicas
| Especificação | DeepSeek-V3 | DeepSeek-R1 | Detalhes |
|---|---|---|---|
| Total de Parâmetros | 671 Bilhões | 671 Bilhões | Mesma arquitetura base |
| Parâmetros Ativados | 37 Bilhões | 37 Bilhões | Mistura de Especialistas |
| Comprimento do Contexto | 128.000 tokens | 128.000 tokens | Janela de contexto estendida |
| Tokens de Treinamento | 14,8 Trilhões | 14,8 Trilhões | Dados de treinamento extensos |
| Horas de GPU (H800) | 2,788 Milhões | 2,788 Milhões | Treinamento eficiente |
| Custo de Desenvolvimento | $5,5 Milhões | Abaixo de $6 Milhões | 1/18 do custo do GPT-4 |
| Linguagens de Programação | 80+ | 80+ | Suporte multilíngue |
| Máximo de Tokens de Saída | 8.000 | 8.000 | Limite de resposta única |
Insight Principal: A DeepSeek alcançou um desempenho de nível GPT-4 usando apenas $5,5 milhões em custos de desenvolvimento, demonstrando uma eficiência de custo notável no desenvolvimento de modelos de IA.
Países e Organizações que Baniram a DeepSeek
| País/Organização | Tipo de Banimento | Motivo | Data |
|---|---|---|---|
| Itália | Remoção da App Store | Investigação de Privacidade | Janeiro de 2025 |
| Alemanha | Solicitação de Bloqueio na App Store | Proteção de Dados | Junho de 2025 |
| Taiwan | Agências Governamentais | Preocupações de Segurança | 2025 |
| Austrália | Agências Governamentais | Preocupações de Segurança | 2025 |
| Coreia do Sul | Ministérios Principais | Preocupações de Segurança | 2025 |
| Congresso dos EUA | Restrição de Uso | Preocupações de Segurança | 2025 |
| Marinha dos EUA | Restrição de Uso | Preocupações de Segurança | 2025 |
Insight Principal: Países ocidentais e seus aliados, de acordo com os dados, são os únicos que sentiram a necessidade de restringir a DeepSeek.
Benchmarks de Desempenho vs OpenAI
| Benchmark | DeepSeek-R1 | OpenAI-o1-1217 | Vencedor | Margem |
|---|---|---|---|---|
| AIME 2024 | 79,8% | 79,2% | DeepSeek | +0,6% |
| MATH-500 | 97,3% | 96,4% | DeepSeek | +0,9% |
| LiveCodeBench | 65,9% | 63,4% | DeepSeek | +2,5% |
| SWE Verified | 49,2% | 48,9% | DeepSeek | +0,3% |
| Classificação Codeforces | 2029 | 2061 | OpenAI | -32 |
| Percentil Codeforces | 96,3% | 96,6% | OpenAI | -0,3% |
| Aider-Polyglot | 53,3% | 61,7% | OpenAI | -8,4% |
Insight Principal: O DeepSeek-R1 supera a OpenAI em 4 de 7 benchmarks, destacando-se particularmente em tarefas de raciocínio matemático, enquanto fica atrás em capacidades de codificação multilíngue.
Métricas de Uso por Produto (2025)
| Produto | Métrica de Uso |
| DeepSeek LLM API | 5,7 bilhões de chamadas de API por mês |
| DeepSeek-Coder | 1,9 bilhão de consultas de geração de código no H1 2025 |
| DeepSeek-VL (Multimodal) | 980 milhões de consultas multimodais por mês |
Insight Principal: A API LLM de propósito geral recebe o maior volume de tráfego, mais que o dobro dos volumes de consulta combinados dos modelos Coder e VL.
Downloads de Aplicativos por País
| País | Porcentagem de Downloads |
| China | 34% |
| Índia | 8% |
| Rússia | 7% |
| Estados Unidos | 6% |
| Paquistão | 4% |
| Brasil | 4% |
| Indonésia | 4% |
| França | 3% |
| Reino Unido | 3% |
| Outros Países | 27% |
Insight Principal: Embora a atividade do usuário seja alta na Índia e na Indonésia, a Rússia responde por uma porcentagem maior de downloads de aplicativos do que qualquer um deles.
Métricas de Qualidade de Geração de Conteúdo
| Categoria de Qualidade | Benchmark / Métrica | Pontuação / Desempenho Relatado |
| Raciocínio Geral e Conhecimento | MMLU (Massive Multitask Language Understanding) | 90,8% (DeepSeek-R1) |
| DROP (Discrete Reasoning Over Paragraphs) | 91,6% (DeepSeek-R1) | |
| ARC Challenge (AI2 Reasoning Challenge) | 80,1% (DeepSeek-Chat) | |
| Tarefas GLUE (General Language Understanding Evaluation) | Média de 92,7% F1-Score (Modelos DeepSeek LLM) | |
| Raciocínio Matemático | MATH-500 | 97,3% (DeepSeek-R1) |
| AIME-2024 | 79,8% (DeepSeek-R1) | |
| Raciocínio Quantitativo (Pontuação NBC News) | 97 de 100 (DeepSeek) | |
| Codificação | HumanEval | 85,6% (DeepSeek-Coder V2.1) |
| LiveCodeBench | 65,9% (DeepSeek-R1) | |
| SWE-bench Verified | 49,2% (DeepSeek-R1) | |
| Precisão Factual | TruthfulQA | 64,3% (DeepSeek-Chat) |
| Multimodal (Visão e Linguagem) | VQAv2 (Visual Question Answering v2) | 87,2% (DeepSeek-VL) |
| Precisão OCR (Reconhecimento Óptico de Caracteres) | 92,1% de Precisão de Reconhecimento (DeepSeek-VL) | |
| Recuperação de Informação | Pontuação nDCG (Recuperação Densa) | 0,925 (DeepSeek-Embed) |
Insight Principal: Os modelos da DeepSeek demonstram desempenho de elite em diversos tipos de conteúdo, alcançando pontuações acima de 90% em compreensão geral de linguagem, resolução de problemas matemáticos e benchmarks de reconhecimento óptico de caracteres.
Desempenho de Geração de Código
| Benchmark / Métrica | Modelo | Pontuação Relatada |
| HumanEval (Síntese de Código Python) | DeepSeek-Coder V2.1 | 85,6% |
| LiveCodeBench (Codificação Geral) | DeepSeek-R1 | 65,9% |
| SWE-bench Verified (Engenharia de Software) | DeepSeek-R1 | 49,2% |
| Codeforces (Programação Competitiva) | DeepSeek-R1 | 96,3% (Percentil) |
| Produtividade do Desenvolvedor (Pesquisa Empresarial) | DeepSeek-Coder | 82% dos desenvolvedores relataram maior produtividade |
Insight Principal: Os modelos de codificação da DeepSeek se destacam tanto em benchmarks padronizados, como o HumanEval, quanto em aplicações práticas, com a grande maioria dos desenvolvedores empresariais relatando aumento de produtividade.
Matriz de Suporte a Idiomas
| Capacidade | Idiomas Suportados |
| Línguas Naturais (Multimodal) | O modelo DeepSeek-VL suporta 12 idiomas. |
| Suporte Localizado | A plataforma expandiu para 37 países com suporte localizado para idiomas incluindo árabe, suaíli e vietnamita. |
| Linguagens de Programação (Geral) | A DeepSeek suporta mais de 80 linguagens de programação. |
| Linguagens de Programação (Coder V2.1) | O modelo DeepSeek-Coder V2.1 suporta especificamente 32 linguagens de programação, incluindo COBOL e Rust. |
Insight Principal: A plataforma oferece amplo suporte a idiomas, cobrindo dezenas de linguagens de programação para desenvolvedores.
Métricas de Integração Empresarial
| Métrica | Número / Detalhe |
| Contas Empresariais Integradas | Mais de 26.000 |
| Implantações de Suíte Empresarial | Implantado em mais de 3.200 organizações |
| Chamadas de API Mensais | 5,7 bilhões |
| Redução no Tempo de Integração | O tempo de integração de desenvolvedores foi reduzido em 42% devido à melhoria na documentação e ferramentas no Q1 2025. |
Insight Principal: A DeepSeek demonstrou integração empresarial bem-sucedida em escala, evidenciada por bilhões de chamadas de API mensais e implantação em milhares de organizações.
Contribuições ao Ecossistema de Código Aberto
| Área de Contribuição | Métrica / Detalhe |
| Engajamento da Comunidade | O repositório no GitHub excedeu 170.000 estrelas, tornando-se o projeto de IA nº 1 com mais estrelas em 2025 |
| Colaboração de Desenvolvedores | Mais de 60.000 contribuidores únicos participaram de projetos da DeepSeek |
| Conjuntos de Dados Públicos | Lançou 4 grandes conjuntos de dados em 2025, incluindo um corpus multilíngue de 2,1 bilhões de tokens |
| Acessibilidade do Modelo | Arquivos de pesos de LLM abertos foram baixados 11,2 milhões de vezes nos primeiros cinco meses de 2025 |
| Impacto Acadêmico | Ferramentas ou conjuntos de dados da DeepSeek foram citados em 38% de todos os novos artigos de pesquisa de IA no Arxiv no Q1 2025 |
Insight Principal: O impacto da DeepSeek se estende além de seus produtos para a comunidade de IA em geral, onde lidera em engajamento de código aberto, compartilhamento de dados e influência acadêmica.
Referências
O DataGlobeHub utiliza as melhores fontes de dados disponíveis para apoiar cada publicação. Priorizamos fontes de boa reputação, como fontes governamentais, fontes autoritárias, fontes especializadas e publicações bem pesquisadas. Ao citar nossas fontes, fornecemos o título do relatório seguido pelo nome da publicação. Onde não for aplicável, fornecemos apenas o nome da publicação.
- Usuários ativos diários da DeepSeek – Statista
- DeepSeek explicada – TechTarget
- Estatísticas e Fatos de Usuários da DeepSeek AI – GrabOn
- Estatísticas de uso da DeepSeek – BytePlus
- Estatísticas da DeepSeek AI – Sq Magazine
- 50 Estatísticas Mais Recentes da DeepSeek – Thunderbit



