DeepSeek
DeepSeek (Imagem: Shutterstock/24K-Production)

Em janeiro de 2025, o DeepSeek deixou de ser um nome pouco conhecido para se tornar um dos maiores pesadelos do Vale do Silício, ao provocar uma queda histórica nas ações de gigantes da tecnologia. No entanto, o sucesso foi breve. Nos meses seguintes, a empresa acumulou uma série de tentativas frustradas de recuperar o mesmo protagonismo, com lançamentos e integrações que ficaram longe de repetir o impacto inicial que havia abalado o setor.

Apesar da perda de relevância, o DeepSeek parece apostar agora em uma nova cartada para voltar aos holofotes. Segundo um relatório do site The Information, a chinesa deverá lançar um novo modelo de inteligência artificial (DeepSeek V4) ainda em fevereiro. Ainda não há uma data certeira do possível lançamento, mas já existem especulações de que poderia ser no dia 17, quando começa o Ano Novo Chinês.

Em uma reportagem anterior, o Startups noticiou que o DeepSeek está investindo agora em um novo método para o treinamento de LLMs (Large Language Models), chamado de “Manifold-Constrained Hyper-Connections” (mHC, numa versão mais curta). A técnica, apresentada em um white paper recente, promete tornar os modelos mais escaláveis e eficientes ao reduzir o consumo de energia e a demanda computacional.

Diante disso, a expectativa do mercado é que o DeepSeek V4 já incorpore esse novo método em sua arquitetura, o que poderia representar um avanço relevante em relação às versões anteriores e funcionar como a principal aposta da empresa para tentar recuperar o protagonismo perdido no cenário global de inteligência artificial.

O que esperar do DeepSeek V4?

O DeepSeek V4 surge como a tentativa mais ambiciosa da startup chinesa de um novo salto, uma vez que o modelo deverá ter capacidades avançadas de codificação.

Testes internos indicam que o novo modelo pode superar concorrentes como a série GPT, da OpenAI, e o Claude, da Anthropic, principalmente em atividades ligadas à programação, hoje consideradas um dos principais critérios de adoção corporativa de IA.

Além disso, o V4 deve avançar no processamento de prompts de código extremamente longos, uma capacidade estratégica para desenvolvedores que lidam com sistemas complexos.

Esse desempenho técnico se conecta diretamente ao diferencial que colocou a DeepSeek no centro do debate global no início de 2025: a eficiência de custos. O modelo R1 chamou atenção ao ser treinado por aproximadamente US$ 294 mil, um valor muito menor diante dos bilhões investidos por rivais americanos, e forçou o mercado a repensar a relação entre escala, hardware e desempenho em IA.

Agora, ao apostar em um novo método para o treinamento de LLMs, o mHC, a empresa sinaliza uma estratégia clara para tentar repetir aquele “boom”. Se a promessa de maior escalabilidade, estabilidade e menor demanda computacional se confirmar, o V4 pode representar não só um novo avanço técnico, mas também um novo choque na corrida global pela liderança em inteligência artificial.