O DeepSeek 4, também conhecido como DeepSeek V4, é o novo modelo de inteligência artificial desenvolvido pela empresa chinesa DeepSeek, sediada em Hangzhou.
Trata-se da maior atualização da empresa desde o lançamento do DeepSeek V3, em dezembro de 2024, e promete ser o modelo mais poderoso e eficiente que a empresa alguma vez lançou.
Com quase um milhão de utilizadores mensais só na plataforma oficial de chatbot, a DeepSeek consolidou a sua reputação como uma das ferramentas de IA mais capazes do mercado especialmente no que diz respeito a programação, raciocínio lógico e tarefas complexas. O V4 aprofunda precisamente esta herança.
Uma das novidades mais relevantes é o facto de o DeepSeek 4 ser um modelo híbrido, capaz de gerir tanto tarefas de raciocínio como tarefas convencionais numa única arquitetura.
Isto significa que a distinção entre os modelos R1 e V3.X deixará de fazer sentido e que o aguardado DeepSeek R2 provavelmente não chegará a ser lançado de forma independente.
Quais as principais funcionalidades do DeepSeek 4?

Em janeiro de 2026, a DeepSeek publicou um artigo científico, co-assinado pelo fundador Liang Wenfeng, que descreve um novo método de treino denominado Manifold-Constrained Hyper-Connections.
Esta abordagem altera a forma como a informação flui entre as camadas do modelo, permitindo melhor desempenho sem aumentar significativamente os custos computacionais.
Em termos práticos, o modelo consegue aprender de forma mais eficiente com os mesmos recursos.
Engram Memory System
Publicado a 13 de janeiro de 2026, o sistema de memória Engram é uma tecnologia de memória condicional que permite ao modelo reter e recuperar informação de forma seletiva, consoante o contexto em que está a operar.
O resultado é um modelo que “consome” o contexto de forma muito mais lenta e mantém a precisão por mais tempo.
DeepSeek Sparse Attention (DSA)
O DeepSeek Sparse Attention (DSA) é talvez a funcionalidade mais impressionante do V4, já que permite janelas de contexto superiores a um milhão de tokens.
Para efeitos de comparação, o Claude Opus 4.5 da Anthropic tem um limite de 200.000 tokens.
A dimensão da janela de contexto é uma das maiores limitações dos modelos de IA atuais, e um milhão de tokens coloca o DeepSeek 4 numa posição de destaque inegável.
Arquitetura Mixture-of-Experts (MoE)
Continuando a tradição do V3, o DeepSeek 4 utiliza uma arquitetura Mixture-of-Experts, na qual apenas uma fração dos parâmetros totais do modelo é ativada em cada pedido.
è uma eficiência computacional muito superior, com o modelo a conseguir um desempenho de topo sem necessitar dos recursos massivos que os seus concorrentes exigem.
O DeepSeek 4 é mesmo tão bom?
De acordo com benchmarks internos, o V4 é altamente competitivo. Fontes citadas pela publicação The Information indicaram que o V4 supera modelos da Anthropic e da OpenAI em alguns dos testes internos da DeepSeek.
Para liderar no domínio da programação, o V4 precisaria de superar a pontuação de 80,9% do Claude Opus 4.5 no benchmark SWE-bench, que avalia a capacidade dos modelos de resolver problemas reais extraídos do GitHub.
Vale a pena recordar que, quando o modelo R1 foi lançado, igualou o desempenho do GPT-4 da OpenAI em matemática e raciocínio, tendo custado alegadamente apenas 6 milhões de dólares a desenvolver, contra potencialmente centenas de milhões gastos pela OpenAI.
Ainda assim, os resultados de testes internos devem ser interpretados com cautela até à publicação de avaliações independentes.
A DeepSeek aponta para um lançamento ainda para este mês de fevereiro, possivelmente a coincidir com o Ano Novo Lunar Chinês.
A empresa não confirmou oficialmente a data, mas a convergência de sinais do setor aponta para esse período.
Onde aceder ao DeepSeek 4?

Quando o V4 estiver disponível, deverão existir várias formas de o aceder.
Plataformas oficiais da DeepSeek. O chatbot web DeepSeek Chat deverá continuar gratuito. O acesso via API terá preços por utilização, significativamente mais baixos do que os dos concorrentes. As aplicações móveis para iOS e Android também deverão estar disponíveis.
Acesso open-source. A DeepSeek deverá lançar o V4 como modelo de pesos abertos (open-weight), sob uma licença permissiva.
Tal significa que será possível descarregar os pesos do modelo a partir do Hugging Face, executá-lo localmente com ferramentas como Ollama ou vLLM, fazer fine-tuning para casos de uso específicos, ou alojá-lo em plataformas de cloud.
DeepSeek 4 vs concorrentes
O V4 vai competir diretamente com alguns dos modelos mais capazes do mercado atual.
O Claude Opus 4.5 da Anthropic lidera atualmente o benchmark SWE-bench com 80,9% e é reconhecido pelo seu raciocínio avançado e capacidade de processar contextos longos.
O GPT-5.2 da OpenAI é o modelo de referência para escrita, programação e análise em contexto empresarial.
O Gemini 3 Pro da Google, por sua vez, é um modelo multimodal com integração profunda no ecossistema Google, superando o DeepSeek V3.2 na maioria dos benchmarks de raciocínio geral.
Quem está por trás do DeepSeek?
A DeepSeek foi fundada em julho de 2023 por Liang Wenfeng, um empreendedor de 40 anos que também co-fundou o fundo de investimento quantitativo High-Flyer.
Formado em engenharia eletrónica e de comunicações pela Universidade de Zhejiang, Liang construiu uma empresa que desafia as convenções do setor tecnológico.
A DeepSeek opera como subsidiária do High-Flyer, que é o seu único investidor. Liang detém uma participação de 84% na empresa.
Uma das particularidades da sua abordagem de recrutamento é a preferência por recém-licenciados de universidades chinesas e por talentos provenientes de áreas como matemática avançada e literatura e não apenas de ciências da computação.
O objetivo declarado de Liang não é a maximização de lucros a curto prazo, mas sim avançar em direção à inteligência artificial geral (AGI).