Miguel Pinto
Miguel Pinto
19 Fev, 2026 - 15:30

DeepSeek 4 é melhor que GPT e Claude? Dados dizem que sim

Miguel Pinto

Vem aí o DeepSeek 4, uma nova evolução da plataforma de inteligência artificial chinesa. Os concorrentes estão preparados?

DeepSeek 4

O DeepSeek 4, também conhecido como DeepSeek V4, é o novo modelo de inteligência artificial desenvolvido pela empresa chinesa DeepSeek, sediada em Hangzhou.

Trata-se da maior atualização da empresa desde o lançamento do DeepSeek V3, em dezembro de 2024, e promete ser o modelo mais poderoso e eficiente que a empresa alguma vez lançou.

Com quase um milhão de utilizadores mensais só na plataforma oficial de chatbot, a DeepSeek consolidou a sua reputação como uma das ferramentas de IA mais capazes do mercado especialmente no que diz respeito a programação, raciocínio lógico e tarefas complexas. O V4 aprofunda precisamente esta herança.

Uma das novidades mais relevantes é o facto de o DeepSeek 4 ser um modelo híbrido, capaz de gerir tanto tarefas de raciocínio como tarefas convencionais numa única arquitetura.

Isto significa que a distinção entre os modelos R1 e V3.X deixará de fazer sentido e que o aguardado DeepSeek R2 provavelmente não chegará a ser lançado de forma independente.

Quais as principais funcionalidades do DeepSeek 4?

logo do deepseek 4

Em janeiro de 2026, a DeepSeek publicou um artigo científico, co-assinado pelo fundador Liang Wenfeng, que descreve um novo método de treino denominado Manifold-Constrained Hyper-Connections.

Esta abordagem altera a forma como a informação flui entre as camadas do modelo, permitindo melhor desempenho sem aumentar significativamente os custos computacionais.

Em termos práticos, o modelo consegue aprender de forma mais eficiente com os mesmos recursos.

Engram Memory System

Publicado a 13 de janeiro de 2026, o sistema de memória Engram é uma tecnologia de memória condicional que permite ao modelo reter e recuperar informação de forma seletiva, consoante o contexto em que está a operar.

O resultado é um modelo que “consome” o contexto de forma muito mais lenta e mantém a precisão por mais tempo.

DeepSeek Sparse Attention (DSA)

O DeepSeek Sparse Attention (DSA) é talvez a funcionalidade mais impressionante do V4, já que permite janelas de contexto superiores a um milhão de tokens.

Para efeitos de comparação, o Claude Opus 4.5 da Anthropic tem um limite de 200.000 tokens.

A dimensão da janela de contexto é uma das maiores limitações dos modelos de IA atuais, e um milhão de tokens coloca o DeepSeek 4 numa posição de destaque inegável.

Arquitetura Mixture-of-Experts (MoE)

Continuando a tradição do V3, o DeepSeek 4 utiliza uma arquitetura Mixture-of-Experts, na qual apenas uma fração dos parâmetros totais do modelo é ativada em cada pedido.

è uma eficiência computacional muito superior, com o modelo a conseguir um desempenho de topo sem necessitar dos recursos massivos que os seus concorrentes exigem.

inteligência artificial
Veja também Inteligência artificial: 5 dicas para ter as melhores respostas

O DeepSeek 4 é mesmo tão bom?

De acordo com benchmarks internos, o V4 é altamente competitivo. Fontes citadas pela publicação The Information indicaram que o V4 supera modelos da Anthropic e da OpenAI em alguns dos testes internos da DeepSeek.

Para liderar no domínio da programação, o V4 precisaria de superar a pontuação de 80,9% do Claude Opus 4.5 no benchmark SWE-bench, que avalia a capacidade dos modelos de resolver problemas reais extraídos do GitHub.

Vale a pena recordar que, quando o modelo R1 foi lançado, igualou o desempenho do GPT-4 da OpenAI em matemática e raciocínio, tendo custado alegadamente apenas 6 milhões de dólares a desenvolver, contra potencialmente centenas de milhões gastos pela OpenAI.

Ainda assim, os resultados de testes internos devem ser interpretados com cautela até à publicação de avaliações independentes.

A DeepSeek aponta para um lançamento ainda para este mês de fevereiro, possivelmente a coincidir com o Ano Novo Lunar Chinês.

A empresa não confirmou oficialmente a data, mas a convergência de sinais do setor aponta para esse período.

Onde aceder ao DeepSeek 4?

concorrentes do deepseek

Quando o V4 estiver disponível, deverão existir várias formas de o aceder.

Plataformas oficiais da DeepSeek. O chatbot web DeepSeek Chat deverá continuar gratuito. O acesso via API terá preços por utilização, significativamente mais baixos do que os dos concorrentes. As aplicações móveis para iOS e Android também deverão estar disponíveis.

Acesso open-source. A DeepSeek deverá lançar o V4 como modelo de pesos abertos (open-weight), sob uma licença permissiva.

Tal significa que será possível descarregar os pesos do modelo a partir do Hugging Face, executá-lo localmente com ferramentas como Ollama ou vLLM, fazer fine-tuning para casos de uso específicos, ou alojá-lo em plataformas de cloud.

DeepSeek 4 vs concorrentes

O V4 vai competir diretamente com alguns dos modelos mais capazes do mercado atual.

O Claude Opus 4.5 da Anthropic lidera atualmente o benchmark SWE-bench com 80,9% e é reconhecido pelo seu raciocínio avançado e capacidade de processar contextos longos.

O GPT-5.2 da OpenAI é o modelo de referência para escrita, programação e análise em contexto empresarial.

O Gemini 3 Pro da Google, por sua vez, é um modelo multimodal com integração profunda no ecossistema Google, superando o DeepSeek V3.2 na maioria dos benchmarks de raciocínio geral.

Quem está por trás do DeepSeek?

A DeepSeek foi fundada em julho de 2023 por Liang Wenfeng, um empreendedor de 40 anos que também co-fundou o fundo de investimento quantitativo High-Flyer.

Formado em engenharia eletrónica e de comunicações pela Universidade de Zhejiang, Liang construiu uma empresa que desafia as convenções do setor tecnológico.

A DeepSeek opera como subsidiária do High-Flyer, que é o seu único investidor. Liang detém uma participação de 84% na empresa.

Uma das particularidades da sua abordagem de recrutamento é a preferência por recém-licenciados de universidades chinesas e por talentos provenientes de áreas como matemática avançada e literatura e não apenas de ciências da computação.

O objetivo declarado de Liang não é a maximização de lucros a curto prazo, mas sim avançar em direção à inteligência artificial geral (AGI).

Veja também