O post DeepSeek V4 rumored to outperform ChatGPT and Claude in long-context coding apareceu em BitcoinEthereumNews.com. Rumores indicam que o DeepSeek V4 supera o ChatGPTO post DeepSeek V4 rumored to outperform ChatGPT and Claude in long-context coding apareceu em BitcoinEthereumNews.com. Rumores indicam que o DeepSeek V4 supera o ChatGPT

DeepSeek V4 rumored to outperform ChatGPT and Claude in long-context coding

2026/01/10 18:09
Leu 4 min

Rumores indicam que o DeepSeek V4 supera o ChatGPT e o Claude em codificação de contexto longo, visando tarefas de codificação de nível elite. Insiders afirmam que o cenário de IA do Silicon Valley deveria estar preocupado se os testes internos indicam o seu desempenho esperado após o lançamento em meados de fevereiro.

A startup de IA chinesa DeepSeek está alegadamente a planear lançar o DeepSeek V4, o seu mais recente modelo de linguagem grande, a 17 de fevereiro. Pessoas familiarizadas com o assunto afirmam que o modelo está preparado para lançar uma sombra sobre os modelos de linguagem grandes existentes, como o ChatGPT da OpenAI e o Claude da Anthropic, ao lidar com prompts e tarefas de código de contexto longo.

Os desenvolvedores expressam grande antecipação pelo lançamento do DeepSeek V4

A empresa chinesa não divulgou publicamente qualquer informação sobre o lançamento iminente ou confirmou os rumores até ao momento da redação. Os desenvolvedores em diferentes redes sociais expressaram grande antecipação pelo lançamento. Yuchen Jin, um desenvolvedor de IA e cofundador da Hyperbolic Labs, escreveu no X que "O DeepSeek V4 está alegadamente prestes a ser lançado, com codificação mais forte do que o Claude e o GPT."

O subreddit r/DeepSeek também aqueceu, com um utilizador a explicar que a sua obsessão com o iminente modelo V4 da DeepSeek não era normal. O utilizador disse que frequentemente "verifica notícias, possíveis rumores, e até vai ler os Docs no site da DS para procurar quaisquer alterações ou sinais que indiquem uma atualização."

Os lançamentos anteriores da DeepSeek tiveram um impacto significativo nos mercados globais. A startup de IA chinesa lançou o seu modelo de raciocínio R1 em janeiro de 2025, levando a uma venda massiva de um trilião de dólares. O lançamento igualou o modelo 01 da OpenAI em benchmarks de matemática e raciocínio, apesar de custar significativamente menos do que a startup de IA dos EUA gastou no seu modelo 01. 

A empresa chinesa alegadamente gastou apenas 6 milhões de dólares no lançamento do modelo. Entretanto, os concorrentes globais gastam quase 70 vezes mais para o mesmo resultado. O seu modelo V3 também registou uma pontuação de 90,2% no benchmark MATH-500, em comparação com os 78,3% do Claude. A mais recente atualização V3 da DeepSeek (V3.2 Speciale) melhorou ainda mais a sua produtividade.

O ponto de venda do seu modelo V4 evoluiu da ênfase do V3 no raciocínio puro, provas formais e matemática lógica. Espera-se que o novo lançamento seja um modelo híbrido que combina tarefas de raciocínio e não raciocínio. O modelo visa capturar o mercado de desenvolvedores ao preencher uma lacuna existente que exige alta precisão e geração de código de contexto longo.

O Claude Opus 4.5 atualmente reivindica domínio no benchmark SWE, alcançando uma precisão de 80,9%. O V4 precisa de superar isto para derrubar o Claude Opus 4.5. Com base em sucessos anteriores, o modelo que se aproxima pode ultrapassar este limite e reivindicar domínio no benchmark.

DeepSeek é pioneira no mHC para treinar LLMs

O sucesso da DeepSeek deixou muitos em profunda descrença profissional. Como poderia uma empresa tão pequena alcançar tais marcos? O segredo pode estar profundamente enraizado no seu artigo de pesquisa publicado a 1 de janeiro. A empresa identificou um novo método de treino que permite aos desenvolvedores escalar facilmente modelos de linguagem grandes. Liang Wenfeng, fundador e CEO da DeepSeek, escreveu na pesquisa que a empresa está a usar Manifold-Constrained Hyper-Connections (mHC) para treinar os seus modelos de IA. 

O executivo propôs usar mHC para abordar os problemas encontrados quando os desenvolvedores treinam modelos de linguagem grandes. Segundo Wenfeng, o mHC é uma atualização das Hyper-Connections (HC), uma estrutura que outros desenvolvedores de IA usam para treinar os seus modelos de linguagem grandes. Ele explicou que o HC e outras arquiteturas de IA tradicionais forçam todos os dados através de um único canal estreito. Ao mesmo tempo, o mHC amplia esse caminho em múltiplos canais, facilitando a transferência de dados e informações sem causar colapso de treino. 

Lian Jye Su, analista principal da Omdia, elogiou o CEO Wenfeng por publicar a sua pesquisa. Su enfatizou que a decisão da DeepSeek de publicar os seus métodos de treino dita renovada confiança no setor de IA chinês. A DeepSeek dominou o mundo em desenvolvimento. A Microsoft publicou um relatório na quinta-feira, mostrando que a DeepSeek comanda 89% do mercado de IA da China e tem ganho impulso em países em desenvolvimento.

Quer o seu projeto perante as mentes mais brilhantes das criptomoedas? Destaque-o no nosso próximo relatório da indústria, onde os dados encontram o impacto.

Fonte: https://www.cryptopolitan.com/deepseek-v4-chatgpt-and-claude/

Oportunidade de mercado
Logo de Belong
Cotação Belong (LONG)
$0.0022
$0.0022$0.0022
+2.08%
USD
Gráfico de preço em tempo real de Belong (LONG)
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.