扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2025-03-26 11:45

DeepSeek“小版本更新”背后,V3和R1正融合成一个模型

本文来自微信公众号:硅星人Pro (ID:gh_c0bb185caa8d),作者:summer

文章摘要
DeepSeek发布V3小版本更新"DeepSeek-V3-0324",在推理能力、前端开发、中文写作与搜索能力实现突破。该版本通过改进后训练方法融合了R1模型的强化学习技术,保持开源策略并降低用户升级成本,标志着V系列与R系列模型融合战略的推进,为后续重大升级奠定基础。

• 🚀推理能力突破:数学与代码评测成绩超越GPT-4.5和Claude-Sonnet-3.7,支持复杂任务分层处理

• 💻前端开发飞跃:生成800行无错误代码,实现接近顶级模型的赛博朋克风格交互界面设计

• 📝中文写作增强:中长篇文本结构更完整,逻辑严密性提升,满足短剧/小说创作需求

• 🔓开源友好升级:仅需更新少量文件即可私有化部署,保持MIT许可证与128K上下文长度

• 🔄模型融合战略:通过RL技术将R1推理能力注入V3,验证纯技术路线对抗闭源混合模型

• 🏷️技术命名克制:重大能力提升仍定位小版本迭代,避免行业常见"版本号通货膨胀"现象

在R2和V4到来之前,DeepSeek先让我们看到了“V3 Plus”。


3月24日,DeepSeek一声不响地在Huggingface上发布了V3的“小版本”迭代“DeepSeek-V3-0324”。开发者社区再次一片尝鲜与夸赞。


之后3月25日晚,官方发布了该版本的官方报告。在DeepSeek的报告里,给出了四个官方亮点指引,分别是推理能力、前端开发能力、中文写作能力、中文搜索能力的强化。


乍看起来,这些能力提升都聚焦在用户常见任务场景之上。这也的确是一次非常注重实用性的升级,虽名为“小版本”,V3-0324却在多个关键能力上实现了显著突破,尤其是代码生成能力的提升令人印象深刻。用户只需关闭深度思考模式,就能体验这一新版本,而API接口和使用方式保持不变。


而仔细观察这几个提升的领域,会发现一个有意思的点:DeepSeek给V3做的提升,全都落在R1的优势能力范围内了啊。


据报告显示,推理能力的提升主要体现在新版V3模型的百科知识(MMLU-Pro,GPQA)、数学(MATH-500,AIME 2024)和代码任务(LiveCodeBench)表现均有提高,特别是在数学、代码类相关评测集上取得了超过GPT-4.5、Claude-Sonnet-3.7的得分成绩。



过去,在DeepSeek的两个模型中,R1是推理模型,而V3则更适合日常对话。如今V3系列也有了推理能力的强力升级,用户可以更好地根据任务难度选择合适的模型:复杂问题用R1,日常对话用新版V3。这种差异化策略让算力资源与任务需求更匹配,避免了不必要的计算浪费。


在推理能力之上,几项任务场景中,最引人注目的是模型的代码稳定性和准确性。继Claude-Sonnet-3.7在前端开发能力上火爆出圈之后,大模型在这一场景的实用性被额外关注。在V3新版本技术报告出现之前,不少网友们就迫不及待地测出了V3-0324在前端开发场景下的能力飞跃。


有开发者报告生成800行代码,字符蹦到“冒火星”,竟然无一错误。对开发者而言,这种体验在遍地都是爱报错的AI编程工具之下,显得尤为突出。



还有用户进一步测试表明,尽管还有差距,但DeepSeek-V3-0324在前端视觉设计上已经接近了Claude这样的顶级模型。


用户只需提供简单提示,就能生成时尚的数字营销页面,布局合理,视觉效果精美。这种实用性的提升对网页设计师和前端开发者尤为重要,大大缩短了从创意到实现的时间。


与社区测试相呼应,DeepSeek官方在技术报告中也展示了模型的前端代码能力。报告中展示了一个p5.js小球物理运动程序,包含可调整的物理参数和赛博朋克风格界面,不仅功能完整,还具有高度的美观性和交互性。



更重要的是,这个不比Claude差的新版本,可以免费使用,据网友测算,付费API的价格更是便宜了15倍。



除了代码能力,DeepSeek R1的写作能力也一直被津津乐道。其细腻的文风虽然有时会陷入极繁主义的浮夸,但情节连贯性和特定风格下的表达能力很强,有短剧和小说从业者都曾对硅星人提到,已经开始应用DeepSeek创作。


此次,新版本V3在中文能力也有明显增强,特别是中长篇文本创作上质量更高,结构更完整,逻辑更严密,实用性也大大增强。



另外,在联网搜索场景下,报告生成能力也有显著提升。模型能够从网络信息中提取关键内容,生成详实准确的报告,并以清晰美观的排版呈现。


在开源方面,DeepSeek也继续保持了其一贯的透明度和友好性。作为小版本更新,私有化部署只需要更新checkpoint和tokenizer_config.json等少量文件。这意味着现有用户升级成本极低,几乎可以无缝迁移。据报告显示,该模型参数约660B,略低于原先V3的671B,开源版本上下文长度为128K(网页端、App和API提供64K上下文),依然采用MIT许可证,这使得开发者可以在各种场景下自由使用。


这些能力提升其实幅度不小,但DeepSeek没有把它称为V3.5、V3.7,而只是将它定义为一次V3小版本更新。


在行业版本迭代泛滥、概念炒作盛行的当下,通过低调务实的姿态赢得了更多开发者社区的尊重。虽然能力有显著提升,但由于没有大的技术路线突破,仍将其定位为小版本迭代,那么当DeepSeek真正发布R2时,那将是一次名副其实的重大升级,而非行业常见的“通货膨胀式”命名。



这种对技术命名的诚实态度,也是外界格外期待R2的重要理由。


而这次更新最重要的地方还在于,DeepSeek的V3和R1出现后,如Anthropic等对手在尝试用新方法超车,核心在于把推理模型和大语言模型融合,无论是产品上通过AI的自动调配来融合到一起,还是从模型层面就“合二为一”。


现在看来,DeepSeek此次更新也很直白地展示了自己接下来的路线,也是把V系列和R系列融合成一个新模型。


官方报告中明确指出,此次更新与之前的DeepSeek-V3使用同样的base模型,仅改进了后训练方法,并借鉴了DeepSeek-R1模型训练过程中的强化学习技术。


这是纯RL路线的再一次的验证和公示,在对手们继续闭源并使用“唯一混合模型”这样的概念来吸引人的时候,它继续通过开源为行业提供公开的高效迭代思路。DeepSeek这开源的仗还会继续打下去,好戏还在后面。


本文来自微信公众号:硅星人Pro (ID:gh_c0bb185caa8d),作者:summer

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: