扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
2026-01-20 15:15

DeepSeek R1发布一年了,不卷功能、不融资、不着急,凭什么“硬控”硅谷

本文来自微信公众号: APPSO ,作者:发现明日产品的,原文标题:《DeepSeek R1发布一年了,不卷功能、不融资、不着急,凭什么「硬控」硅谷》


一年前,我也是被这句话硬控的用户之一。


DeepSeek带着R1在一年前的今天(2025.1.20)横空出世,一出场就吸引了全球的目光。


那时候为了能顺畅用上DeepSeek,我翻遍了自部署教程,也下载过不少号称「XX-DeepSeek满血版」的各类应用。


一年后,说实话,我打开DeepSeek的频率少了很多。


豆包能搜索、能生图,千问接入了淘宝和高德,元宝有实时语音对话和微信公众号的内容生态;更不用说海外的ChatGPT、Gemini等SOTA模型产品。


当这些全能AI助手把功能列表越拉越长时,我也很现实地问自己:「有更方便的,为什么还要守着DeepSeek?」


于是,DeepSeek在我的手机里从第一屏掉到了第二屏,从每天必开变成了偶尔想起。


看一眼App Store的排行榜,这种「变心」又似乎不是我一个人的错觉。


免费应用下载榜的前三名,已经被国产互联网大厂的「御三家」包揽,而曾经霸榜的DeepSeek,已经悄悄来到了第七名。


在一众恨不得把全能、多模态、AI搜索写在脸上的竞品里,DeepSeek显得格格不入,51.7 MB的极简安装包,不追热点,不卷宣发,甚至连视觉推理和多模态功能都还没上。


但这正是最有意思的地方。表面上看,它似乎真的「掉队」了,但实际是DeepSeek相关的模型调用仍是多数平台的首选。


而当我试图总结DeepSeek过去这一年的动作,把视线从这个单一的下载榜单移开,去看全球的AI发展,了解为什么它如此地不慌不忙,以及即将发布的V4,又准备给这个行业带来什么新的震动;


我发现这个「第七名」对DeepSeek来说毫无含金量,它一直是那个让巨头们真正睡不着觉的「幽灵」。


掉队?DeepSeek有自己的节奏


当全球的AI巨头都在被资本裹挟着,通过商业化来换取利润时,DeepSeek活得像是一个唯一的自由球员。看看它的竞争对手们,无论是国内刚刚港股上市的智谱和MiniMax,还是国外疯狂卷投资的OpenAI和Anthropic。


为了维持昂贵的算力竞赛,就连马斯克都无法拒绝资本的诱惑,前几天刚刚才为xAI融了200亿美元。


但DeepSeek至今保持着「零外部融资」的纪录。



年度私募百强榜,按照公司平均收益排名,幻方量化位于第七名,百亿以上规模排名第二|图片来源:https://www.simuwang.com/news/285109.html


在这个所有人都急着变现、急着向投资人交作业的时代,DeepSeek之所以敢掉队,是因为它背后站着一台超级「印钞机」,幻方量化。


作为DeepSeek的母公司,这家量化基金在去年实现了超高的53%回报率,利润超过7亿美元(约合人民币50亿元)。


梁文锋直接用这笔老钱,来供养「DeepSeek AGI」的新梦。这种模式,也让DeepSeek极其奢侈地拥有了对金钱的掌控权。


没有资方的指手画脚。


没有大公司病,许多拿了巨额融资的实验室,陷入了纸面富贵的虚荣和内耗,就像最近频频爆出有员工离职的Thinking Machine Lab;还有小扎的Meta AI实验室各种绯闻。


只对技术负责,因为没有外部估值压力,DeepSeek不需要为了财报好看而急于推出全能App,也不需要为了迎合市场热点去卷多模态。它只需要对技术负责,而不是对财务报表负责。


App Store的下载量排名,对于一家需要向VC证明「日活增长」的创业公司来说是命门。但对于一家只对AI发展负责、不仅不缺钱还不想被钱通过KPI控制的实验室来说,这些有关市场的排名掉队,或许正是它得以保持专注、免受外界噪音干扰的最佳保护色。



更何况,根据QuestMobile的报告,DeepSeek的影响力完全没有「掉队」


改变生活,也影响了世界AI军备竞赛


即便DeepSeek可能根本不在意,我们是否已经选择了其他更好用的AI应用,但它过去这一年带来的影响,可以说各行各业都没有错过。


硅谷的「DeepSeek震撼」


最开始的DeepSeek,不仅仅是一个好用的工具,更像是一个风向标,用一种极其高效且低成本的方式,打碎了硅谷巨头们精心编织的高门槛神话。



图片来源:https://openaiglobalaffairs.substack.com/p/deepseek-at-1


如果说一年前的AI竞赛是比谁的显卡多、谁的模型参数大,那么DeepSeek的出现,硬生生把这场竞赛的规则改写了。在OpenAI及其内部团队(The Prompt)的最近发布总结回顾中,他们不得不承认,


DeepSeek R1的发布在当时给AI竞赛带来了「极大的震动(jolted)」,甚至被形容为一场「地震级的冲击(seismic shock)」。


DeepSeek一直在用实际行动证明,顶尖的模型能力,不需要天价的算力堆砌。


根据ICIS情报服务公司最近的分析,DeepSeek的崛起彻底打破了算力决定论。它向世界展示了,即使在芯片受到限制、成本极其有限的情况下,依然可以训练出性能比肩美国顶尖系统的模型。


AI竞赛正在演变成一场漫长的马拉松|图片来源:https://www.icis.com/asian-chemical-connections/2026/01/a-year-on-from-deepseek-us-versus-china-in-the-ai-race/


这直接导致了全球AI竞赛从「造出最聪明的模型」,转向了「谁能把模型做得更高效、更便宜、更易于部署」。


微软报告里的「另类」增长


当硅谷巨头们还在争夺付费订阅用户时,DeepSeek也开始在被巨头遗忘的地方扎根。


在微软上周发布的《2025全球AI普及报告》中,DeepSeek的崛起被列为2025年「最意想不到的发展之一」。报告揭示了一个有意思的数据:


非洲使用率高:因为DeepSeek的免费策略和开源属性,消除了昂贵的订阅费和信用卡门槛。它在非洲的使用率是其他地区的2到4倍。


占领受限市场:在那些美国科技巨头难以触达或服务受限的地区,DeepSeek几乎成了唯一的选择。数据显示,它国内的市场份额高达89%,在白俄罗斯达到56%,在古巴也有49%。


微软在报告里也不得不承认,DeepSeek的成功更加确定了,AI的普及不仅取决于模型有多强,更取决于谁能用得起。



全球南方地区AI普及的程度还有很大的提升空间|https://www.microsoft.com/en-us/corporate-responsibility/topics/ai-economy-institute/reports/global-ai-adoption-2025/


下一个十亿级AI用户,可能不会来自传统的科技中心,而是来自DeepSeek覆盖的这些地区。


欧洲:我们也要做DeepSeek


不仅是硅谷,DeepSeek的影响跨越了整个地球,欧洲也不例外。


欧洲一直是被动地使用美国的AI,虽然也有自己的模型Mistral,但一直不温不火。DeepSeek的成功让欧洲人看到了一条新路,既然一家资源有限的中国实验室能做到,欧洲为什么不行?


据连线杂志最近的一篇报道,欧洲科技界正在掀起一场「打造欧洲版DeepSeek」的竞赛。不少来自欧洲的开发者,开始打造开源大模型,其中一个叫SOOFI的欧洲开源项目更是明确表示,「我们将成为欧洲的DeepSeek。」


DeepSeek过去这一年的影响,也加剧了欧洲对于「AI主权」的焦虑。他们开始意识到,过度依赖美国的闭源模型是一种风险,而DeepSeek这种高效、开源的模式,正是他们需要的参照。


关于V4,有这些信息值得关注


影响还在继续,如果说一年前的R1是DeepSeek给AI行业的一次示范,那么即将到来的V4,会不会又是一次反常识的操作。


根据前段时间零零散散的爆料,和最近公开的技术论文,我们梳理了关于V4最值得关注的三个核心信号。


1.复刻「春节突袭」


DeepSeek似乎偏爱在农历新年这个时间节点搞事情。有消息透露,DeepSeek计划在2月中旬(农历新年前后)发布新一代旗舰模型V4。去年的R1也是在这个时间节点发布,随后在春节假期引爆了全球关注。


不得不说,这种时机选择避开了欧美科技圈的常规发布拥堵期,还充分用到了长假期间用户的尝鲜心理,确实能为病毒式的传播埋下种子。


在通用对话已经趋于同质化的今天,V4选择了一个更硬核的突破口:生产力级别的代码能力。


据接近DeepSeek的人士透露,V4并没有止步于V3.2在基准测试上的优异表现,而是在内部测试中,让其代码生成和处理能力,直接超越了Anthropic的Claude和OpenAI的GPT系列。



更关键的是,V4试图解决当前编程AI的一大痛点:「超长代码提示词」的处理。这意味着V4不再只是一个帮我们写两行脚本的助手,它试图具备理解复杂软件项目、处理大规模代码库的能力。


为了实现这一点,V4也改进了训练流程,确保模型在处理海量数据模式时,不会随着训练深入而出现「退化」。


3.关键技术:Engram


比起V4模型本身,更值得关注的是DeepSeek在上周联合北京大学团队发表的一篇重磅论文。


这篇论文揭示了DeepSeek能够在算力受限下持续突围的真正底牌,是一项名为「Engram(印迹/条件记忆)」的新技术。



HBM(高带宽内存)是全球AI算力竞争的关键领域之一,当对手都在疯狂囤积H100显卡来堆内存时,DeepSeek再次走了一条不寻常的路。


计算与记忆解耦:现有的模型为了获取基本信息,往往需要消耗大量昂贵的计算力来进行检索。Engram技术能让模型高效地查阅这些信息,而不需要每次都浪费算力去计算。


省下来的宝贵算力,被专门用于处理更复杂的高层推理。


研究人员称,这种技术可以绕过显存限制,支持模型进行激进的参数扩张,模型的参数规模可能进一步扩大。


在显卡资源日趋紧张的背景下,DeepSeek的这篇论文好像也在说,他们从未把希望完全寄托在硬件的堆砌上。


DeepSeek这一年的进化,本质上是在用反常识的方式,解决AI行业的常识性难题。


它一年进账50亿,能够用来训练出上千个DeepSeek R1,却没有一味卷算力,卷显卡,也没有传出要上市,要融资的消息,反而开始去研究怎么用便宜内存替代昂贵的HBM。


过去一年,它几乎是完全放弃了全能模型的流量,在所有模型厂商,每月一大更,每周一小更的背景下,专注推理模型,一次又一次完善之前的推理模型论文。


这些选择,在短期看都是「错的」。不融资,怎么跟OpenAI拼资源?不做多模态的全能应用,生图生视频,怎么留住用户?规模定律还没失效,不堆算力,怎么做出最强模型?


但如果把时间线拉长,这些「错的」选择,可能正在为DeepSeek的V4和R2铺路。


这就是DeepSeek的底色,在所有人都在卷资源的时候,它在卷效率;在所有人都在追逐商业化的时候,它在追逐技术极限。V4会不会继续这条路?还是会向「常识」妥协?答案或许就在接下来的几周。


但至少现在我们知道,在AI这个行业里,反常识,有时候才是最大的常识。


下一次,还是DeepSeek时刻。

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: