扫码打开虎嗅APP
本文来自微信公众号: APPSO ,作者:发现明日产品的,原文标题:《DeepSeek R1发布一年了,不卷功能、不融资、不着急,凭什么「硬控」硅谷》
一年前,我也是被这句话硬控的用户之一。
DeepSeek带着R1在一年前的今天(2025.1.20)横空出世,一出场就吸引了全球的目光。
那时候为了能顺畅用上DeepSeek,我翻遍了自部署教程,也下载过不少号称「XX-DeepSeek满血版」的各类应用。
一年后,说实话,我打开DeepSeek的频率少了很多。
豆包能搜索、能生图,千问接入了淘宝和高德,元宝有实时语音对话和微信公众号的内容生态;更不用说海外的ChatGPT、Gemini等SOTA模型产品。
当这些全能AI助手把功能列表越拉越长时,我也很现实地问自己:「有更方便的,为什么还要守着DeepSeek?」
于是,DeepSeek在我的手机里从第一屏掉到了第二屏,从每天必开变成了偶尔想起。
看一眼App Store的排行榜,这种「变心」又似乎不是我一个人的错觉。
免费应用下载榜的前三名,已经被国产互联网大厂的「御三家」包揽,而曾经霸榜的DeepSeek,已经悄悄来到了第七名。
在一众恨不得把全能、多模态、AI搜索写在脸上的竞品里,DeepSeek显得格格不入,51.7 MB的极简安装包,不追热点,不卷宣发,甚至连视觉推理和多模态功能都还没上。
但这正是最有意思的地方。表面上看,它似乎真的「掉队」了,但实际是DeepSeek相关的模型调用仍是多数平台的首选。
而当我试图总结DeepSeek过去这一年的动作,把视线从这个单一的下载榜单移开,去看全球的AI发展,了解为什么它如此地不慌不忙,以及即将发布的V4,又准备给这个行业带来什么新的震动;
我发现这个「第七名」对DeepSeek来说毫无含金量,它一直是那个让巨头们真正睡不着觉的「幽灵」。
掉队?DeepSeek有自己的节奏
当全球的AI巨头都在被资本裹挟着,通过商业化来换取利润时,DeepSeek活得像是一个唯一的自由球员。看看它的竞争对手们,无论是国内刚刚港股上市的智谱和MiniMax,还是国外疯狂卷投资的OpenAI和Anthropic。
为了维持昂贵的算力竞赛,就连马斯克都无法拒绝资本的诱惑,前几天刚刚才为xAI融了200亿美元。
但DeepSeek至今保持着「零外部融资」的纪录。

年度私募百强榜,按照公司平均收益排名,幻方量化位于第七名,百亿以上规模排名第二|图片来源:https://www.simuwang.com/news/285109.html
在这个所有人都急着变现、急着向投资人交作业的时代,DeepSeek之所以敢掉队,是因为它背后站着一台超级「印钞机」,幻方量化。
作为DeepSeek的母公司,这家量化基金在去年实现了超高的53%回报率,利润超过7亿美元(约合人民币50亿元)。
梁文锋直接用这笔老钱,来供养「DeepSeek AGI」的新梦。这种模式,也让DeepSeek极其奢侈地拥有了对金钱的掌控权。
没有资方的指手画脚。
没有大公司病,许多拿了巨额融资的实验室,陷入了纸面富贵的虚荣和内耗,就像最近频频爆出有员工离职的Thinking Machine Lab;还有小扎的Meta AI实验室各种绯闻。
只对技术负责,因为没有外部估值压力,DeepSeek不需要为了财报好看而急于推出全能App,也不需要为了迎合市场热点去卷多模态。它只需要对技术负责,而不是对财务报表负责。
App Store的下载量排名,对于一家需要向VC证明「日活增长」的创业公司来说是命门。但对于一家只对AI发展负责、不仅不缺钱还不想被钱通过KPI控制的实验室来说,这些有关市场的排名掉队,或许正是它得以保持专注、免受外界噪音干扰的最佳保护色。

更何况,根据QuestMobile的报告,DeepSeek的影响力完全没有「掉队」
改变生活,也影响了世界AI军备竞赛
即便DeepSeek可能根本不在意,我们是否已经选择了其他更好用的AI应用,但它过去这一年带来的影响,可以说各行各业都没有错过。
硅谷的「DeepSeek震撼」
最开始的DeepSeek,不仅仅是一个好用的工具,更像是一个风向标,用一种极其高效且低成本的方式,打碎了硅谷巨头们精心编织的高门槛神话。

图片来源:https://openaiglobalaffairs.substack.com/p/deepseek-at-1
如果说一年前的AI竞赛是比谁的显卡多、谁的模型参数大,那么DeepSeek的出现,硬生生把这场竞赛的规则改写了。在OpenAI及其内部团队(The Prompt)的最近发布总结回顾中,他们不得不承认,
DeepSeek R1的发布在当时给AI竞赛带来了「极大的震动(jolted)」,甚至被形容为一场「地震级的冲击(seismic shock)」。
DeepSeek一直在用实际行动证明,顶尖的模型能力,不需要天价的算力堆砌。
根据ICIS情报服务公司最近的分析,DeepSeek的崛起彻底打破了算力决定论。它向世界展示了,即使在芯片受到限制、成本极其有限的情况下,依然可以训练出性能比肩美国顶尖系统的模型。
AI竞赛正在演变成一场漫长的马拉松|图片来源:https://www.icis.com/asian-chemical-connections/2026/01/a-year-on-from-deepseek-us-versus-china-in-the-ai-race/
这直接导致了全球AI竞赛从「造出最聪明的模型」,转向了「谁能把模型做得更高效、更便宜、更易于部署」。
微软报告里的「另类」增长
当硅谷巨头们还在争夺付费订阅用户时,DeepSeek也开始在被巨头遗忘的地方扎根。
在微软上周发布的《2025全球AI普及报告》中,DeepSeek的崛起被列为2025年「最意想不到的发展之一」。报告揭示了一个有意思的数据:
非洲使用率高:因为DeepSeek的免费策略和开源属性,消除了昂贵的订阅费和信用卡门槛。它在非洲的使用率是其他地区的2到4倍。
占领受限市场:在那些美国科技巨头难以触达或服务受限的地区,DeepSeek几乎成了唯一的选择。数据显示,它国内的市场份额高达89%,在白俄罗斯达到56%,在古巴也有49%。
微软在报告里也不得不承认,DeepSeek的成功更加确定了,AI的普及不仅取决于模型有多强,更取决于谁能用得起。

全球南方地区AI普及的程度还有很大的提升空间|https://www.microsoft.com/en-us/corporate-responsibility/topics/ai-economy-institute/reports/global-ai-adoption-2025/
下一个十亿级AI用户,可能不会来自传统的科技中心,而是来自DeepSeek覆盖的这些地区。
欧洲:我们也要做DeepSeek
不仅是硅谷,DeepSeek的影响跨越了整个地球,欧洲也不例外。
欧洲一直是被动地使用美国的AI,虽然也有自己的模型Mistral,但一直不温不火。DeepSeek的成功让欧洲人看到了一条新路,既然一家资源有限的中国实验室能做到,欧洲为什么不行?
据连线杂志最近的一篇报道,欧洲科技界正在掀起一场「打造欧洲版DeepSeek」的竞赛。不少来自欧洲的开发者,开始打造开源大模型,其中一个叫SOOFI的欧洲开源项目更是明确表示,「我们将成为欧洲的DeepSeek。」
DeepSeek过去这一年的影响,也加剧了欧洲对于「AI主权」的焦虑。他们开始意识到,过度依赖美国的闭源模型是一种风险,而DeepSeek这种高效、开源的模式,正是他们需要的参照。
关于V4,有这些信息值得关注
影响还在继续,如果说一年前的R1是DeepSeek给AI行业的一次示范,那么即将到来的V4,会不会又是一次反常识的操作。
根据前段时间零零散散的爆料,和最近公开的技术论文,我们梳理了关于V4最值得关注的三个核心信号。
1.复刻「春节突袭」
DeepSeek似乎偏爱在农历新年这个时间节点搞事情。有消息透露,DeepSeek计划在2月中旬(农历新年前后)发布新一代旗舰模型V4。去年的R1也是在这个时间节点发布,随后在春节假期引爆了全球关注。
不得不说,这种时机选择避开了欧美科技圈的常规发布拥堵期,还充分用到了长假期间用户的尝鲜心理,确实能为病毒式的传播埋下种子。
在通用对话已经趋于同质化的今天,V4选择了一个更硬核的突破口:生产力级别的代码能力。
据接近DeepSeek的人士透露,V4并没有止步于V3.2在基准测试上的优异表现,而是在内部测试中,让其代码生成和处理能力,直接超越了Anthropic的Claude和OpenAI的GPT系列。

更关键的是,V4试图解决当前编程AI的一大痛点:「超长代码提示词」的处理。这意味着V4不再只是一个帮我们写两行脚本的助手,它试图具备理解复杂软件项目、处理大规模代码库的能力。
为了实现这一点,V4也改进了训练流程,确保模型在处理海量数据模式时,不会随着训练深入而出现「退化」。
3.关键技术:Engram
比起V4模型本身,更值得关注的是DeepSeek在上周联合北京大学团队发表的一篇重磅论文。
这篇论文揭示了DeepSeek能够在算力受限下持续突围的真正底牌,是一项名为「Engram(印迹/条件记忆)」的新技术。

HBM(高带宽内存)是全球AI算力竞争的关键领域之一,当对手都在疯狂囤积H100显卡来堆内存时,DeepSeek再次走了一条不寻常的路。
计算与记忆解耦:现有的模型为了获取基本信息,往往需要消耗大量昂贵的计算力来进行检索。Engram技术能让模型高效地查阅这些信息,而不需要每次都浪费算力去计算。
省下来的宝贵算力,被专门用于处理更复杂的高层推理。
研究人员称,这种技术可以绕过显存限制,支持模型进行激进的参数扩张,模型的参数规模可能进一步扩大。
在显卡资源日趋紧张的背景下,DeepSeek的这篇论文好像也在说,他们从未把希望完全寄托在硬件的堆砌上。
DeepSeek这一年的进化,本质上是在用反常识的方式,解决AI行业的常识性难题。
它一年进账50亿,能够用来训练出上千个DeepSeek R1,却没有一味卷算力,卷显卡,也没有传出要上市,要融资的消息,反而开始去研究怎么用便宜内存替代昂贵的HBM。
过去一年,它几乎是完全放弃了全能模型的流量,在所有模型厂商,每月一大更,每周一小更的背景下,专注推理模型,一次又一次完善之前的推理模型论文。
这些选择,在短期看都是「错的」。不融资,怎么跟OpenAI拼资源?不做多模态的全能应用,生图生视频,怎么留住用户?规模定律还没失效,不堆算力,怎么做出最强模型?
但如果把时间线拉长,这些「错的」选择,可能正在为DeepSeek的V4和R2铺路。
这就是DeepSeek的底色,在所有人都在卷资源的时候,它在卷效率;在所有人都在追逐商业化的时候,它在追逐技术极限。V4会不会继续这条路?还是会向「常识」妥协?答案或许就在接下来的几周。
但至少现在我们知道,在AI这个行业里,反常识,有时候才是最大的常识。
下一次,还是DeepSeek时刻。