扫码打开虎嗅APP
本文来自微信公众号: IT时报 ,作者:郝俊慧
1月26日,当三星电子、SK海力士相继宣布2026年第一季度的NAND Flash供应合约价直接翻倍时,全球科技行业意识到,由AI驱动的2026年第一波“成本暴击”已经到来。
最近,阿里云资深副总裁、数据库产品事业部负责人李飞飞在PolarDB开发者大会上便曾给出一个更为激进的判断:“内存接下来可能还要涨两到三倍。”
“大模型正在吞噬一切数据”,李飞飞坦言,未来一定是Token的世界,而内存墙这个“幽灵”又回来了。
涨价周期远超预期
这轮内存涨价的幅度和持续时间,远超市场预期。
随着DeepSeek-R1等推理模型和Agent(智能体)应用的爆发,AI对“热数据”的依赖达到前所未有的高度。大模型不再只是离线训练的产物,它需要实时“记忆”海量的上下文信息。
“大模型不保存事实,只保存统计规律,而数据库需要保存事实。”李飞飞指出,像“今天大会来了多少人”这样的实时热数据,必须在数据库中供模型实时调用,否则AI就会产生幻觉。这意味着,每一路AI推理的背后,都对应着巨大的存储消耗。
然而,供给端的瓶颈却在收紧。据外媒报道,三星、SK海力士和美光这三大巨头控制了全球近95%的DRAM(动态随机存取存储器)产量,目前正将产能全面转向高利润的HBM(高带宽存储器),以满足OpenAI等巨头的超级算力项目需求。SK海力士甚至表示,其HBM产能已在2026年售罄。
这场“豪门盛宴”直接挤压了传统DRAM的产能,导致普通企业面临严重的供应短缺。
在1月27日举行的WPS AI协同办公上海峰会上,中金公司研究部执行总经理于钟海也指出,2026年将是“持续学习年”,模型需要不断更新记忆。
模型“记忆力”的增强意味着将进一步推高对数据存储和处理的硬件要求。更关键的是,存储厂商对扩产极为谨慎,要知道,2023年之前的下行周期中存储价格持续下跌,三星曾创下14年来利润最低点。一份SK海力士内部文件显示,新增产能要到2028年才可能释放。
“硬件通胀”重构企业AI战略
面对硬件成本的指数级上升,企业的AI战略正在经历重构。
“有些企业在2023、2024年甚至有千万预算,在本地部署大模型,事后来看这些投资可能都没有产生正面收益。”金山办公助理总裁朱熠锷在接受采访时表示。
对于大多数企业而言,自建模型不仅面临着硬件成本的“通胀”,还面临着技术的快速贬值。
于钟海列举了一组数据:即便是像GPT-4o这样的一代“神模”,在发布12个月后,用户的留存率也仅剩15%左右。如果企业花费巨资购买GPU和内存去训练一个私有模型,很可能“模型刚训好,基座模型已经升级了”。
“行业大模型在多数B端客户场景里,是一个伪命题。”朱熠锷直言。在硬件成本高企的当下,企业如果继续试图通过堆算力、堆内存来“卷模型”,无异于在通胀周期里持有贬值资产。
对于AI的应用者而言,数据正在成为企业唯一可持续的竞争优势。
“模型不是万能药,数据才是护城河。”朱熠锷强调,既然通用大模型的能力已经足够强大且廉价,企业就应该停止重复“造轮子”,转而将昂贵的存储资源用于处理真正核心的“私域知识”。
以医药行业为例,一份几百页的临床研究报告,过去需要博士团队耗时一个月处理,现在通过精细化的数据治理和Agent协作,一周内即可完成,准确率高达90%。
这种通过“工程化”手段提升数据密度的做法,实际上是在变相抵抗硬件成本的上涨——用更少的Token和内存,产出更高价值的业务结果。
中国企业的云原生将加速
当然,对于通用大模型厂商而言,内存比金子还贵,是挑战也是机遇,中国企业对云原生的接受正在提速。
面对单体硬件成本的暴涨,通过构建超大规模的远程内存池,实现多租户共享复用,成为对抗涨价的有效技术路径。
李飞飞透露,通过瑶池数据库产品调用百炼等服务的Token消耗量,短短几个月内增长超过100倍,已成为阿里云内部最大的调用者。
“本轮存储的超级周期将非常长。”李飞飞认为,与以往纯粹由市场需求推动的周期性变化不同,此轮上涨的逻辑是需求爆发式增长,产能根本无法满足市场需求,而存储的涨价会带动整个链条价格上涨,包括智算服务器、通算服务器、内存GPU……直至AI成为一个成熟产业,市场才会再度进入正常的周期性涨跌。
随着自购资源成本的增加,云服务厂商和AI平台厂商的价值将进一步凸显。
在这个新周期里,企业的竞争力将不再取决于谁买了更多的算力和存储,而在于谁能通过更精细的数据治理和更先进的云架构,让客户能更好、更便宜地使用AI。