扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
商汤科技通过原生多模态架构NEO和SenseNova-SI模型实现空间智能突破,提出AI需从语言模型转向物理世界交互,并强调技术落地需跨越工业红线。 --- ## 1. 空间智能技术超越与范式转变 - 商汤SenseNova-SI在空间智能基准测试中全面超越李飞飞团队的Cambrian-S,成为开源/闭源模型中的SOTA。 - 林达华指出AI行业正面临范式转变:Scaling Law边际效益递减,需从参数竞赛回归底层科研创新。 ## 2. 原生多模态架构的革新 - NEO架构突破传统"视觉编码器+语言模型"拼接模式,底层Transformer Block同步处理视觉/语言信号,数据效率提升10倍。 - 通过跨视角预测训练(如物体正面预测侧面),模型真正理解三维空间,解决现有模型"数不清手指"等空间认知缺陷。 ## 3. 技术落地的工业红线 - 商汤定义"工业红线":技术成本需低于创造价值,如视频生成领域将扩散模型推理步数从100步压缩至4步,实现64倍速度提升。 - SekoTalk数字人产品可在消费级显卡上实时生成视频,突破商业化落地瓶颈。 ## 4. AI未来发展方向建议 - 林达华呼吁关注具身智能、AI for Science等非语言赛道,中国因完整工业体系在物理世界交互AI领域具先天优势。 - 强调"从Words到Worlds"的迁徙中,需原始创新与落地价值双轮驱动。
2025-12-17 17:19

大模型的进化方向:Words to Worlds

本文来自微信公众号: 量子位 ,作者:关注前沿科技,原文标题:《大模型的进化方向:Words to Worlds | 对话商汤林达华》


李飞飞团队最新的空间智能模型Cambrian-S,首次被一个国产开源AI超越了。



从这张展示空间感知能力的雷达图中,一个名为SenseNova-SI的模型,它在多个维度上的能力评分均已将Cambrian-S给包围。


而且从具体的数据来看,不论是开源或闭源,不论是2B或8B大小,SenseNova-SI在各大空间智能基准测试中都拿下了SOTA的成绩:



而这个SenseNova-SI背后的操刀者,正是商汤科技


在量子位与商汤科技联合创始人、首席科学家林达华深入交流过程中,他并没有掩饰对这一进展的肯定:


在空间智能这个赛道上,基于长期的视觉积累,我们已经走到了世界前列。


但与此同时,林达华也是随即话锋一转,表示他并不愿意把这个故事简单地讲成“赢了李飞飞”或者“赢了OpenAI”。


更深层的,林达华更像是在释放一种信号,一个关于AI技术范式正在发生剧烈震荡的信号——


单纯依赖参数规模的AI范式逐渐面临瓶颈。我们站在了新的十字路口。


因为在Scaling Law的边际效应开始递减、很多人还在内卷大语言模型时,林达华和他的团队选择的却是一条很少有人走的路:Back to research(回归实验室)。


具体而言,是从最底层开始死磕原生多模态和空间智能,以此来完成一场从Words(语言)到Worlds(世界)的迁徙


而在林达华看来,在这场迁徙中,中国科技公司已经抢到了一张船票。


我们该回归实验室了


回望过去三年,从2022年11月ChatGPT横空出世,到GPT-4的震撼登场,AI行业经历了一场狂飙式的野蛮生长。


那是一个把Scaling Law奉为圭臬的时代,只要算力足够大、GPU足够多、数据堆得足够高,模型的能力似乎就能无限增长。


但到了2024年下半年,风向变了。


人们发现,虽然榜单上的分数还在涨,从GPT-4到GPT-5.2,再到Gemini的各种升级版,分数的跃迁越来越快,但带给人们的惊艳感却在边际递减。


林达华一针见血地指出:


原来的旧路径,也就是单纯依靠Scale的主流范式,虽然把模型推到了一个很高的高度,但也逐渐触碰到了天花板。


分数提升越来越快,但模型对物理世界的解释力、对复杂逻辑的泛化能力,并没有实现质的飞跃。


与此同时,OpenAI前首席科学家Ilya Sutskever的一声疾呼“Back to Research”,在硅谷和全球AI圈里引发了不小的震动。


这与林达华的思考不谋而合:


我们之前的路是大力出奇迹,现在的路,必须是回归科研的本质。


为何会如此?简单来说,因为纯语言模型的红利快吃完了。


目前的顶尖大模型,在数学、编程上已经接近奥赛金牌水平,但在理解物理世界、处理三维空间关系上,可能连一个几岁的小朋友都不如。


未来的AGI,绝不会只是一个陪你聊天的Chatbot,也不应仅仅活在文本的逻辑里。它必须是一个能够理解物理世界、具有多感官能力的世界模型。


林达华强调说:


人类的智能不只有语言。


人类与世界的交互是多模态的——我们用眼睛看,用耳朵听,用手去触摸。AI的未来,在于从读万卷书(语言模型)进化到行万里路(空间与世界交互)


在这个新旧交替的时间节点,商汤选择不再盲目跟随大语言模型的参数竞赛,而是掉转船头,向着原生多模态这快更难啃的方向进发。


现在的模型连手指都数不清


现在的多模态大模型,大多都是有局限性的。


对于这个观点,林达华给出了一个非常直观且略带幽默的案例。


哪怕是强如Grok或者GPT-4的早期版本,当你丢给它一张人手的照片,问它有几根手指时,它经常会自信地回答“5根”。


哪怕图片里的人手因为角度或畸变显示出6根或4根,AI的答案依旧是如此。


再比如,给模型看一张简单的三维积木图,问它“从上往下看是什么样子”,大多数模型都会选错。


它们明明看到了图片,为什么还会胡说八道呢?


因为它并没有真正在看。


林达华打了一个极其生动的比方:


这就好比一个盲人,在黑暗中闭眼学习了十年。他读了万卷书,大脑极其发达,逻辑思维严密。突然有一天,你让他睁开眼看世界。


他的第一反应是什么?是他会拼命地试图用他过去十年在书本里学到的语义概念,去硬套眼前看到的东西。


在传统的多模态架构(拼接式架构)中,通常是一个视觉编码器(Vision Encoder)加上一个大语言模型。


视觉编码器把图片翻译成语言模型能听懂的Token,然后扔给大语言模型去推理。


在这个过程中,大语言模型依然是那个“闭眼学习了十年”的大脑。它看到“手”这个图像Token,大脑里立刻调出的先验知识是“手有5根手指”,会直接覆盖掉眼睛看到的真实像素细节。


林达华分析道:


它不是真的理解了三维空间关系,它只是在靠概率猜词。



这种拼接式的路线,虽然能快速出成果,但缺陷是致命的:


视觉信号在进入大脑的那一刻,就被降维、被阉割了。大量的空间细节、三维结构、物理规律,在转化为语言Token的过程中流失殆尽。


这就是为什么现在的模型数学能拿金牌,却连手指都数不清、连积木都搭不明白的原因了。


要解决这个问题,修修补补似乎已经是无济于事。必须从底层架构上进行一场彻底的革新。


商汤原生多模态的解法


这场革新的产物,就是商汤刚刚开源的NEO架构,以及基于此架构的SenseNova-SI模型。


在深入了解这个架构之前,我们需要先理解什么是原生多模态。


林达华的解释是这样的:


模式上不再是“视觉眼睛+语言大脑”的拼接。在NEO架构里,从模型最底层的Transformer Block开始,每一个细胞都能同时处理视觉和语言信号。


这听起来很抽象,但在技术实现上却极其硬核。


在NEO架构中,视觉Token和文本Token不再是“先后进入”或“翻译关系”,而是“一块进入模型的每一层。


商汤设计了专门的混合注意力机制(Mixed Attention),让模型在进行每一次推理计算时,既能参考文本的上下文,又能实时“回头看”图像的原始特征。



为了让模型真正理解空间,林达华团队还干了一件反直觉的事——


他们不再只用预测下一个词(Next Token Prediction)来训练模型,而是引入了跨视角预测


简单来说,就是给模型看一个物体的正面,让它去预测这个物体侧面、背面长什么样。


林达华表示:


这就像教小孩子搭积木、看世界一样,你在脑海里构建三维模型的过程,就是空间智能诞生的过程。


这种原生架构带来的效果是惊人的——


数据效率提升了10倍。


例如SenseNova-SI仅用了同类模型10%的训练数据,就达到了SOTA水平。而且,它不再是靠死记硬背,而是真正理解了三维空间关系。


正如我们前文提到的对比评测中,SenseNova-SI不仅超越了李飞飞团队的Cambrian-S,更是在空间推理、幻觉抑制等关键指标上表现更优。


林达华总结道:


我们希望把一个闭眼狂奔的盲人,变成了一个真正睁眼看世界的观察者。


落地,落地,还得看落地


技术再牛,如果不能变成生产力,终究只是实验室里的玩具。


在量子位与林达华的交流过程中,他反复提到了一个词:工业红线。


我们内部有一个标准:任何技术,如果它的使用成本高于它创造的价值,那就是没过工业红线。


这是因为大模型行业目前最大的痛点,除了不够聪明,就是太贵、太慢


特别是在视频生成领域,虽然Sora惊艳了世界,但生成几秒钟视频需要消耗巨大的算力,推理时间动辄几分钟甚至几小时。


这种成本和延迟,根本无法支撑大规模的商业应用。


“只有当推理成本以每年1-2个数量级的速度下降时,AI才能从Demo级的炫技,变成石油级的工业生产力。”


为了跨过这条红线,商汤在落地应用上下足了功夫。林达华以商汤最新实时语音驱动数字人产品SekoTalk为例,展示了什么叫算法和系统协同的极致优化。


目前的视频生成主流模型都是基于扩散模型,生成一张图往往需要迭代几十步甚至上百步。


但这个过程的步骤就不能减少吗?答案是否定的。


林达华团队利用一种名为算法蒸馏的技术,硬生生将扩散模型的推理步数,从100步压缩到了4步


这不是简单的偷工减料,而是基于对模型分布的深刻理解。林达华解释说:


模型在从白噪声变成图像的过程中,不同阶段处理的数据分布是完全不同的。以前是用同一套参数跑100遍,现在是分阶段用不同参数跑4遍,让专业的参数干专业的事。


如此打法之下,效果依旧是惊人:64倍的速度提升。


这就意味着在不久的将来,你只需要一张消费级的显卡(比如RTX 4090甚至更低),就能实时生成高质量的数字人视频。


SekoTalk生成的视频


聊至此处,林达华也表现出了激动之情:


以前生成20秒视频要跑一小时,现在我们能做到实时生成。这不仅是效率的提升,更是商业模式的质变。


这直接打通了AI在直播、短视频制作等领域的规模化落地路径。


从SenseNova-SI的底层架构创新,到SekoTalk的极致落地优化,商汤正在践行林达华所说的双轮驱动:


一手抓Back to Research的原始创新,一手抓击穿工业红线的落地价值。


One More Thing


在对话的最后,林达华也为当下想要投身AI大浪潮中的年轻人给予了一些宝贵的建议:


不要只盯着大语言模型来卷,这个赛道真的太拥挤了。


林达华诚恳地表示,年轻一代的研究者和创业者,应该把视野打开。


具身智能、AI for Science、工业制造、生命科学……这些都是非常好的领域。


智能不只有语言,AI的未来在于从读万卷书进化到行万里路。


林达华最后说道,在这场从Words to Worlds的宏大迁徙中,中国拥有全世界最丰富的场景、最完整的工业体系。这片土壤,天生适合培育那些能与物理世界深度交互的AI。


在这个赛道上,中国科技公司已经抢到了一张船票;而未来的头等舱,属于那些敢于回归实验室、敢于勇闯无人区的年轻人。


SenseNova-SI地址:https://github.com/OpenSenseNova/SenseNova-SI


NEO地址:https://github.com/EvolvingLMMs-Lab/NEO

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: