扫码打开虎嗅APP
本文来自微信公众号: MacTalk ,作者:池建强,原文标题:《谷歌闪电出击,很多人没搞明白 Gemini 3 Flash 为啥这么爆》
再一次,咱们东方人睡了一觉之后,AI行业的默认值又改写了。
这一次,还是谷歌。
Gemini 3 Flash的发布非常突然,没什么铺垫,和Geimin 3那会完全不一样,预览版就有人得瑟了。但Flash这个版本却毫无征兆,发布后在极短时间内刷屏了整个技术圈。从开发者社区到产品团队,从推特时间线到更新日志:原来“快”和“强”,还能被这么定制。
这次更新很像是一场精心计算的闪电出击。
从定位上看,Gemini 3 Flash并没有刻意强调“最强”。它被放在了一个相对保守的位置:更小、更快、更便宜。如果只是这样并不会引发大家这么多的关注。
因为测试结果太惊人了。
一些开发者在公开基准中发现,这个“Flash”模型,在不少任务上竟然击败了自家的Gemini 3 Pro,甚至在某些维度上超过了此前的旗舰模型。
这件事违背了过去几年我们对大模型的直觉认知。更小的模型,意味着更少的参数、更低的算力消耗,通常也意味着更弱的能力。但这一次咋就反过来了呢?
连Google DeepMind的负责人Demis Hassabis都亲自下场,在社交媒体上直言这个模型“快得惊人,而且非常聪明”,并毫不掩饰地称它为“性价比之王”。这种来自技术最高层的兴奋感,我想,是因为他们自己也意识到,这次确实不一样。
Gemini 3 Flash是一个阶段性结果。有开发者总结:我们正在进入一个新阶段——模型规模,已经不再是唯一决定因素。通过蒸馏、结构优化、推理路径重排,小3到4倍的模型,已经可以超过六个月前的所谓“前沿模型”。模型能力的进步,开始从“拼体量”,转向“拼工程、拼系统理解”。
这意味着,模型正在从研究对象,逐渐变成基础设施。比如谷歌的Logan Kilpatrick就说:
Gemini 3 Flash is the new default for vibe coding.
作为产品构建者,历史上从来没有哪个时刻,人们一早醒来就有人把你的产品性能提升了40%,还帮你省了一大笔钱。
为啥大家反应这么大呢?因为这对整个生态系统来说就像是一次免费的巨大升级。
比如Perplexity AI,Gemini 3 Flash一发布,他们马上就宣布Pro用户已经可以用上这个版本了,整个生态的响应速度是以小时计算的。
很显然,咱们国内的模型一直都是这个路子,便宜,toC甚至是免费的,那么,当我们的能力也达到Gemini 3 Flash水准的时候,竞争就更有意思了,焦点也会从谁能接触到最好的模型,变成了谁能用这些模型创造出最有价值的应用。
和我之前写百度那篇“应用驱动”有异曲同工之妙。模型开始逐步退居幕后,成为基础设施,产品理解、场景判断和系统设计开始走向台前。
当然,就在所有人都为“更快、更强、更便宜”而兴奋时,也有人选择站出来泼一点冷水。图灵奖得主LeCun教授就提出来,目前最大的语言模型,训练数据量大约是10¹⁴字节的文本;而一个四岁孩子,在成长过程中通过感官接收的信息量,接近10¹⁵字节。差距不仅在数量,更在性质。语言模型生活在符号世界里,它们并不真正理解物理现实。
但与此同时,工程相关的实践也在不断给出正反馈。客服代理、语音系统、自动化工具,已经在现实世界中稳定运行。
我觉得这并不矛盾。或许真正的提醒是:这些AI工具确实非常有用,但它们未必指向AGI的终点?我想是这样的。
回到Gemini 3 Flash,从一个产品经理的角度,我把这个定义为一场漂亮的工程胜利。更快、更便宜、更易用,这样的模型也会推动一波新的应用爆发,会让开发者以前所未有的速度去尝试、试错和迭代。是大好事。
同时也提醒我们,当“智能”变得廉价——这几乎是必然的——真正稀缺的,将是判断力、理解力,以及选择方向的能力。