扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
谷歌开源Gemma 4模型,手机端本地运行速度超40 token/秒,128K上下文窗口和全模态支持预示"0 token时代"可能加速到来,倒逼AI厂商转向高难度赛道竞争。 ## 1. 手机端AI模型的性能突破 - Gemma 4的E2B(2.3B)和E4B(4.5B)小模型可在iPhone/Samsung本地运行,苹果MLX框架下速度超40 token/秒 - 128K上下文窗口和全模态支持使其成为"口袋级Gemini平替",医疗等敏感场景应用潜力显著 ## 2. 平民化部署与官方支持 - 通过Google AI Edge Gallery应用可直接下载运行,非技术用户也能快速体验 - 官方发布保障安全性,支持多型号选择(从手机端2.3B到MacBook Pro端26B版本) ## 3. 当前技术瓶颈与对比测试 - 26B版本在复杂Agent任务(256K上下文)中表现不佳,相比qwen3-coder存在工具调用和结构化输出缺陷 - 智力水平仍存争议,但日常查询/图像理解等简单任务已具备实用价值 ## 4. 行业格局的潜在变革 - 硬件进步+量化技术将推动端侧模型蚕食云端高频简单任务,威胁传统token商业模式 - 闭源模型需聚焦超强Agent/超长上下文等高端领域,产业洗牌趋势已现
2026-04-06 12:43

iPhone本地跑Gemma4火了,0 token时代还有多远?

本文来自微信公众号: 机器之心 ,作者:机器之心,原文标题:《iPhone本地跑Gemma 4火了,0 token时代还有多远?》


谷歌前几天开源的新模型Gemma 4,给了业内一个大大的惊喜。



它采用了与Gemini 3同源的技术架构,支持原生全模态,在Arena AI排行榜上拿到了全球第三,而且有多个型号可以选。几个较小的型号——E2B(有效参数2.3B)和E4B(有效参数4.5B)——可以直接部署在手机端本地运行,上下文窗口达到128K,可以说是「可以放进口袋的Gemini平替」。


不出所料,模型发布后很快就成了手机用户的新玩具。


其中,一个X用户的帖子被围观数十万次。他在帖子里放了一个视频,讲述自己如何在iPhone上本地运行Gemma 4,包括处理图片、音频、控制手电筒开关。他表示,Gemma 4速度快得惊人,感觉像魔法一样。



有人在iPhone 17 Pro上量化了这一速度,指出如果手机用的是苹果芯片,那么在针对这套芯片优化的MLX(苹果的机器学习框架)的帮助下,模型的推理速度可以超过40 token/秒。



还有人在三星Galaxy上也跑出了类似的速度,而且还是在开启了思考模式的情况下。这让人直呼「快得不真实」。



这样的速度让手机端运行AI模型成为了未来可以被接受的选项,而且在医疗等敏感场景中非常有用。



128k的上下文窗口也让这些小模型变得更有吸引力。



那具体怎么运行呢?其实很简单,不是极客专属,因为谷歌发布了官方App——Google AI Edge Gallery。想在手机上体验的人可以直接下载这个App,然后下载想要运行的模型版本,之后打开就能跑了。



而且,由于是谷歌官方发布,安全问题自然也不用太担心。



除了这些在手机端运行的小模型,还有人在更强的硬件上尝试了更大的Gemma 4版本,比如在M5 Pro版本的MacBook Pro上运行Gemma 4 Mixture-of-Experts 26B。



如果是直接对话,这个模型的速度还是很快的,文本生成、代码解释都很顺畅。



但当他真的将Gemma 4当成coding agent去用时,问题就来了。因为跑agent时需要大上下文(Gemma 4 26B上下文窗口为256k)、复杂prompt和稳定的工具调用,Gemma 4在这些地方明显扛不住,经常卡住、报错,或者输出结构不对。



转折点发生在他将模型换成qwen3-coder的时刻,同样环境下,文件创建、命令执行、多步任务都能正常跑。他认为,问题不在agent框架,而在模型本身有没有为「工具调用+结构化输出」做过优化。在这方面,Gemma 4可能做得还不够,也有可能这位开发者还没找到正确的用法。



此外,还有人说,Gemma 4在智力水平上还有点鸡肋。



虽然如此,Gemma 4这种「性能小钢炮」的出现依然不容小觑。如果以后大量的日常查询、聊天、简单推理、代码生成、图像理解任务都可以本地跑了,不再需要买token,那卖token的厂商岂不是处境很尴尬?





当然,当前情况还没有那么悲观,毕竟现在被开源出来的模型和前沿的旗舰闭源模型之间还有差距,而且大部分能打的开源模型依然受制于硬件能力,暂时还没办法在端侧达到可用级别。



但未来的趋势是清晰的。短期看,云端闭源模型在最前沿的复杂推理和超大规模多代理协作上依然领先;但长期看,当硬件继续进步、量化技术继续优化,端侧模型会逐步蚕食云端的高频简单任务。


那些只靠卖token、卖API订阅的厂商,将不得不更狠地卷「真正难啃」的部分——超强Agent、超长可靠上下文、以及需要海量实时数据的专有能力。


Gemma 4只是一个开始。下一个惊喜,可能就是某款端侧模型在日常使用中彻底让用户感觉不到「本地」和「云端」的区别。那一天到来时,整个AI产业的商业模式,都会迎来一次真正的洗牌。

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: