扫码打开虎嗅APP
题图来自:AI生成
把一台主流安卓手机切到飞行模式,然后问屏幕上的 AI:“帮我总结一下昨天的会议,挑三个待办事项。”
它会答出来。答得不算惊艳,但靠谱。
从2022年11月OpenAI正式发布ChatGPT以来,几乎所有人对 AI 的认知都建立在一个朴素的逻辑上:你提的问题,会跑去一个遥远的数据中心,由几万张 GPU 算出答案,再传回你的屏幕。这个过程贵、慢、依赖网络,但所有人都默认那就是 AI 应该有的样子。
然而仅仅三年时间,这种印象被一台断网的手机轻飘飘地推翻了。
特别是最近半年,和大模型行业的人聊天时,会发现一个词的频率越来越高——端侧。
大模型上半场的逻辑非常清晰:参数大就是好。
GPT-4 出来之后那一年,国内拿到融资的公司,PPT 第一页几乎都在堆数据——多少 B 参数、多少万亿 token、多少张 H100。投资人也吃这一套。先把规模拉满,故事就成立了。
但资金烧到当下,账就逐渐算清楚了。
2025年OpenAI的估值虽然推到了五千亿美元量级,但预计税前亏损也达到了惊人的212亿美元。Anthropic的情况看上去好一些:毛利率从2024年的 -94%改善到2025年的40%出头,但同期 EBITDA(息税折旧及摊销前利润)亏损仍有52亿美元。Cohere和Mistral则反复传出寻求被收购的消息。
这一行业里所有靠卖 API 调用为生的公司,最后都站在同一条曲线的不同位置上,营收在涨,亏损也在涨,用户越多,亏得越多。毛利率好转的速度赶不上算力消耗扩张的速度。
这是反互联网常识的。过去二十年,规模意味着壁垒,规模也意味着利润。但大模型这门生意,规模意味着持续的算力消耗,因为每一次用户和 AI 的对话,背后都是真实的电费和GPU折旧。
更尴尬的是,这条曲线没有明显的下行点。模型再大、能力再强,单次推理的边际成本依然摆在那里。
把视线移到云端之外。
2023 年,在手机发布会上听到“NPU”这个词,多半会觉得有点尴尬。芯片厂商讲了好几年,但市面上几乎没有什么模型真的用得上,它像一个反复被写进 PPT 又被现实辜负的未来能力。
到了2025年,这种能力开始兑现。
芯片厂商开始主动找模型公司谈适配,因为客户在问。手机用户也开始问:为什么我的 AI 助手离线就用不了?为什么我换个网络环境,它的反应慢了一截?这些问题意味着AI 已经被人当成水电一样的存在了。它需要随时可用,不能挑网络。
模型这一侧也终于跟上了。
过去几年,量化、蒸馏、稀疏注意力这些工程方法被一批团队反复打磨,一个几 B 参数的模型,经过精心设计,在多模态、长文本、OCR 这些原本被认为只有大模型才能干的活上,已经能做到让人挑不出毛病的水平。
最直接的体现,是它真的能装进设备里。手机芯片那点显存,苹果 A 系列大概八九 GB,骁龙旗舰差不多。以前看是天花板,现在反过来成了一种刚刚够用的约束,逼着模型公司把每一层结构都抠到极致。
由此可见,端侧 AI 这两年的真正拐点不是某一项技术突然成熟,而是模型、芯片、终端三方在同一个时间窗口里,互相找到了对方。
把端侧作为主线在押的玩家,已经分成了几拨。
第一拨是终端厂商,自己下场做模型。
苹果的Apple Intelligence是其中最有代表性的——大约30亿参数级别,主打“端侧优先、云端兜底”。它的存在意味着苹果决定不再把AI能力外包给OpenAI,即使前者声称是“合作”。Google 走得更激进,把Gemma Nano直接预装到Pixel 系列,并且在Android 14之后开始向手机厂商开放底层API。
终端厂商下场的逻辑很清楚,AI 一旦成为系统级功能,它就不该是别人收过路费的地方。
第二拨是大公司开源出来的小模型。
微软的Phi系列是这条路上的标志性产品。Phi-3用3.8B参数做出了能对标 70B模型的部分能力,证明了“小模型 + 精选数据”路线的可行性。Meta的Llama 3.2在2024年下半年推出1B / 3B版本,明确标注“为端侧设计”。Google的Gemma系列走类似路线,开源出来供整个生态用。
这一拨的共同特点是:它们没指望靠这些小模型直接挣钱。它们是在为生态铺路。 路铺好了,再回头收硬件、云端、其他业务的钱。
第三拨是真的把“小尺寸”当成核心战略的创业公司。
Mistral是其中最早的。7B起家,在欧洲拿下了一批政企客户。但因为太依赖单一开源故事,2024年微软入股之后处境变得复杂。
国内这边,阿里的 Qwen 系列推出了从 0.5B 到 7B 的小尺寸版本,覆盖端侧多个段位,但因为同时还在做大尺寸 API 业务,端侧不是主线。智谱 GLM 也有端侧版本,但商业重心仍在云端。把端侧当成绝对主线在做的,国内最有代表性的是面壁智能,MiniCPM 系列做到了GPT-4o同级水平。这种说法一年前几乎所有人都觉得是夸口,但它发生了。
把这几拨玩家放在一起看,端侧 AI 已经不是“小公司的避风港”,它正在成为整个行业重新组织自己的方式。
写到这里,也得说句实话。端侧AI前景虽然无限,但不是完美故事。
把模型塞进设备这件事,工程上的麻烦比想象中碎。安卓机型上千种,芯片各家 API 不一样,系统定制层每个厂商各有讲究。一个端侧模型想在这片土壤里跑顺,光适配就够小公司喝一壶——这件事没有捷径,只有一行行的代码、一台台机器的实测,一次次跑通之后被下一代芯片打破,再重新跑通。这种活算法工程师不爱干,但端侧这条路就是由这些不性感的活铺出来的。
模型公司还得面对一个更隐性的处境:手机厂、芯片厂、车厂本身就是产业链里强势的一方。被预装、被集成看上去是“赢了”,但同时也意味着随时要面对被替换、被压价、被边缘化。Mistral 这两年在欧洲的处境多少能说明问题——它既要满足法国政府对“主权AI”的期待,又要应付微软入股之后被主导话语权的尴尬,左右都难做。
端侧换来了商业化更扎实的路径,但也意味着融入合作生态,成为产业链里若干环节中的一环。
大模型上半场比的是谁能把山攀得最高。下半场比的,是谁愿意走下山,走进具体的设备里、具体的场景里、具体的人面前。
去年那台跑在飞行模式下的安卓手机,今年我又见过一次。
在朋友的车上,离线导航和语音都跑在本地。
云在很远的地方。
但 AI 已经到了。