扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
大模型创业公司正从追求大参数转向端侧小型化,因云端成本高企而本地化AI在设备性能提升、芯片适配和场景需求驱动下成为新趋势。 ## 1. 云端大模型的商业困境 - OpenAI等公司面临营收增长但亏损同步扩大的悖论,2025年OpenAI预计亏损达212亿美元。 - 每次API调用都伴随真实算力消耗,规模效应反而推高成本,毛利率改善速度不及算力扩张。 ## 2. 端侧AI的技术与生态拐点 - 2025年手机NPU能力兑现,芯片厂商主动适配模型,用户要求离线可用性。 - 3B参数级模型通过量化等技术实现多模态任务,苹果A系列芯片8-9GB显存成为设计约束基准。 ## 3. 三类玩家布局端侧战略 - **终端厂商**(如苹果、Google)自研端侧优先模型,避免AI能力被第三方垄断; - **科技巨头**(微软Phi-3、Meta Llama)开源小模型为生态铺路,Phi-3以3.8B参数对标70B模型能力; - **创业公司**(如面壁智能MiniCPM)专注端侧,国内代表案例实现GPT-4o同级性能。 ## 4. 端侧落地的挑战与妥协 - 需适配碎片化硬件(安卓千种机型),工程调试繁琐且非技术团队偏好; - 产业链强势方(手机/芯片厂)可能压价或替换集成商,Mistral因微软入股陷入主权与商业平衡难题。 ## 5. 行业范式转变的核心结论 - 上半场比拼参数规模,下半场竞争转向具体场景落地; - 离线设备(如手机、车载导航)证明AI可用性优先级已超越纯云端能力。
2026-04-30 13:03

大模型创业公司,为什么越来越多在往“小”做?

题图来自:AI生成


把一台主流安卓手机切到飞行模式,然后问屏幕上的 AI:“帮我总结一下昨天的会议,挑三个待办事项。”

 

它会答出来。答得不算惊艳,但靠谱。

 

从2022年11月OpenAI正式发布ChatGPT以来,几乎所有人对 AI 的认知都建立在一个朴素的逻辑上:你提的问题,会跑去一个遥远的数据中心,由几万张 GPU 算出答案,再传回你的屏幕。这个过程贵、慢、依赖网络,但所有人都默认那就是 AI 应该有的样子。

 

然而仅仅三年时间,这种印象被一台断网的手机轻飘飘地推翻了。

 

特别是最近半年,和大模型行业的人聊天时,会发现一个词的频率越来越高——端侧。


云端之上,并没有“钱”

 

大模型上半场的逻辑非常清晰:参数大就是好。

 

GPT-4 出来之后那一年,国内拿到融资的公司,PPT 第一页几乎都在堆数据——多少 B 参数、多少万亿 token、多少张 H100。投资人也吃这一套。先把规模拉满,故事就成立了。

 

但资金烧到当下,账就逐渐算清楚了。

 

2025年OpenAI的估值虽然推到了五千亿美元量级,但预计税前亏损也达到了惊人的212亿美元。Anthropic的情况看上去好一些:毛利率从2024年的 -94%改善到2025年的40%出头,但同期 EBITDA(息税折旧及摊销前利润)亏损仍有52亿美元。Cohere和Mistral则反复传出寻求被收购的消息。

 

这一行业里所有靠卖 API 调用为生的公司,最后都站在同一条曲线的不同位置上,营收在涨,亏损也在涨,用户越多,亏得越多。毛利率好转的速度赶不上算力消耗扩张的速度。

 

这是反互联网常识的。过去二十年,规模意味着壁垒,规模也意味着利润。但大模型这门生意,规模意味着持续的算力消耗,因为每一次用户和 AI 的对话,背后都是真实的电费和GPU折旧。

 

更尴尬的是,这条曲线没有明显的下行点。模型再大、能力再强,单次推理的边际成本依然摆在那里。

 

云端之外,暗流已动

 

把视线移到云端之外。

 

2023 年,在手机发布会上听到“NPU”这个词,多半会觉得有点尴尬。芯片厂商讲了好几年,但市面上几乎没有什么模型真的用得上,它像一个反复被写进 PPT 又被现实辜负的未来能力。

 

到了2025年,这种能力开始兑现。

 

芯片厂商开始主动找模型公司谈适配,因为客户在问。手机用户也开始问:为什么我的 AI 助手离线就用不了?为什么我换个网络环境,它的反应慢了一截?这些问题意味着AI 已经被人当成水电一样的存在了。它需要随时可用,不能挑网络。

 

模型这一侧也终于跟上了。

 

过去几年,量化、蒸馏、稀疏注意力这些工程方法被一批团队反复打磨,一个几 B 参数的模型,经过精心设计,在多模态、长文本、OCR 这些原本被认为只有大模型才能干的活上,已经能做到让人挑不出毛病的水平。

 

最直接的体现,是它真的能装进设备里。手机芯片那点显存,苹果 A 系列大概八九 GB,骁龙旗舰差不多。以前看是天花板,现在反过来成了一种刚刚够用的约束,逼着模型公司把每一层结构都抠到极致。

 

由此可见,端侧 AI 这两年的真正拐点不是某一项技术突然成熟,而是模型、芯片、终端三方在同一个时间窗口里,互相找到了对方。

 

谁在押这条路

 

把端侧作为主线在押的玩家,已经分成了几拨。

 

第一拨是终端厂商,自己下场做模型。

 

苹果的Apple Intelligence是其中最有代表性的——大约30亿参数级别,主打“端侧优先、云端兜底”。它的存在意味着苹果决定不再把AI能力外包给OpenAI,即使前者声称是“合作”。Google 走得更激进,把Gemma Nano直接预装到Pixel 系列,并且在Android 14之后开始向手机厂商开放底层API。

 

终端厂商下场的逻辑很清楚,AI 一旦成为系统级功能,它就不该是别人收过路费的地方。

 

第二拨是大公司开源出来的小模型。

 

微软的Phi系列是这条路上的标志性产品。Phi-3用3.8B参数做出了能对标 70B模型的部分能力,证明了“小模型 + 精选数据”路线的可行性。Meta的Llama 3.2在2024年下半年推出1B / 3B版本,明确标注“为端侧设计”。Google的Gemma系列走类似路线,开源出来供整个生态用。

 

这一拨的共同特点是:它们没指望靠这些小模型直接挣钱。它们是在为生态铺路。 路铺好了,再回头收硬件、云端、其他业务的钱。

 

第三拨是真的把“小尺寸”当成核心战略的创业公司。

 

Mistral是其中最早的。7B起家,在欧洲拿下了一批政企客户。但因为太依赖单一开源故事,2024年微软入股之后处境变得复杂。

 

国内这边,阿里的 Qwen 系列推出了从 0.5B 到 7B 的小尺寸版本,覆盖端侧多个段位,但因为同时还在做大尺寸 API 业务,端侧不是主线。智谱 GLM 也有端侧版本,但商业重心仍在云端。把端侧当成绝对主线在做的,国内最有代表性的是面壁智能,MiniCPM 系列做到了GPT-4o同级水平。这种说法一年前几乎所有人都觉得是夸口,但它发生了。

 

把这几拨玩家放在一起看,端侧 AI 已经不是“小公司的避风港”,它正在成为整个行业重新组织自己的方式。

 

端侧不是免费午餐

 

写到这里,也得说句实话。端侧AI前景虽然无限,但不是完美故事。

 

把模型塞进设备这件事,工程上的麻烦比想象中碎。安卓机型上千种,芯片各家 API 不一样,系统定制层每个厂商各有讲究。一个端侧模型想在这片土壤里跑顺,光适配就够小公司喝一壶——这件事没有捷径,只有一行行的代码、一台台机器的实测,一次次跑通之后被下一代芯片打破,再重新跑通。这种活算法工程师不爱干,但端侧这条路就是由这些不性感的活铺出来的。

 

模型公司还得面对一个更隐性的处境:手机厂、芯片厂、车厂本身就是产业链里强势的一方。被预装、被集成看上去是“赢了”,但同时也意味着随时要面对被替换、被压价、被边缘化。Mistral 这两年在欧洲的处境多少能说明问题——它既要满足法国政府对“主权AI”的期待,又要应付微软入股之后被主导话语权的尴尬,左右都难做。

 

端侧换来了商业化更扎实的路径,但也意味着融入合作生态,成为产业链里若干环节中的一环。

 

大模型上半场比的是谁能把山攀得最高。下半场比的,是谁愿意走下山,走进具体的设备里、具体的场景里、具体的人面前。

 

去年那台跑在飞行模式下的安卓手机,今年我又见过一次。

 

在朋友的车上,离线导航和语音都跑在本地。

 

云在很远的地方。

 

但 AI 已经到了。

本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。
如对本稿件有异议或投诉,请联系 tougao@huxiu.com。
文集:
频道: 商业消费

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: