扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
2026-01-21 09:41

大模型时代,为什么工业界还在疯狂用YOLO?算完这笔账,我沉默了

本文来自微信公众号: 夕小瑶科技说 ,作者:夕小瑶编辑部,原文标题:《大模型时代,为什么工业界还在疯狂用 YOLO?算完这笔账,我沉默了》


如果你最近关注了GitHub,可能会注意到一个有趣的现象:


YOLO的版本号,直接从11跳到了26。


起初我以为是分支管理出了bug,但看完技术报告,我收回这个想法,确实是有意为之的宣告。YOLO26的“26”,代表着与2026年同步,这么大的版本号跨越,也必然代表这是一次重大升级。


官方给这次升级的定位是——


标志着计算机视觉模型在真实世界系统中的训练方式、部署方式以及规模化路径发生了根本性的转变。


用Ultralytics创始人Glenn Jocher在YOLO Vision 2025大会上的话说:


“我们希望AI不再只停留在云端,而是下沉到边缘设备、你的手机、车辆以及低功耗系统中。”


YOLO26正是这一愿景的技术实现:生产级、以边缘端为核心的计算机视觉新标准。


在大模型时代,为什么还要关注YOLO?


在所有人都在追逐GPT、Claude的时代,为什么还要关注一个目标检测模型?


这两年CV圈确实被大模型抢尽风头,GPT-4V能看图写代码,Gemini能一口气吞下几小时视频,SAM号称分割一切,很多人以为传统CV任务已经过时。


但现实世界里:


原因也很简单,算一笔账你就懂了。


假设用大模型做流水线质检,调用一次API耗时0.1秒、成本1美分。一条产线每秒过10个件、一天跑8小时:


推理费用就是:10×3600×8×0.01=2880美元/天10×3600×8×0.01=2880美元/天


折合人民币两万。请问哪个老板顶得住?


而YOLO26呢?


这就是大模型与YOLO的根本差异。


大模型解决的是“能力上限"——它能理解复杂语义,告诉你:这张图里有一只忧郁的橘猫坐在复古天鹅绒沙发上。YOLO解决的是“工程下限”——在最苛刻的条件下,用最快的速度、最低的成本,把活儿干完。


这也是为什么Ultralytics YOLO能拿下12.3万GitHub Stars、2.08亿+Python包下载量、日使用量接近25亿次的原因——它解决的是真实世界里“省钱、高效、能落地”的问题。



YOLO26的架构革新


那这次的YOLOv26有什么新东西?


说实话,看完文档我挺惊讶,基本上做了一次“断舍离”式的架构重构。


第一,移除NMS,实现端到端推理。



咱们搞算法的都知道,以前的模型(比如YOLOv8/11)在“看”图时,会生成成千上万个重叠的候选框,然后用非极大值抑制(NMS)过滤掉多余的框。


这个过程就像是高速公路的收费站:无论你的模型推理速度有多快,到了收费站(NMS后处理)都得排队缴费,整体速度立马就下来了。


YOLO26直接拆掉了这个收费站。


它采用了全新的端到端无NMS架构,模型输出的就是最终结果,不再需要复杂的后处理。这一改变带来的效果是立竿见影的:


第二,移除DFL,解除隐形围栏。


以前的YOLO喜欢用分布焦点损失(DFL)来提升精度。但DFL像一道隐形围栏,限制了边界框的回归范围。这就导致模型在检测超大目标(比如贴着摄像头的大卡车)时,经常“束手束脚”,框画不全。


YOLO26移除DFL后:


听到这儿,有同学可能要问了:


"博主,去掉了DFL,那小目标检测会不会变差啊?"


别急,Ultralytics显然想到了这点。他们设计了STAL(Small Target Alignment Loss):专门增强模型对小目标和远距离目标的感知能力。


在航拍无人机找地面行人、工业相机检测微小裂痕这类场景下,STAL的加持让YOLO26比前辈们稳得多。


最后,还有一个新玩意值得一提—MuSGD优化器。


它融合了传统SGD的稳定性和大模型训练的一些优化思路,能让模型收敛得更快、更稳,尤其在处理复杂数据集时,调参的头疼程度会下降不少。


第三,拆掉云端依赖,CPU性能暴涨43%。


传统观念里,深度学习模型吃GPU。但YOLO26专为边缘计算优化,实现了一个惊人的数据:CPU推理速度提升高达43%


这意味着什么?


YOLO26还做了一系列对特定任务的优化。


性能实测


YOLO26继续沿用了n(Nano)、s(Small)、m(Medium)、l(Large)、x(Extra Large)五种尺寸的家族设计,能够支持根据部署的客观条件来完成多种任务。


与YOLO11相比,YOLO26的Nano版本在CPU推理场景下最高可实现43%的性能提升,成为目前边缘端和基于CPU部署场景中速度与精度兼顾的领先目标检测模型之一。



更重要的是,这些性能提升不需要硬件升级——YOLO26可以在现有硬件上高效运行,包括CPU、边缘加速器以及各类嵌入式设备。


YOLO26如何使用?


我也第一时间上手盘了一下,体验非常丝滑。目前有两种主流玩法:


方式一:Ultralytics云平台(适合生产部署)


官方提供了一站式平台,把训练、微调、导出、部署全包圆了。


传送门:https://bit.ly/3LIom24

(Ps:也可以点击阅读原文)


在平台上可以:


我试着传了一个“玩具数据集”上去,点击训练。好家伙,不到20秒就跑完了!


而且训练过程中的loss曲线、各项指标看得清清楚楚。对于不想折腾环境、或者需要团队协作的朋友:



ps:现在好像有活动,只要注册就给5美刀用于训练,反正我测的时候没花钱。


方式二:本地开源部署


YOLO26完全开源,可以通过Ultralytics Python包使用,老规矩,pip一把梭:


pip install ultralytics from ultralytics import YOLO model=YOLO("yolo26n.pt")#自动下载预训练权重_results=model("bus.jpg")#一行推理_


教程传送门:https://docs.ultralytics.com/models/yolo26/


如果你想训练自己的模型,也就是几行代码的事。


训练:


fromultralyticsimportYOLO#Load a model model=YOLO("yolo26n.pt")#load a pretrained model(recommended for training)#Train the model results=model.train(data="african-wildlife.yaml",epochs=100,imgsz=640)


推理:


model=YOLO("yolo26n.pt")results=model.train(data="coco.yaml",#数据集配置文件epochs=100,#训练轮次imgsz=640,#图像大小batch=16#批次大小)#训练YOLO26分割模型model=YOLO("yolo26n-seg.pt")results=model.train(data="coco.yaml",#数据集配置文件epochs=100,#训练轮次imgsz=640,#图像大小batch=16#批次大小)


训练起来非常流畅!



哪怕是不太懂CV的新手,也能在几分钟内跑通一个自己的目标检测模型。而且YOLO26n这种Nano级别的模型,在笔记本CPU上跑起来简直飞快。


总之,云端有全家桶,本地有自由度,丰俭由人。


最后必须友情提醒一下家人们,Ultralytics提供了两种授权方案,大家对号入座,别踩坑:


结语


这两年大模型太火了,火到很多人忘了一个基本事实——99%的AI应用场景,根本用不起大模型。


一个工厂的质检摄像头,不需要理解莎士比亚;一台送餐机器人,不需要和你聊人生哲学。它们只需要又快又准地完成一件事:看懂眼前这一帧画面,然后做出反应。


这就是YOLO系列存在的意义,不是所有AI都要追求"大而全",有时候"小而美"才是真正的生产力。


作为一名AI科技的观察者,我其实很看好一种未来的“师生模型”范式:


比如,我们用云端那个牛逼但昂贵的GPT去自动标注海量数据,教出轻量级、反应快的YOLO26,然后把学生派到世界各地的摄像头里去干活。


云端有智慧,边缘有速度。


家人们,你们怎么看~欢迎评论区和我们一起讨论!


  • 你打开购物App拍照搜同款,后台跑的是YOLO;


  • 你走进商场被统计客流,天花板上的摄像头跑的是YOLO;


  • 工厂流水线每秒飞过10个零件,负责揪出次品的,还是YOLO。


  • 跑在一块几百块的边缘计算板上


  • 推理延迟6ms(比人眨眼还快)


  • 单次成本约等于零


  • 推理速度更快:没有NMS的延迟损耗


  • 部署更简单:不需要在不同硬件上适配NMS实现


  • 结果更稳定:避免了NMS阈值调参带来的不确定性


  • 大目标检测更准,稳定性和准确性大幅提升;


  • 模型结构变得更"纯粹"—导出成ONNX或TensorRT部署到边缘设备时,兼容性更好,玄学Bug更少。


  • 边缘部署更友好,在嵌入式设备上运行更稳定。


  • 不需要昂贵的GPU服务器,普通CPU就能跑实时检测;


  • 摄像头、机器人、嵌入式设备可以直接在本地完成推理;


  • 基础设施成本大幅降低。


  • 在实例分割上,它引入语义分割损失与升级版原型模块,像开了“微距模式”一样,让复杂场景下的掩码边缘告别锯齿;


  • 姿态估计则集成了RLE技术,让模型学会了在遮挡下衡量“不确定性”,拒绝盲猜坐标;


  • 针对最让人头疼的旋转框检测,新增的角度损失函数彻底治愈了方形物体方向预测的“抖动症”。


  • 获取YOLO26预训练模型


  • 在自定义数据集上训练和微调


  • 导出模型用于边缘部署和生产部署


  • 在统一工作流程中监控实验进度和已部署模型


  1. AGPL-3.0开源许可证


    • 适合学生、研究员、独立开发者(为爱发电)。


    • 免费用,但它是“传染性”协议。如果你的项目基于它开发并对外发布,你的代码也必须开源。


  2. 企业级商业许可证


    • 想把YOLO塞进产品里卖钱的公司。


    • 不用开源你的代码,安心闭源部署,合规赚钱。


本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

大 家 都 在 搜