扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
阿里巴巴通义千问(Qwen)首席研究员林俊旸及核心团队突然离职,引发开源社区震动。尽管Qwen 3.5系列技术表现亮眼,但人才流失暴露大厂AI战略与工程师文化的深层冲突,开源生态的可持续性面临考验。 ## 1. 林俊旸离职事件始末 - 3月4日,Qwen首席研究员林俊旸突然宣布离职,同日多位核心成员(惠彬原、余博闻、李开心)同步离开。 - 直接诱因是阿里引入Google DeepMind前研究员周昊等顶尖人才,导致原团队权责范围调整。 - 内部紧急会议和CEO吴泳铭的公开邮件确认"坚持开源策略",但未挽回核心团队。 ## 2. Qwen 3.5的技术突破 - 2月发布的397B巨无霸模型(807GB)领衔全尺寸家族(122B/35B/27B/9B等),覆盖从云端到边缘计算场景。 - 小模型表现惊艳:2B模型量化后仅2GB,可在入门设备实现多模态推理,被开发者称为"USB智能接头"。 - 工程策略突出性价比:在资源有限情况下,通过架构设计和训练策略优化取得竞争优势。 ## 3. 开源阵营的震荡与挑战 - 林俊旸被视作Qwen"灵魂人物",其离职引发社区对技术路线延续性的担忧。 - 中国开源模型(Qwen/DeepSeek/GLM等)已形成生态,但大厂战略调整可能导致"重组-出走"循环。 - 关键矛盾:工程师文化vs组织文化,开源理想vs商业化压力,尤其体现为算力预算与产品节奏的平衡难题。 ## 4. 行业影响与未来展望 - Qwen 3.5成为标志性版本:既代表技术高峰,也可能预示团队初创阶段的终结。 - 开源模型已改变研发生态:研究者可fork基线,开发者能本地运行模型,减少对闭源API依赖。 - 核心结论:人才流动是技术生态常态,已验证的技术路线不会消失,但需关注组织变动对开源持续性的影响。
2026-03-06 12:44

Qwen3.5的口碑持续走高,林俊旸辞职出走,开源阵营震荡

本文来自微信公众号: MacTalk ,作者:池建强,原文标题:《Qwen 3.5 的口碑持续走高,林俊旸辞职出走,开源阵营震荡》


理一理时间线,事情的起点是林俊旸(Junyang Lin,@JustinLin610)3月4日在X上发的一句话:“我要辞职了。再见,我深爱的Qwen。”



看娱乐八卦和社会行为,去微博;AI和科技领域的事儿,还是推特上更及时靠谱。


1


如果你这两年一直关注大模型的开源生态,大概率见过这个名字。作为通义千问的首席研究员、阿里最年轻的P10员工之一,林俊旸是2024年以来一系列开源权重背后的关键人物,和站在台前讲ppt的人不一样,他是通过一篇篇技术报告和一个个新的checkpoint被社区记住的科学家和技术专家,是阿里巴巴通义千问(Qwen)系列模型的研发主导者和灵魂人物。


这件事情发酵了有两天,我昨晚忙完工作仔细阅读了相关的公开报道和x.com上的内容,大致背景是这样的:随着千问上升到了阿里集团核心战略层面,阿里巴巴开始进一步提升团队人才密度,引入在大规模模型研发、工程化落地等领域具备深厚经验的顶尖领军人才,比如年初进入阿里的前Google DeepMind研究员周昊(曾在Meta和Google DeepMind做研究,是Gemini 3.0的贡献者之一,方向偏推理和工具调用),这些举措应该造成了林俊旸原本负责的权责范围被调整。


北京时间3月4日下午一点左右,通义实验室召开了一场紧急全员大会,阿里巴巴集团CEO吴泳铭亲自到场沟通。林俊旸在X上突然宣布离职让很多千问成员感到震惊,在资源远少于竞争对手的情况下,他们普遍认为,俊旸的专业能力和领导力,是千问能在开源赛道杀出重围的核心因素之一。


下午两点左右,林俊旸又在朋友圈发了一条:“千问的兄弟们,按原计划继续,没问题。”这句话像是在安抚情绪,没有任何明确的去向和承诺,更像是在说:“就算我走了,你们也知道自己在干嘛。”


同一天宣布离开的,还有几位Qwen的核心骨干:


负责代码模型和Qwen-Coder系列的惠彬原;


负责后训练研究、主导Qwen-Instruct系列的余博闻;


以及在Qwen 3.5/VL/Coder中都有重要贡献的李开心。


最终,这个会议并没有改变事情的走向,吴泳铭在内部邮件中回应林俊旸离职一事:


>各位通义实验室同学:公司已决定批准林俊旸同学的辞职,感谢林俊旸过去在岗位上的付出。阿里将继续坚持开源模型策略,持续加大AI研发投入和吸纳优秀人才力度,公司将成立基础模型支持小组。


2


Qwen 3.5:来得太晚,还是走得太早?


这件事在社区里是什么表现呢?一石激起千层浪。因为太可惜了。Qwen 3.5系列非常出色,有一种“黑豹乐队好容易打开了局面,窦唯却准备离开”的荒诞感。


今年2月17日,Qwen团队开源了Qwen3.5-397B-A17B。这是一个807GB的巨无霸,参数规模和工程复杂度都不低。更重要的是,这不是一锤子买卖,而是一整套家族系列的开端。短短几周之内,他们又接连发布了122B、35B、27B、9B、4B、2B、0.8B等一系列不同尺寸的权重。


从工程角度看,这样的布局很“开发者”。有大集群的,可以玩397B;想在高端显卡上跑的,选35B或27B;如果你只有一台32GB/64GB的Mac,也可以用27B、35B当本地助手折腾一下。再往下是4B、2B、0.8B这种体量,还可以在各种边缘场景里找到用武之地。


过去这段时间,我陆续听到不少开发者在夸27B和35B的编程能力,在代码生成、补全、解释上都给出过超出预期的反馈。更有意思的是,小模型一点都不“摆烂”——我自己在LM Studio里试了9B、4B和2B,在这么小的体积里,还能做一个完整的多模态推理模型,这在一年前几乎是想都不敢想的事情。



那个2B模型量化后只有2G多,你可以把它丢在一台入门级设备上,让它看图、理解文本、做一些轻量推理任务。对于今天这个“万物要接AI”的时代,这样的模型就像一个可以插在任何USB口上的智能接头——插上就能用,不再依赖一条去云端的网线。



更关键的是,Qwen 3.5系列展现出来的,是一条清晰的技术路线:在资源拮据的前提下,如何通过工程手段、架构设计和训练策略,把“性价比”这件事做到最好。当年DeepSeek就这么干的。


社区为什么那么大反应?因为这些核心人员走了,实在可惜啊。


3


说起来,咱都是局外人,最多算个用户。真相如何,也许只有当事人知道,但大厂战略和技术路线拉扯这个事并不孤立。


过去一年,大模型团队的“重组—出走—再创业”已经成了一个反复上演的模式:


国内外的大厂和AI创业公司(OpenAI、Anthropic、Kimi、MiniMax等)在发展策略上是完全不一样的。后者直接就是云原生,做基模和工具。前者早期都是在原有的云计算、广告、电商等主业之上叠了一块AI战略,希望描绘出一个“更大”的故事。


随着AI影响力的爆发,模型能力的增强,战略上的调整,大厂的AI团队在不停拓展自己的边界。那些从零到一把模型做起来的人,在这个过程中,很容易走到一个需要做选择的位置。


当一件事做大了之后,这件事就不是你的事了,是组织的。这里面有“理想vs现实”的问题,也有“工程师文化vs组织文化”的博弈。


在资源远少于对手的情况下,Qwen能跑到今天这个位置,很明显是那群年轻人拼出来的。一边是算力预算、一边是产品迭代节奏,中间还有开源社区的期待,还有组织结构的调整……这种高压环境下的微妙平衡,其实非常难以掌握。


一旦这样的人选择离开,新来的负责人能否撑起产品和市场期待?是否认同原来的技术路线和开源策略?核心成员会不会愿意在空降领导麾下继续工作……这些问题,在公告里是看不到答案的,只能交给时间和结果。


4


过去一年,中国的大模型开源阵营强势崛起,DeepSeek、Qwen、ernie、Moonshot AI(Kimi)、Z.ai(GLM)、MiniMax等,反复出现在全球榜单,同时在我们这样的国内开发者心里撑起了某种“我们也可以”的信心。


尤其是Qwen,有阿里云的基础设施、有大厂的工程能力;另一方面,是它在开源策略上的还是挺激进的:不断放出高质量的权重,把0.5B到几百B的整个模型领域填得越来越满。


中国的开源实验室,让做AI应用的团队,多了很多“本地可用”的选择,不必事事依赖闭源API;做研究的人,多了一堆可以fork、可以调整的基线;甚至普通的开发者,也能在自己电脑上跑起一个像样的模型,而不是永远停留在“注册账号→充钱→依赖一个黑盒子”的这件事上。


Qwen 3.5很可能会成为一个标志性版本——它既代表了一段技术高光时刻,也可能标记着一个阶段的结束。


但故事不会就此终止。人才流动—团队重组—新项目诞生,本来就是技术和产品生态的常态。AI时代,这个变化会更加剧烈。


5


前天推荐了锤科前同事刘炯的作品Tabbit,我写到:这个时代最佩服的还是有作品的人。


林俊旸们做出了优秀的开源产品,这个无论他是否离开团队,Qwen都是他们团队的代表作。期待这些年轻人未来有更好的作品问世。


至于开发者和公司,Qwen 3.5的权重已经开源,有阿里托底,该咋用咋用。更健康的看法是——模型只是当下最合适的工具,人则是有自己人生路线的创作者,而不是公司附属品。


已经被验证的技术路线不会凭空消失,模型也不会轻易被遗忘。对普通开发者来说,关注趋势和变化,保持对好工具的敏感度,然后用AI增强自己和团队的能力,大概就可以了。大家都得继续向前。

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

大 家 都 在 搜