扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
过度依赖AI导致职业危机的案例频发,揭示AI工具虽能提升效率,但盲目信任可能引发决策失误、团队矛盾甚至岗位淘汰,人类需在AI协作中保持判断力与责任感。 ## 1. 足球教练的AI训练闹剧 - 索契俱乐部前教练莫雷诺用ChatGPT制定训练计划,包括凌晨5点起床、28小时不睡觉等反人类方案,导致球队7场仅得1分被解雇 - AI推荐的引援前锋10场零进球,暴露AI在专业领域决策的致命缺陷 ## 2. 律师行业的AI造假风波 - 纽约律师用ChatGPT生成含6个虚构判例的诉状遭处罚,引发法律界对AI幻觉的警惕 - 北京律协已要求AI生成文书需三级人工审核并标注,反映行业监管快速响应 ## 3. 程序员的AI依赖陷阱 - 硅谷资深程序员拒绝修复AI生成代码的bug,声称"AI完成即我的工作",最终因破坏团队协作被裁 - 调查显示大模型在法律文书处理中应用最广,但需与人工专业判断结合 ## 4. 产品经理的AI反噬危机 - 亚马逊2025年裁员中产品经理岗位削减最多,因AI被认为能直接设计产品 - 某产品经理积极推动AI转型后,其整个部门被判定"AI时代不再需要"遭集体裁员 ## 5. 人类靠谱性的不可替代价值 - AI错误最终需人类担责,如足球队战绩、法律文书造假等后果均由使用者承担 - 保持专业判断、团队协作和责任感,是AI时代人类的核心竞争力
2026-02-03 09:25

第一批笃信AI的人,也被解雇了

本文来自微信公众号:脑极体,作者:风辞远,头图来自:AI生成


最近有这么个新闻,还怪幽默的。1月25日消息,俄甲知名俱乐部索契透露了前教练罗伯特·莫雷诺被解雇的原因:他让AI替他工作。


这位前西班牙国家队教练,大概是网上大家羡慕的那种最先拥抱AI的人。作为ChatGPT的忠实粉丝,他让AI来做球队的训练规划,并且严格执行。ChatGPT要求比赛前两天早上五点起床,七点训练,他就要求球员们照做;ChatGPT说球队必须28小时不睡觉,他也这么办了。球员们可能都懵了,这是干啥呢?AI是在我们身上测试以后奴役人类的集中营吗?


即使是买球员这种大事,罗伯特·莫雷诺也让AI来做决定。结果ChatGPT选择买的前锋十场比赛一球没进。这位笃信AI的先锋派教练,也在带队七场比赛仅拿一分后灰溜溜离开了球队。


这几年,我们总是把目光放在“AI又能做什么了”“AI快要取代我们了”。结果导致“AI很神”成了一种常规化叙事。现实中,也确实开始看到有人因为被AI替代而遭遇裁员。


但在这个故事的另一面,很多身体力行,率先笃信AI能力的人,反而也丢掉了工作。


偷懒的律师


去年,我在参加一个大模型研讨会时得知,国内很多主流大模型排名第一的专业类应用场景出奇一致:看合同和诉状。有了大模型,很多法律相关的专业门槛确实得到了极大降低。但如果你本身就是法律专业人士,那还是谨慎使用AI为妙。


2023年,BBC报道过这样一个案例。在纽约一起涉及航空公司的个人伤害案诉讼中,原告律师遭到了处罚,相关律所也被判承担连带责任。处罚原因在于,这位有三十年工作经验的资深律师,大概是觉得这么轻松的工作不太值得自己动手,于是让ChatGPT来生成诉状。


结果那个广为人知的大模型幻觉发动了。法官发现,在原告律师提交的案例中,有六个司法决定都是AI伪造的,连带还有虚假的引用和内部引证。第一次面对AI造假的法官肯定也是懵的,心想你往里面塞一个假判例就算了,六个全是假的。这是科技的堕落还是法律的沦丧,看我弄不弄你就完事了。


结果后来法律界发现,再严谨的行业也挡不住想要偷懒的从业者。用AI生成诉状,结果遭遇大模型幻觉的新闻越来越多,欧美律师行业真正迎来了一次智能涌现。即使在国内也出现了类似案例,北京律师协会已经明确要求法律文书必须经三级律师交叉审查,并标注“AI辅助生成,已人工审核”。


被解雇的程序员


提起AI替代工作,人们首先会想到的是两种:设计师与程序员。但换个思路想想,这两种工作也是最适合用AI来替自己工作的。前提是,别做得太明显。


去年有这样一个案例,一位硅谷资深程序员完全依赖GitHub Copilot生成代码,并且生成用AI替自己工作就是更好的选择,也是自己的权力。由于这位程序员大哥岁数颇大,临近退休,最开始公司还不太想招惹他。结果后来越来越过分,他开始拒绝亲自参与任何工作。比如他会认为AI生成代码里的bug,凭什么要我去修?其他同事就说了,但这是你负责的工作啊?大哥表示,我的工作都交给AI了。可以说是在逻辑上实现了闭环。


虽然自己完全依靠AI来工作,但大哥PUA下属的时候立场转换的非常丝滑。他会恐吓新人必须好好工作,否则AI马上会取代你们的职位。


事情到这里,估计他的老板也懵了。哦,AI能取代新人的职位,你还用AI替你工作。那我直接用AI取代你不完事了?于是公司以 “影响项目进度”和“造成心理伤害”解雇了他。


无独有偶,去年我们采访过一位硅谷程序员。可能咱们华人没有那么理直气壮,他是悄咪咪地用AI替自己工作。然后就在工位上喝喝咖啡,追追剧什么的。但这种神仙日子也没持续多久,公司发现之后也是解雇了事。


消失的产品经理


最后一个故事有点另类和小众,但我觉得也有讲述一下的必要。


首先需要探讨一个背景,2025年硅谷迎来了一场大裁员。这也被称为人类历史上第一次由AI驱动的大规模就业岗位缩减。当我们分析被裁掉岗位的时候,会发现收缩最多是不是程序员与设计师,而是产品经理。


比如说,亚马逊宣布从2025年10月开始启动3万人的新裁员。而其中裁员量排名第一的就是PM(产品经理),其次是TPM(技术项目经理)和SDM(软件开发经理)。那些需要与多部门协商、产品沟通能力驱动的岗位,反而成了AI化转型中最先被下手的职位。


几乎同一时间,我在一次展会上偶遇了一位朋友,他的经历印证了产品经理岗位的危险性。他说自己非常相信AI技术,笃信AI一定是未来。因此在一家软件公司担任产品经理的他,率先在公司大群里提出了AI转型的必要性。后来老板非常重视,单独找他听了两次汇报。大老板作为他的+3,日常是沟通不到的。因此那段时间他坚信学习和了解AI给自己带来了机会。


后来呢?我问。


这位朋友有点怅然,踟蹰了一会他说,后来我被裁员了,是整个部门都裁掉。听说是老板跟股东以及外部智库开了几次会,结论是AI时代最不需要的就是产品部门,以后的产品肯定是AI设计的而不是人。于是他被裁了,但临走时老板让秘书送了他,说是以后有事说一声,公司忘不了他。


听到这我都懵了。这是我遇到过最黑色幽默的AI故事。合着AI是把回旋镖,还能打出去正中我自己?我稳了稳心神跟他说,这种公司走了就走了吧,走了可能反而是福报。


尽信AI,不如无AI


都说尽信书不如无书,那么在今天,尽信AI可能也不太行。


AI确实充满了想象力,信息场域也在渲染它的能力和效果。但当我们真的放开方向盘,让AI代替我们在职场行驶的时候,可能往往会经历这样的一系列过程:第一步,哎呀还真行,开起来了;第二步,既然AI能开车,那我干脆睡一会儿吧;第三步,车撞了。


AI还远没有想象得那么美好。盲目相信它,往往会导致我们像足球教练那样,忽略AI所犯下的错误;像那位程序员大哥,忽略与团队的协作以及对人的尊重;又或者像那位产品经理的老板,被AI俩字忽悠到不知天地为何物。


一个关键问题是,AI不会为自己犯下的错误承担责任。最终结果还是要我们这些人类来自行承受。


如果说能从这些故事里强行总结点什么,那或许应该是这样一句话:靠谱是21世纪人类的最大美德。想要在AI时代保持作为人类的竞争力说不定很简单,只要我们足够靠谱,再找个靠谱公司就行了。


本文来自微信公众号:脑极体,作者:风辞远

本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。
如对本稿件有异议或投诉,请联系 tougao@huxiu.com。

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: