扫码打开虎嗅APP
本文来自微信公众号: 企业管理杂志 ,作者:何志军 曹院平
当下,企业面临的核心挑战不再是“是否做AI”,而是如何把AI嵌入组织的核心流程与运营模型,这意味着AI已经开始重塑组织本身,并给管理逻辑带来冲击。所以,真正焦虑的不是技术人员,而是管理者。那些曾经支撑组织稳定运行的流程、审批、经验与层级正被逐一解构,管理者赖以立足的安全感正在快速消失。这迫使管理者重新思考如何进化,才能避免被架空或者被代替,重新找到被需要的价值。
章华是某PCB(印刷电路板)制造企业的质检总监,带领质检团队已经八年,他经验丰富,一向亲力亲为。然而,在企业部署AI视觉质检系统半年后,他发现自己正在逐步被边缘化,AI系统将检测数据实时同步至工程师移动端,原有的信息汇总环节被跳过;基于算法的自动放行机制取代传统的人工审批流程;团队成员在处理质量异议时,更倾向于采信AI量化分析而非他的经验判断。章华心中泛起前所未有的失落感:“我还有没有价值?”
在AI快速渗透的今天,章华的困境并非个例。据埃森哲调查,约60%的员工在组织引入AI系统后,担忧技术会带来角色模糊与价值焦虑。该现象在中层管理者群体中尤为明显。这种普遍性不适背后,是传统领导模式与智能化组织逻辑之间的结构性错位,当组织形态从科层制转向网络化,当管理者的信息垄断与经验权威两大基石被击穿,当AI开始承担信息传递、常规决策工作时,他们的合法性根基正在被侵蚀,若不主动实现能力进化,将面临被架空的危机。
面对这场由技术驱动的领导力范式变革,许多管理者的第一反应是抗拒或回避。有人固守流程的最后一道审批权,有人质疑AI的判断而频频干预,也有人陷入自我怀疑。然而,焦虑本身不是答案,执着于旧地图的人,无法抵达新大陆。那些率先穿越迷雾的管理者用实践验证了一个道理,即AI时代的领导力危机,不是职业的终点,而是进化的起点。
章华就是那些穿越迷雾的领导者之一。一年后的他,坐在同样的办公室里,却有了完全不同的心境。屏幕上AI实时质检数据显示:良率99.8%,边缘案例3件需复核,异常预警1条待追溯。他快速分配任务,随后带着数据走进会议室,工艺、生产、来料等各部门的同事已经到齐,准备开始每周的追溯会。这样的一天,已经成为日常。一年前的焦虑彻底消失了。
从被架空到被需要,复盘章华自我进化的历程,可将其提炼为六个关键步骤。
1.接纳焦虑情绪
章华的焦虑来自三个方面:一是价值焦虑,“如果AI更准,我的经验还有什么用?”二是身份焦虑,“如果流程不再需要我签字,我还是管理者吗?”三是信任焦虑,“如果团队更相信机器,我还能被谁需要?”但在一次与数字化转型顾问的对话中出现了转机。顾问指出,被AI架空非管理者的失败,而是解放。真正的问题是搞清楚“AI不能做什么”,才能解决“我还能做什么”的问题。这句话触发了章华的彻底转变,即从被架空的受害者心态转向寻找新价值的建造者心态。
章华的焦虑本质上是传统管理模式在AI冲击下的合法性危机。以信息垄断和经验权威为基础的领导模式,在AI承担信息传递与常规决策后失去根基。管理者首先需要完成的不是技能升级,而是心理层面的重构:承认旧模式失效的必然性,将焦虑从需要克服的障碍转换为提示改变的信号。这种认知重构是后续转型的基础,也是管理者从被动应对转向主动进化的起点。
心态转变只是开始。当章华不再焦虑被AI架空,他需要回答的下一个问题是:如果AI已经做了那么多,我究竟还能做什么?
章华决定系统解析AI的能力边界。通过一周的流程复盘,他发现三个AI无法替代的领域:
第一,AI能检测缺陷,但无法判断缺陷在不同应用场景下的重要性差异;
第二,AI能识别异常趋势,但无法追溯趋势背后的根本原因;
第三,AI能输出数据报表,但无法将数据转化为具体的改进行动。
基于以上三点,章华明确了自身新的价值定位:判断场景、追溯根源、推动行动,这些也正是其二十年经验的核心价值所在。
该发现也印证了人机协同的互补性原理:AI的优势在于处理结构化信息、识别显性规律、高效执行规则;人类的不可替代性则体现在情境判断、归因分析、意义转化等非结构化认知活动。管理者重构价值锚点的关键,不是与AI比拼其擅长的领域,而是识别AI能力盲区,即那些算法无法触及、但组织真正需要的价值空间。这一步完成了从“我能做什么”到“AI不能做什么,所以我要做什么”的思维转换。
找到价值锚点后,要有效弥补AI的缺陷,就必须与AI达成共识,形成一套协同规则,划清权责边界,大家各司其职,才能使工作高效有序进行。
章华主动联合公司IT人员与外部数字化转型顾问,共同设计人机协同规则。规则体系包含五个层次:常规缺陷由AI全自动处理,阈值边缘案例由AI预警、人工复核,异常趋势由AI触发、团队追溯根源,质量标准由人工主导动态优化,新人培养由AI提供案例、人工讲解逻辑。这套规则将人机权责边界从模糊对立转化为清晰分工,形成可操作的协同规则。
协同规则的设计本质上是对人机分工达成共识的过程,章华所做的不是简单地将任务分配给AI,而是根据任务的结构化程度、风险等级、经验依赖度等维度,构建了一个分层分类的决策授权体系。这一过程体现了社会技术系统理论的核心思想:有效的组织运行不仅需要技术系统的效率,更需要社会系统(人)与技术系统(AI)之间的规则适配。当规则清晰时,人机关系从“谁替代谁”的零和博弈转向“各展所长”的协同共赢。
规则确立只是起点,而非终点。AI并非静态的工具,而是持续进化的系统。今天的模型参数,明天可能被新的数据覆盖;今天准确率99.7%的检测算法,后天可能因产品迭代而出现新的盲区。如果只懂业务不懂AI,当规则需要调整时,他只能被动等待IT部门告知;当AI出现误判时,他无法判断是模型问题还是应用问题;当团队质疑AI决策时,他更无力解释背后的逻辑。
所以,要真正驾驭这套系统,就必须理解它的运行逻辑——就像一位优秀的指挥官,不能只会下达命令,还必须懂武器的性能参数、射程范围和失效边界。于是,章华将目光从规则设计转向自我升级,决定先让自己成为团队中最懂AI的人。
章华主动申请到IT部门轮岗两周,系统学习AI的运行逻辑。这次学习不是要成为技术专家,而是要构建AI时代领导者必备的三种核心素养。
一是技术理解力。他深入了解了AI的判断依据、误差来源、模型更新方式与能力边界,亲手绘制“AI能力边界图”供团队参考。从此,他不再把AI视为“黑箱”,而是能清晰地说出“AI能做什么、不能做什么、什么情况下容易犯错”。
二是数据敏锐度。他开始重新学习看数据,由过去只看结论,转向看趋势、看分布、看异常点。一次AI周报显示B线良率小幅波动,按过去标准这不算问题,但他调出三个月对比数据,发现每次波动后一周都会有一次小幅下滑,于是提前介入,在问题扩大前解决了工艺参数漂移。
三是系统思维。他的思维方式从线性解决问题升级为系统优化,不再满足于把眼前问题解决掉,而是在每次“人机协同”后追问:“规则是否可优化?分工是否可改进?下次如何让AI更聪明?”
这三种素养,共同构成驾驭人机协同的元能力。当领导者自身成为最懂AI的人时,他们不仅可以驾驭AI,还能用通俗的语言解释AI的逻辑、化解团队的恐惧,用敏锐的数据洞察引导团队提前发现隐患,用系统思维带领团队持续优化人机分工。这时,他才能真正从“AI驾驭者”进化为“人机协同教练”。
许多企业花重金匹配最好的“枪炮”(AI工具),却倒在了“士兵”不会用、不敢用、不愿用的沟壑里。所以,员工技能必须重构。专业能力是基础,但如何让团队驾驭AI,才是决定AI工具效用的关键——毕竟,再先进的武器,也需要团队成员来操作。整个团队都要得懂怎么跟AI打交道,就像二十年前每个员工都要掌握电脑基础操作能力。
章华开始系统性地赋能团队:将自己在IT部门学到的AI知识转化为培训课程,每周举办“AI小课堂”,用通俗易懂的语言讲解AI的判断逻辑、能力边界和常见误区;针对不同岗位设计差异化的能力提升路径,让质检员学会如何从AI数据中发现问题,让工程师掌握如何优化AI模型参数;建立“人机协同案例库”,将团队实践中成功规避AI陷阱、教会AI新知识的案例沉淀下来,供全员学习。
通过培训赋能,质检员已能熟练地从AI推送的数据中提前识别异常趋势,主动介入隐患排查;工程师们开始独立优化AI模型的检测参数,使漏检率进一步下降;新员工通过案例库学习,上手时间从三个月缩短至三周。那位抵触AI的老员工,如今能熟练地教会AI识别十几种新缺陷类型,成为团队公认的“AI训练师”。当公司进行年度技能考核时,这支团队的“人机协同”专项评分位居全公司第一——这不是因为他们拥有最好的AI工具,而是因为他们真正掌握了驾驭AI的能力。
工具的效用不仅仅在于你的技术有多强,它根本上是对组织和人的挑战,成功的关键在于组织文化。一个能包容失败、奖励探索的协作文化,才能真正激发员工成为AI的驾驭者。
通过有意识的“讲故事”,将团队实践中闪现的价值片段提炼为文化符号。在质量例会上,宣扬某工程师教会AI识别新缺陷的案例,确立“AI盲区需要人类填补”的信念。在培训新人时,反复强调“AI是队友,人机各展所长”,让“人机协作而非竞争”的关系定位深入人心,甚至将团队重新命名为“质检2.0”,用这个新身份时刻提醒大家,我们不再是传统的质检员,而是与AI协同进化的质量守护者。
同时,调整激励机制,以鼓励更高质量的“人机协同”。在绩效评估中,增加原创性洞见、批判性分析、高质量决策等指标的权重,以表彰那些能够巧妙利用AI提升效率、又能提出独特见解的员工。设立“最佳人机协同实践奖”,鼓励团队分享他们在使用AI过程中的成功经验和失败教训,特别是那些有效规避了AI陷阱的案例。
人工智能不是人类才能的替代品,而是人类才能的放大器。对于领导者来说,目标应该是创造人工智能与员工和谐共存的文化,通过这种方式,清楚地传达人工智能的好处,以减少恐惧和抵制,并认可和奖励员工推动人工智能发展的成就。