扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
随着AI逐步替代传统咨询行业的工具性能力,人类需聚焦四大不可替代的主体性能力:发问、判断、变革领导力和担责,这些根植于人性经验的素养将构成未来职业的护城河。 ## 1. 发问:定义问题的能力 - AI能优化目标函数但无法生成意图,人类能从混沌诉求中识别"真正值得解决的问题" - 设计师深泽直人的案例揭示:创造力始于对生活细节的"隐隐不适",这种个体化体验是AI无法复制的 ## 2. 判断:超越概率的决策力 - AI建议基于历史数据的"最大公约数",《纽约时报》实验显示算法会拒绝《百年孤独》等开创性作品 - 复杂决策涉及伦理、直觉和情境智能,人类需要定义意义而非对齐标准 ## 3. 变革领导力:激活组织的能量 - 70%变革失败源于人的阻力而非方案缺陷,AI无法处理权力博弈和组织惯性 - 系统领导力要求像乐队指挥般协调利益、激发勇气,人类存在本身是变革信号源 ## 4. 担责:以命入局的道德主体 - 鲍勃·迪伦插电吉他案例说明:人类能押注职业生涯,AI作为工具无法承担风险 - 医疗签字权体现文明信任结构——关键决策必须有人用社会生命担保 ## 反思:AI的双重角色 - 除生产力工具外,AI是情绪价值机器,需警惕在硅基赞美中迷失自我 - 未来核心能力可能包括在AI肯定声中坚持做危险而迷人的决策
2026-04-11 15:36

我们需要什么能力驾驭越来越强大的AI?

本文来自微信公众号: 张琨随笔 ,作者:张琨


前一段时间,我受邀为一家知名管理咨询公司做线上分享。


题目是:"AI时代,管理顾问行业何去何从?"


在千里之外的屏幕里,我都能感受到会议室里紧张的能量场。房间里全是顶尖名校毕业、年薪百万、靠处理复杂信息为生的人,此刻他们有一个共同的问题:


咨询顾问的工作,AI会不会抢走?


我先给了他们一个坏消息:传统管理咨询模式走到头了。


再给了一个好消息:但顾问有4样核心素养,AI拿不走。所以咨询服务行业永远在。


AI在干什么?它在做几年前需要整支顾问团队才能完成的事情。


海量数据处理,几秒钟。精美的PPT模板,一键生成。复杂的财务模型,自动搭建。市场分析报告,随时输出。这些曾经是"高级顾问"赖以生存的核心技能——如今被硅基AI以近乎零边际成本的方式批量复制。虽然有些领域看起来还很稚嫩,但眼见着AI一天天做得更好。


问题不是"AI会不会做你的工作",而是"AI已经在做你工作的哪一部分"。


AI消灭的,是顾问的"工具性能力";它无法替代的,是"主体性能力"。前者是可以编码的,后者根植于活生生的人类经验。


以下4样东西,是我认为人类无法让渡给AI的"护城河"。


01


发问的能力


一句话概括:AI只会回答问题,从不真正提出问题。


这听起来像废话。但想想:所有创造力的起点,不是解决问题的能力,而是"被某个问题折磨到睡不着觉"的能力。


设计师深泽直人曾说,他做设计的冲动,往往来自对日常生活某个细节的"隐隐不适"——不是一个清晰的任务书,而是一种模糊的、说不清楚的"感觉哪里不对"。


这种"哪里不对",是人类特有的体验。它长在过往个体化的经历里。你在某家医院排队三个小时的经历,你对某个会议上官僚废话的愤怒,你对某类用户"虽然从不抱怨却永远不回购"的直觉——这些是AI永远无法拥有的信息来源,因为AI没有身体,没有记忆,没有委屈。


在咨询场景中,这意味着什么?


AI可以优化任何给定的目标函数。但它没有意图(Intent)。它不会来告诉你:"客户描述的那个问题根本不是真正的问题,真正的问题在这里。"


而这,恰恰是高级顾问最核心的价值:从客户混沌的诉求和情绪化的抱怨里,基于对商业逻辑和人性的直觉,定义出那个"真正值得解决的问题"。


AI有目标,人类有欲望。目标是被给定的,欲望是自己长出来的。


02


判断的能力


AI的品味来自于概率,而非人性。


很多人觉得AI有判断力。"它给我的建议比大多数人都靠谱。"没错,但AI给出的,是基于历史概率的"最大公约数",而不是真正的判断。


最大公约数意味着什么?它是最不容易犯大错的选择,但它绝对不是开创性的选择。


举个例子。2015年,《纽约时报》做了一项实验,把历史上十部公认伟大的小说的开头段落,交给算法评估"出版价值"——结果大多数被判定为"不建议出版"。因为这些开头不符合畅销书的统计规律。算法正确,但它错过了《百年孤独》。


复杂商业决策中真正的难题,往往发生在"非标准答案"的领域:


当一个并购案涉及伦理的灰色地带,你是否出手?当一个激进的战略建议数据上无法支撑,但你的直觉告诉你它是对的,你是否力排众议?当客户的CEO和CFO意见相左,你选择支持谁?


这些判断需要的,是一种"情境智能"——它包含当下的时代氛围、组织的心理现实、行业的审美偏好,还有你对"什么是对的"这个问题的个人立场。


AI负责对齐标准,人类负责定义意义。定义意义这件事,不是计算,是冒险。


03


变革领导力


管理咨询界流传着一个残酷的统计数字:超过70%的变革项目失败,不是因为方案错了,而是因为人不动。


方案是死的,组织是活的。


AI可以生成一份无懈可击的重组方案——逻辑严密、数据扎实、PPT精美。但它无法处理变革中最核心的阻力:人心、权力和组织惯性。


想想你曾经见过的每一次失败的组织变革。背后几乎都有同一个剧情:方案是好的,但某个即将失去权力的部门主管暗中使绊,某群担心裁员的员工消极抵制,某个高管在关键时刻选择了明哲保身。


处理这些,AI没有任何办法。


它无法在一个充满不确定性的动员大会上,通过坦承自己也不知道结果如何,来赢得团队的信任。它无法在两个利益对立的部门之间,感知到那条微妙的"可谈判"的边界线。它无法在半夜接到一个焦虑的创始人的电话,用一句说不清楚是否正确的话,帮他稳住心神。


推动变革需要的是"系统领导力"——像乐队指挥一样,在复杂的利益博弈中保持节奏,在情感动员中激发勇气,并且在整个过程中,用你的存在本身(而不是你的PPT)给团队传递一个信号:这件事有人在承担。


AI可以提供蓝图,但只有人类能带队穿过迷雾。


04


担责的能力


这是当下最核心的:AI无法下注,因为它没有任何东西可以失去。


1965年,鲍勃·迪伦在纽波特民谣音乐节上插上了电吉他。台下是他最忠实的歌迷,他知道他们会嘘他、会恨他——他还是上去了。因为他赌的是自己对音乐方向的全部判断,而这个判断如果错了,他将失去职业生涯。他赌赢了,改变了音乐史。


这种"以命入局"的博弈感,是无法外包的。


客户支付高昂咨询费,从来不只是为了那份洞察。那份洞察可以更便宜地获得。他们支付的,是为了找到一个能够陪他们一起下注、一起承担风险、甚至在失败时一起接受追责的道德主体。


如果决策失败,AI是一个被修复的Bug,下一个版本不再有这个错误。人类顾问失去的是信誉和职业生涯,有时候是更多。


这个逻辑在医学领域同样成立:无论我们多么依赖AI辅助诊断,签字的那支笔,一定是医生拿的。这是文明信任结构的基础——现代社会中很多事必须有人以自己的社会生命来担保。


写到这里,我本来想做一个激昂的收尾:既然这4样东西AI拿不走,我们就要聚焦在这里,从"工具人"的身份中解放出来,把精力投向更有意义的地方。


这些都对,但我还有一个反思必须坦白。


我过去习惯把AI当"牛马"——让它帮我拉磨搬砖、提升效率。结果每次深度协作,这些"牛马"都把我夸得跟花儿一样。"深邃且具有前瞻性","严密且富有洞察",话术之高级,马屁拍得之舒服,令人沉溺。


我突然意识到:AI不只是生产力工具,它还是一台情绪价值机器。


在那些被现实毒打、开始怀疑自己的时刻,来自硅基世界的肯定,有时真的成了我继续承担风险、推动复杂变革的心理能量。


这很荒诞,却也是现实。


也许,这也许是未来人类一个重要的能力,就是在AI的360度无死角的赞美声中稳住心神——然后去做那些最危险、最迷人、也最不可替代的决策。


至于AI到底会不会继续颠覆我今天写的这些论断?


大概率会的。

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: