扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
2026-02-11 11:31

AI如此能干,你能做什么?

当把执行交给 AI,你的核心竞争力,就是把你踩过的坑,变成 AI 绕不过去的墙。本文来自微信公众号:Kimchi AI,作者:麒麟傻傻分不清,原文标题:《把经验变成Skill:AI 如此能干,我能做什么?》,头图来自:AI生成


周一早上,我的企业微信会收到这样一条消息:


“本周项目计划已生成:任务已拆分、估时;风险已标注;周报已发送到邮箱。”


我已经习惯把日常工作交给 AI Agent。


起初是“帮我省点时间”,后来变成“反正它更快”,再后来——几乎所有同步、拆解、整理、汇报材料准备都默认交给它。


便利是会让人上瘾的,但也有代价。


你会慢慢不再亲自读完那些细节,不再追问那条风险到底意味着什么。直到某一天,突然冒出一个念头:


如果这些都让 AI 做了 —— 我的价值是什么?


OpenClaw 的出圈,让更多的人意识到:执行正在变得不再稀缺。当 Agent 能调工具、拆任务、跑闭环,执行的边际成本正趋近于零。


企业的壁垒将会重构、组织的管理方式将被推翻,个人的价值锚点也将整体迁移。


在新的协作链条里,我们还剩下什么?


我的答案:不是技能,而是经验——对 AI 决策逻辑的管理权。


一、难以穷尽表达的经验:AI决策逻辑里的“分寸感”


“We know more than we can tell.”


(我们所知道的,远多于我们所能言说的。)


——迈克尔·波兰尼(Michael Polanyi),1966


这句话指向了人与 AI 的关键边界:大语言模型(LLM)擅长做的,是对显性知识的极限压缩—— 人类历史上几乎所有书籍、代码、文档、案例、视频、音频……


但它压缩的是经验被表达后的痕迹,而非经验本身,更不是真实世界的运行逻辑。


即便训练阶段有强化学习(RL),它也只能在给定的“分数”下优化动作。而真实世界里,经验赋予你的并非单纯的规则,而是一种超越逻辑的调度能力:


  1. 策略 (Strategy) 是“不按套路出牌”的直觉:AI 知道如何写一份逻辑完美的汇报方案,因为它读过几万份模板。但你的经验会告诉你:在这个特定的节骨眼上,老板想听的不是“我们做了什么”,而是“我们敢不敢负责”。于是你指挥 Agent 丢掉精美的 PPT,直接生成一份针对核心资源缺口的对策。这种对“关键点”的判断,是经验转化为能力的体现。


  2. 约束(Constraint)是“输不起”的敬畏:AI 会告诉你,只要按照标准流程走,风险只有 1%。逻辑上你可以“冲”。但你的经验会提醒你:这 1% 的风险一旦发生,会毁掉团队核心成员的职业信用。AI 看到的是概率,你看到的是“不可逆的代价”。这种对代价的敏感,让你的决策具备了 AI 不具备的底线感。


AI 默认优化的是“概率” —— 怎么做最像标准答案;而你优化的是“分寸” —— 怎么做才能在复杂的现实里拿到结果。


在模型的世界里,决策只是概率计算,没有“痛感”。但在真实世界里,决策是有损耗的。经验的可贵,在于能感知到那些没被模型学到的变量,并将 AI 从“逻辑自洽的幻觉”中拉回到现实世界。


二、Agent Skills:经验的“数字容器”


既然“经验”可以用来校准AI,那么它该通过什么载体来实现?


要回答这个问题,我们需要先看清一个事实:当模型能力足以驱动 Agent 完成完整任务时,软件的形态已经彻底重写。


Agent 本身就是操作系统,Agent OS 这套体系可以抽象为三层:


  • 大模型:负责理解你的意图,做推理和决策;


  • 工具/连接层(MCP 这类):把模型接到数据库、SaaS、本地系统,让它“真的能动手”;


  • Skills:把一套“怎么做”的方法封装起来(指令 + 脚本 + 资源),让 Agent 按同一种套路稳定执行。


传统的 App 退化成了工具能力,Agent Skill 才是 Agent OS 时代真正意义上的 App——它不是功能按钮,而是一段可复用的工作方式。


而我们的经验,就是这个 App 的源代码。


三、经验不能“定稿”:要像管理代码一样管理经验


经验并非真理,只是我们在反复试错中形成的一套默认取舍:


  • 在何种情境下采取策略A?


  • 何时该停手?


  • 哪些细节需要比平时多想一步?


把经验写成 Skill,并不等于把它写成标准答案。


它更像是在当下现实里,落得一个“可运行版本”。


传统知识管理最大的问题是总想找“最终版本”,但现实中规则在变、业务在变、对手也在变。


所以经验非常适合用工程化的方式管理:


  • v1.0:当时环境下的最优解;


  • v1.1:被现实修正后的做法(一次事故、一次投诉、一次政策变化)


  • Branch:不同上下文的分叉(效率优先 / 风险优先)

     

  • Merge:形成新共识后的合并。



Skill 的价值不在于“永远正确”,而在于它可回溯、可升级、可回滚。


AI 可以把 v1.0 执行到极致。


但只有人会意识到:这个 v1.0 已经过期了,该用 v1.1 了。


四、Agent越自主,经验越需要治理


Agent 带来效率,也带来真实而严肃的风险。


Simon Willison 提过一个很实用的判断标准:AI Agent 的高危,往往来自“三件事同时成立”:


  • 访问私有数据


  • 接触不受信任的内容


  • 具备外部通信能力

 

一旦凑齐这三项,任何一次偏差都可能变成规模化的事故。


更关键的是:经验被封装在 Skill 中,以 “可安装、可执行” 的方式流通。


这让风险的形态更隐蔽 —— 一个看起来很正常的 Skill 里,可能藏着:


  • 诱导模型泄露私钥的提示词

 

  • 越权调用的脚本

 

  • 足以把本该人工确认的动作自动化的默认参数


经验必须被分享,才能复用、进化。


但,分享的同时,也在放大风险。


所以,没有治理基础设施,经验很难成为资产。


传播越快,风险越大。


五、构建基础设施:Hub、Guard & Factory


如果我们希望“经验”成为可流通、可复用、可演化的资产,就必须为它建立专用的基础设施:能存、能发、能管。


我做了一组开源项目,尝试把这三件事拆开来做:Hub、Guard、Factory。


先解决“经验怎么被分发、怎么被风控”(Hub & Guard),其上才可能长出可持续的共创与商业化(Factory)


Skills-Hub:让 Skill 像 App 一样被安装和更新


版本管理:记录每一个 Skill 从 v1.0 到 v1.1 的演变;


一键分发:标准化 publish/install,将经验包一键分发到Cursor、Claude 等 Agent;


私有化部署:支持企业私有化部署,核心业务逻辑物理隔离,保障隐私安全。


Skills-Guard:Skill 的杀毒软件


预判性风控:分发前深度扫描,拦截诱导泄密、越权操作等风险;


量化信任:给 Skill 一个 0–100 的安全评分,形成可执行的准入标准。


Skills-Factory:让经验以协作方式进化


社区共建:不同领域的人贡献自己的工作/生活经验;


Fork & PR:分支试验、合并共识,让经验在迭代中变好;


商业化探索:经验本身不直接定价;真正可计量、可收费的,是它运行依赖的数据、算力与服务接口。


有人会问,这不就是 GitHub 吗?


形式确实像。


但重点不是再造一个技术平台,而是把“版本管理、协作迭代、上线前检查”这些成熟方法,迁移到更多人都能用的经验管理上。


这些项目的细节,我会在下一篇文章里展开讲:怎么用、怎么接入、怎么做风控、怎么协作。(项目地址:OpenSkillsHub -https://github.com/OpenSkillsHub/open-skills-hub)


结语:当经验成为代码,我们是AI的架构师


Hub、Guard、Factory,只是把用了几十年的软件工程思想应用到管理经验这件事上。


技术会变,入口会变:从 GUI 到 Agent OS,从 App 到 Skill,甚至很快会有新名词。


但有一件事不会变:经验必须在现实的碰壁中不断被修正、被演化。


AI 会越来越会做事,越来越会把一切安排得“看起来正确”。


但那一点分寸——什么时候该停、哪些不能换、该怎么回滚——仍然需要人来补。


当经验可以像代码一样被管理,你不再是执行者,而是 AI 不可替代的架构师。


参考文献与引用

1. Polanyi’s Paradox - https://en.wikipedia.org/wiki/Polanyi%27s_paradox

2. LLM OS - https://medium.com/@marcelheinz/the-llm-os

3. Agent Skills - https://agentskills.io/home

4. The Lethal Trifecta for AI Agents - https://simonw.substack.com/p/the-lethal-trifecta-for-ai-agents


本文来自微信公众号:Kimchi AI,作者:麒麟傻傻分不清

本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。
如对本稿件有异议或投诉,请联系 tougao@huxiu.com。

大 家 都 在 搜