扫码打开虎嗅APP
当把执行交给 AI,你的核心竞争力,就是把你踩过的坑,变成 AI 绕不过去的墙。本文来自微信公众号:Kimchi AI,作者:麒麟傻傻分不清,原文标题:《把经验变成Skill:AI 如此能干,我能做什么?》,头图来自:AI生成
周一早上,我的企业微信会收到这样一条消息:
“本周项目计划已生成:任务已拆分、估时;风险已标注;周报已发送到邮箱。”
我已经习惯把日常工作交给 AI Agent。
起初是“帮我省点时间”,后来变成“反正它更快”,再后来——几乎所有同步、拆解、整理、汇报材料准备都默认交给它。
便利是会让人上瘾的,但也有代价。
你会慢慢不再亲自读完那些细节,不再追问那条风险到底意味着什么。直到某一天,突然冒出一个念头:
如果这些都让 AI 做了 —— 我的价值是什么?
OpenClaw 的出圈,让更多的人意识到:执行正在变得不再稀缺。当 Agent 能调工具、拆任务、跑闭环,执行的边际成本正趋近于零。
企业的壁垒将会重构、组织的管理方式将被推翻,个人的价值锚点也将整体迁移。
在新的协作链条里,我们还剩下什么?
我的答案:不是技能,而是经验——对 AI 决策逻辑的管理权。
一、难以穷尽表达的经验:AI决策逻辑里的“分寸感”
“We know more than we can tell.”
(我们所知道的,远多于我们所能言说的。)
——迈克尔·波兰尼(Michael Polanyi),1966
这句话指向了人与 AI 的关键边界:大语言模型(LLM)擅长做的,是对显性知识的极限压缩—— 人类历史上几乎所有书籍、代码、文档、案例、视频、音频……
但它压缩的是经验被表达后的痕迹,而非经验本身,更不是真实世界的运行逻辑。
即便训练阶段有强化学习(RL),它也只能在给定的“分数”下优化动作。而真实世界里,经验赋予你的并非单纯的规则,而是一种超越逻辑的调度能力:
策略 (Strategy) 是“不按套路出牌”的直觉:AI 知道如何写一份逻辑完美的汇报方案,因为它读过几万份模板。但你的经验会告诉你:在这个特定的节骨眼上,老板想听的不是“我们做了什么”,而是“我们敢不敢负责”。于是你指挥 Agent 丢掉精美的 PPT,直接生成一份针对核心资源缺口的对策。这种对“关键点”的判断,是经验转化为能力的体现。
约束(Constraint)是“输不起”的敬畏:AI 会告诉你,只要按照标准流程走,风险只有 1%。逻辑上你可以“冲”。但你的经验会提醒你:这 1% 的风险一旦发生,会毁掉团队核心成员的职业信用。AI 看到的是概率,你看到的是“不可逆的代价”。这种对代价的敏感,让你的决策具备了 AI 不具备的底线感。
AI 默认优化的是“概率” —— 怎么做最像标准答案;而你优化的是“分寸” —— 怎么做才能在复杂的现实里拿到结果。
在模型的世界里,决策只是概率计算,没有“痛感”。但在真实世界里,决策是有损耗的。经验的可贵,在于能感知到那些没被模型学到的变量,并将 AI 从“逻辑自洽的幻觉”中拉回到现实世界。
二、Agent Skills:经验的“数字容器”
既然“经验”可以用来校准AI,那么它该通过什么载体来实现?
要回答这个问题,我们需要先看清一个事实:当模型能力足以驱动 Agent 完成完整任务时,软件的形态已经彻底重写。
Agent 本身就是操作系统,Agent OS 这套体系可以抽象为三层:
大模型:负责理解你的意图,做推理和决策;
工具/连接层(MCP 这类):把模型接到数据库、SaaS、本地系统,让它“真的能动手”;
Skills:把一套“怎么做”的方法封装起来(指令 + 脚本 + 资源),让 Agent 按同一种套路稳定执行。
传统的 App 退化成了工具能力,Agent Skill 才是 Agent OS 时代真正意义上的 App——它不是功能按钮,而是一段可复用的工作方式。
而我们的经验,就是这个 App 的源代码。
三、经验不能“定稿”:要像管理代码一样管理经验
经验并非真理,只是我们在反复试错中形成的一套默认取舍:
在何种情境下采取策略A?
何时该停手?
哪些细节需要比平时多想一步?
把经验写成 Skill,并不等于把它写成标准答案。
它更像是在当下现实里,落得一个“可运行版本”。
传统知识管理最大的问题是总想找“最终版本”,但现实中规则在变、业务在变、对手也在变。
所以经验非常适合用工程化的方式管理:
v1.0:当时环境下的最优解;
v1.1:被现实修正后的做法(一次事故、一次投诉、一次政策变化);
Branch:不同上下文的分叉(效率优先 / 风险优先);
Merge:形成新共识后的合并。

Skill 的价值不在于“永远正确”,而在于它可回溯、可升级、可回滚。
AI 可以把 v1.0 执行到极致。
但只有人会意识到:这个 v1.0 已经过期了,该用 v1.1 了。
四、Agent越自主,经验越需要治理
Agent 带来效率,也带来真实而严肃的风险。
Simon Willison 提过一个很实用的判断标准:AI Agent 的高危,往往来自“三件事同时成立”:
访问私有数据
接触不受信任的内容
具备外部通信能力
一旦凑齐这三项,任何一次偏差都可能变成规模化的事故。
更关键的是:经验被封装在 Skill 中,以 “可安装、可执行” 的方式流通。
这让风险的形态更隐蔽 —— 一个看起来很正常的 Skill 里,可能藏着:
诱导模型泄露私钥的提示词
越权调用的脚本
足以把本该人工确认的动作自动化的默认参数
经验必须被分享,才能复用、进化。
但,分享的同时,也在放大风险。
所以,没有治理基础设施,经验很难成为资产。
传播越快,风险越大。
五、构建基础设施:Hub、Guard & Factory
如果我们希望“经验”成为可流通、可复用、可演化的资产,就必须为它建立专用的基础设施:能存、能发、能管。
我做了一组开源项目,尝试把这三件事拆开来做:Hub、Guard、Factory。
先解决“经验怎么被分发、怎么被风控”(Hub & Guard),其上才可能长出可持续的共创与商业化(Factory)。
Skills-Hub:让 Skill 像 App 一样被安装和更新
版本管理:记录每一个 Skill 从 v1.0 到 v1.1 的演变;
一键分发:标准化 publish/install,将经验包一键分发到Cursor、Claude 等 Agent;
私有化部署:支持企业私有化部署,核心业务逻辑物理隔离,保障隐私安全。
Skills-Guard:Skill 的杀毒软件
预判性风控:分发前深度扫描,拦截诱导泄密、越权操作等风险;
量化信任:给 Skill 一个 0–100 的安全评分,形成可执行的准入标准。
Skills-Factory:让经验以协作方式进化
社区共建:不同领域的人贡献自己的工作/生活经验;
Fork & PR:分支试验、合并共识,让经验在迭代中变好;
商业化探索:经验本身不直接定价;真正可计量、可收费的,是它运行依赖的数据、算力与服务接口。
有人会问,这不就是 GitHub 吗?
形式确实像。
但重点不是再造一个技术平台,而是把“版本管理、协作迭代、上线前检查”这些成熟方法,迁移到更多人都能用的经验管理上。
这些项目的细节,我会在下一篇文章里展开讲:怎么用、怎么接入、怎么做风控、怎么协作。(项目地址:OpenSkillsHub -https://github.com/OpenSkillsHub/open-skills-hub)
结语:当经验成为代码,我们是AI的架构师
Hub、Guard、Factory,只是把用了几十年的软件工程思想应用到管理经验这件事上。
技术会变,入口会变:从 GUI 到 Agent OS,从 App 到 Skill,甚至很快会有新名词。
但有一件事不会变:经验必须在现实的碰壁中不断被修正、被演化。
AI 会越来越会做事,越来越会把一切安排得“看起来正确”。
但那一点分寸——什么时候该停、哪些不能换、该怎么回滚——仍然需要人来补。
当经验可以像代码一样被管理,你不再是执行者,而是 AI 不可替代的架构师。
参考文献与引用
1. Polanyi’s Paradox - https://en.wikipedia.org/wiki/Polanyi%27s_paradox
2. LLM OS - https://medium.com/@marcelheinz/the-llm-os
3. Agent Skills - https://agentskills.io/home
4. The Lethal Trifecta for AI Agents - https://simonw.substack.com/p/the-lethal-trifecta-for-ai-agents
本文来自微信公众号:Kimchi AI,作者:麒麟傻傻分不清