扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
AI工具在办公场景中的普及暴露了组织协同、思维负荷、透明化焦虑等深层问题,一人公司因无协同摩擦更易受益,而人类创造力与AI的界限仍是未解之谜。 ## 1. 协同摩擦:AI无法解决的组织痛点 - 企业真正难题在于职责划分和权限确认,AI仅能暴露问题却无法解决跨部门协作的固有矛盾 - 一人公司因无职责边界争议,成为AI应用的最佳场景,印证了"协同成本决定AI效用"的规律 ## 2. 思维过载:被AI消灭的"摸鱼时刻" - 重复性工作消失后,人类被迫持续高密度思考,需处理AI工具学习、幻觉核查等新型认知负荷 - 团队管理面临挑战:AI抹去了"努力痕迹",迫使管理者转向纯思维质量评估,催生"提示词审查"现象 ## 3. 透明化悖论:人机协作的认知代价 - 使用大模型需完整交代背景/目标/限制条件,导致人类被迫高度透明化,沟通方式逐渐"Agent化" - 重要洞察:完全透明可能扼杀创造力,人类模糊矛盾的特质恰是抗衡高效AI的关键优势 ## 4. 平台依赖:被重构的工作本质 - 以QCLAW为例,AI工具在提升效率的同时形成新的数据层,导致工作内容向"维护Agent"演变 - 警示:岗位Agent化可能使员工职责异化为AI系统维护者,引发对工作本质的重新思考 ## 5. 终极界限:AI无法触及的人类特质 - 核心矛盾:诗歌创作、故事叙述等模糊领域,AI始终存在"进不去的结界" - 开放命题:这是技术缺陷还是根本界限,将决定未来人机协作的终极形态
2026-03-28 23:07

当AI真开始干活,问题才刚刚开始

本文来自微信公众号: 橙竹洞见 ,作者:竺大炜


最近频繁尝试OpenClaw类工具,在办公环境下用,在自己的个人电脑上用,但是,越用越累了。



网上一人公司的“故事”太多了,真让人焦虑。只要养好龙虾,睡一觉,起来就能看到大笔订单/收入,太美好了。


很自然地,我用“这个是不是可以claw”的眼光,审视工作中的每个步骤,就像有把无形的锤子,随时把它们砸成钉子。


但问题在于,在企业里真正复杂的,从来不是“怎么做”。


而是:这件事到底该谁做?有没有权限去做?做完以后领导认不认?


这些问题,AI其实解决不了。它只是把这些问题暴露出来,等着你去解决完成了,TA才可以干活。


一人公司,反而更容易用好AI。因为“一人”这种模式,天然清零了最致命的协同摩擦——没有职责边界的争论,没有跨部门的权限拉锯,也没有被动接活的内耗。



当然,也有不少重复性工作的确被解决了。


但过去那些“费时费眼睛,但脑子不累”的工作,其实是一种缓冲。


就像机械地削土豆皮时,大脑可以神游、充电、甚至无意识地消化难题。


现在,这些“摸鱼时刻”被AI填平了。我被推入持续的高密度思考中。


  • “又有新的AI工具要学习了…”


  • “又出新的AI名词了..,HARNESS”


  • “Deepseek提出来一个好思路,以前没想到,值得一试啊…”


  • “AI给出了这么长一段总结,这里面有没有幻觉,得检查一下”


AI消灭了低效的体力活,却成倍地制造了“高质量思考”的负荷。


再叠加一个现实:团队也在用AI。


以前我可以扫一眼,用“写了多少页”来判断下属的投入程度。现在不行了。


AI让“努力的痕迹”消失了,只剩下“思考的质量”。


如果是为了检验其能力水平,我不得不去问,“这里到底有多少是你自己写的?”或者直接问,你用了什么样的提示词?


如果是要拿到结果,我不得不更费劲地去思考,用什么样的标准去衡量产出?



用AI的当然不止自己团队,其他部门也在大批输出AI生成的报告。长篇大论下面,越来越多是“听君一席话,如听一席话”。


以前要手搓打字,即便是废话也要消耗体力,现在“废话文学”的代价小多了


当每个人的产出成本都趋近于零,那每个人的消费成本就开始暴涨。于是不得不用魔法打败魔法,去用AI总结,将报告结论直接给到我。


但是,总归有那么一点惶恐。


  • “AI说的这个挺新鲜,但会不会是幻觉?”


  • “AI说的这个挺新鲜,不试一下会不会错过,领导也看到了怎么办?”


  • “AI说的内容这么多,有没有更好的AI新工具总结一下,或者直接判断出结论?”




有一个新认识,就是大模型的能力其实相差无几,关键在于有记忆,能了解上下文。


为了让AI更好地帮助自己,我们开始做一件以前不需要做的事:不断把自己“讲清楚”。


回想一下过去使用传统搜索引擎的时代,系统通过我们的搜索词反推需求。那时,我们是“隐藏意图”的,只给出关键词,机器并不知道全部背景。


即便这样,大数据还是能够从片言只语里,“猜你喜欢”


现在呢,为了让AI给出更准确的结果,必须提供:背景、目标、限制条件、使用场景,要把问题讲得比对人还清楚。就像美剧里面去看心理医生一样,叨叨个没完。


为了让TA“喜欢”。


而在给团队布置任务时,我发现自己也越来越像在写提示词,信息完整、结构清晰、没有歧义。


但同时,我也不自觉地期待团队能像AI一样,快速响应、稳定输出、永远在线。


感觉这么下去,渐渐有向三体人发展的趋势。越透明,效率越高。


但是,人应该完全透明吗?


那些模糊的、矛盾的、甚至自我欺骗的部分,可能是创造力的源泉,也可能是最后的心理安全区。


在三体故事中,人类就是靠了隐晦的故事比喻,才制衡了高几个效率层级的三体人。


完全透明意味着把自己压缩成AI可理解的数据,是不是也意味着会被AI完全看穿?



昨天我卸载了QCLAW。安装确实方便,但不好用。


比如我设置了一个每天发送新闻简报的定时任务,测试的时候OK。但实际没有发送,检查了一下,说要设置微信ID,然后一顿交流,它终于找到了。


这个过程本来不应该发生,微信不应该比我更清楚我的微信ID是啥?


当然我相信,类似问题肯定可以解决,QCLAW会越来越好用。


但是,这件事本身提醒我,在我和AI之间又多了一层。假如我要对AI透明,那么我也会对QCLAW透明。即便有什么机制保证隐私,但趋势一定会是让我把数据和内容都放到这个平台的云上,操作才更加无缝高效。


于是,我的思维模式会沉淀在SKILL里,我的历史数据留在平台,我的沟通方式会更加像一个Agent。


今天在企业里面,我们说,每个员工都需要有一个Agent。


这很快就会变成,每个岗位,都需要一个Agent。


接下去,每个岗位就是一个Agent。


那么一个自然的问题是:未来,员工的职责,会不会就变成“维护岗位Agent”?


********************************************************


我不知道。


但我越来越觉得,这个问题的答案,可能不取决于AI有多强,而取决于我们怎么看待那些AI做不到的事。


那些模糊的、不透明的、说不清的东西——


比如写一首好诗,


比如讲一个让人记住的故事,


AI好像一直进不来。


这是暂时的缺陷,


还是某种更根本的界限?


我还没有答案。


下一篇文章,我想聊聊这个。

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

大 家 都 在 搜