扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
2026-01-09 22:38

在字节听烂了的那句话,后来成了我调提示词的利器

本文来自微信公众号: 简写2019 ,作者:余子申


我以前在字节上班那几年,“Context,not Control”这句话,是内部经常提及的一个行为准则(也算是企业文化吧)。


当时的语境是:别靠死流程、死审批去控人。你把目标、边界、为什么讲清楚,优秀的人自己就能做对决策。你越想把每一步都规定死,越容易把人变成只会等指令的执行器。


后来我开始大量跟AI协作:处理信息、写东西、做归纳、做改写。折腾过一堆复杂提示词之后,我反而越来越相信一个反直觉的结论:


调AI的本质,也是在做这四个字:Context,not Control。


更具体一点:AI好像更容易接受“你要它做什么(do)”,反而不太吃“你不许它做什么(not-do)”。


一开始我只是模模糊糊有这种感觉。后来我去搜了一下,发现还真有人专门做过评测:大模型对“否定/避免项”这类指令,稳定性确实更差,容易漏、容易跑偏。


这就解释了我最常见的体感:你越强调“不要”,它越容易在某个角落踩线。


一、AI的“逆反心理”:为什么not-do往往适得其反?


很多人优化提示词的第一反应是划红线:


不要AI味。


不要瞎编。


不要营销感。


不要提某品牌。


这种写法的问题不是“不对”,而是它天然有两处短板。


第一,它只给红线,不给路。你说“不要营销感”,AI不知道你要它往哪边走。是像新闻稿?像报告?像个人叙述?像吐槽?你没给路径,它只能靠猜。猜对了你觉得它“懂你”,猜错了你觉得它“很笨”。


第二,它会把禁区本身塞进注意力里。你在提示词里反复提“不要提X”,X反而成了上下文的高权重词。这就像那个老梗:你越让自己“别想粉色大象”,脑子里先出现的就是粉色大象。


所以我后来的经验非常简单,也非常粗暴:


能用do解决的,尽量别用not-do。


这个原则如果拆开,其实可以稳定地落到几种固定写法上:


A.把“禁止项”改成“允许项白名单”


不要:


不要提价格、不要提竞争对手、不要用夸张形容词。


改成:


只允许出现以下信息类型:{功能、限制、适用场景、步骤}。


措辞风格:{中性、可验证、避免评价性形容词}。


白名单通常比黑名单更稳,因为它直接把搜索空间缩小到“能做什么”,而不是让模型在一堆“不能做什么”里自己试探边界。


B.给出明确的“替代动作”


不要:


不要编造数据。


改成:


如果缺少数据:输出“未知/待验证”,并列出你需要的3条补充信息(字段名即可)。


这一步的价值在于,它把模型从“自作聪明补全”,拉回到一个明确的“缺口处理流程”。


C.把not-do变成“校验规则+返工机制”


不要:


不要出现任何品牌名。


改成:


输出后自检:扫描是否包含品牌名;


若有,重写对应句子为“类别词/泛称”,并在末尾给出替换清单。


这等于把一句口头禁令,变成了一个可执行、可复现的流程。


D.用“反例”往往比“禁止句”更有效


直接给一个“错误示例”(1–2句),再给一个“正确示例”。


在大多数情况下,模型对这种边界的理解,会明显好过只读一句“不要这样”。


一些研究里也提到,negative demonstrations本身是有效信号,但前提是结构化使用,而不是一句情绪化的否定。


二、我借了一个视角:不是“写指令”,而是“给上下文”


后来我还学会用一个更像“工程”的眼光看提示词:上下文工程(context engineering)。


先声明:我并不觉得自己在做什么正统的“工程”。我只是借这个视角提醒自己一件事——


当AI表现不稳定时,问题往往不在于你那句指令写得不够狠,而在于你给它的上下文不够清晰。


我把它压成四个动作,都是管理语言,不需要懂技术:


1)显性化:把你默认的“标准”写出来


很多人说“不要AI味”,其实是把一个很复杂的审美判断当成常识。


但AI不知道你的常识是什么。


它只知道它见过的语料里,最常见的“像样文章”长什么样——而那东西往往就是你讨厌的腔调。


所以你需要做的不是加一句“请更自然”,而是把标准写成动作。哪怕只有两三条也够用:


句子短一点。少用形容词,多用动词。先讲事实再给判断。


你把“审美”翻译成“动作”,它才有机会做对。


2)降噪:别把资料库当输入


很多时候AI写不对,不是因为它不聪明,而是你喂给它的背景太多,把关键信息淹没了。因为AI的记忆力也不好,你说的太多前面的也忘了。


真正有效的上下文,往往是“这一步只需要的那几条”。


你给它一吨资料,它未必更稳;你给它三条关键事实,它反而更能把结构搭起来。


3)提纯:替它先读一遍,再让它写


长研报、长材料直接塞进去,AI当然能读,但抓重点会变得不稳定。


我的习惯是先把材料压成“可执行摘要”:


关键数字、核心事实、已知缺口。


然后再让它基于这份摘要去写输出。


先提纯,再生成。这是我自己在“信息密度”上变得更稳定的一步。


4)隔离:把“规矩”和“材料”分开


这是最容易忽视的点:很多指令之所以失效,是因为你把要求和素材混在一起,模型分不清哪些是规矩,哪些是内容。


简单来说:不要把“你希望AI怎么做”(要求),和“你希望AI用什么信息来做”(材料)混在一起。


类比做菜,一个是食谱,一个是原材料。


我的做法很简单:


把“要求”放在一段,把“材料”放在另一段,中间用明显分隔。


你不需要复杂格式,哪怕是“规则:/材料:”也够用。


三、两个我最常用的改写逻辑


以下2个都是我给客户定制工作流时遇到的真实案例。


案例A:新闻编译


  • 控制型(not-do):不要瞎编,不要营销,翻译地道点。


  • 上下文型(do):1)事实边界:只基于原文2)兜底动作:信息不足就标【待确认】3)执行路径:固定结构“核心事实→关键数据→下一步”


你看,本质不是“更严”,而是“更可走”。


案例B:数据打标/分类


  • 控制型(not-do):每个维度都要打标,不许留空。


  • 上下文型(do):1)宁可留空也不要硬猜2)留空要说明触发逻辑缺失在哪3)判断优先级先定:品牌词优先,泛词靠后


你会发现:你不是在逼它“必须给答案”,你是在让它学会“什么时候应该闭嘴”。


最后:我对这句话的AI版翻译


Context,not Control放到AI这件事上,我现在有一个更白的翻译:


别把它当下属去管,像对强同事一样给上下文。


你把目标、边界、路径、兜底讲清楚,它自然能跑对方向;


你只画红线不给路,它就只能在红线边上反复试探。


稳定性的来源不是更严厉的约束,而是更充分的理解。

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: