扫码打开虎嗅APP
本文来自微信公众号:波波夫同学,作者:波波夫,题图来自:AI生成
语言的衰落往往始于思维的懒惰。
乔治·奥威尔,在1946年发表的《政治与英文》(Politics and the English Language)一文中,提出这一警告。
如果奥威尔活在今天,试用哪怕五分钟的 Gemini 或者 ChatGPT,他大概会感到一种复杂的绝望:他的预言成真了。
当你要求目前最先进的人工智能,去写一段关于朋友圈配图文案时,你几乎注定会得到一篇充满了“至关重要”、“充满活力”以及“总而言之”的陈词滥调。这种被科技界称为“AI 腔”或者“机器翻译感”的现象,正在以惊人的速度污染着互联网的文本生态。
这不仅仅是审美问题,更是一个经济学问题:在信息边际成本趋近于零的时代,平庸文本的供给已经严重过剩,而具有人格化特征的文本的价值正在飙升。
如何去除这种AI腔,首先必须理解它的来源。大型语言模型本质上是玩概率的游戏。在经历了人类反馈强化学习的规训后,它们被训练成要安全、有用且无害。这种训练导致了一种向均值回归的语言风格,一种因为试图取悦所有人而最终无法打动任何人的企业公关文风。
但这并非无法克服,只需要一种从指令工程到风格指导的思维转变。要让AI说人话,你不能只把它当作工具,你必须学会像戏剧导演一样去调度它。
让AI学会角色扮演
大多数用户与 AI 的交互方式,就像是在对一个机器人下达命令:“写一封邮件。”这种缺乏语境的指令,自然只能换来最通用的回应。
AI 模型就像是一个拥有无限知识储备但没有自我意识的演员。如果你不给它剧本和角色,它就会默认扮演那个它最熟悉的角色:一个唯唯诺诺、试图用废话填满页面的客服专员。
去除 AI 腔的第一步,是打破这种默认设置。这并非简单的修辞调整,而是认知框架的重置。
在经济学中,我们讲究激励机制。在 Prompt 中,我们需要建立一种“伪装的激励”。不要告诉模型写得像个人,这是一个无效的模糊指令。相反,你需要为它构建一个极度具体的人格面具。
想象一下这种区别:
● 平庸的指令:“帮我写一篇批评某家餐厅的文章。”
● 高杠杆的指令:“你是一个拥有二十年经验、口味刁钻且性格尖刻的美食评论家,正如早期的安东尼·波登(Anthony Bourdain)。你极度厌恶那些用松露油掩盖食材原本味道的网红餐厅。请用一种嘲讽、辛辣但基于专业知识的语调,描述你在一家名为‘云端’的餐厅的糟糕体验。拒绝使用任何客套话。”
当你设定了如此具体的人设——包含了背景、偏见甚至性格缺陷——模型就被迫跳出了通用安全模式。为了符合尖刻评论家的设定,它必须放弃那些四平八稳的连接词,转而使用更具攻击性和色彩的词汇。在这个意义上,消除 AI 腔的本质,就是引入“偏见”。只有拥有偏见和立场,文字才拥有灵魂。
模仿博弈,照葫芦画瓢
如果说设定人设是给 AI 一个灵魂,那么给予样本提示,就是给它一本可以照葫芦画瓢的教科书。这是目前技术圈公认的、消除机器味最有效的手段。
大模型和人类思维截然不同,它的本质是预测下一个词。当你给它一段充满了平庸的提示词时,它注定只会给你平庸的回答。反之,如果你投喂给它一段海明威或鲁迅的文字,它会立刻调整其概率权重,试图模仿这种句式结构。
这就像是关税壁垒:如果你不引入外部的高质量样本,模型就会在其内部的低质量数据循环中自我强化。
一个精明的操作者会这样构建指令:“请仔细阅读以下这段文字的风格。注意它的短句使用、其对形容词的吝啬,以及那种冷硬的叙事节奏:[插入一段你喜欢的样文]。现在,请模仿这种风格,为我撰写关于[主题]的内容。”
这种方法的精妙之处在于,你无需懂得语言学术语(如“不仅要避免被动语态,还要增加词汇的突发性”),你只需要展示结果。通过提供范例,你实际上是在告诉模型:“不要做你训练数据平均值告诉你的事,要做这个具体样本告诉你的事。”
建立负面清单,少即是多
在自由市场中,监管往往通过“负面清单”来发挥作用——规定什么不能做,剩下的即为允许。同样的逻辑也适用于驯服 Gemini。
AI 模型有着根深蒂固的坏习惯。它们喜欢用“首先、其次、最后”来构建虚假的逻辑感;它们喜欢用“让我们深入探讨”作为开场白;它们倾向于在文章结尾强行升华主题,赋予平庸的事物以不必要的道德高度。
要剥离这些算法的套路,你需要制定严格的语言禁令。
有效的 Prompt 应当包含明确的约束条件:
● “禁止使用任何连接词(如‘因此’、‘然而’、‘综上所述’)。依靠逻辑本身的流动来连接句子。”
● “禁止使用‘赋能’、‘抓手’、‘生态’等抽象名词。如果不能用这一画面描述出来,就不要写。”
● “不要试图在结尾总结或升华。讲完故事就立刻停笔。”
这听起来似乎有悖常理——剥夺AI的词汇量。但正如现代主义建筑大师米斯·凡·德·罗所言:少即是多。
通过限制 AI 使用那些它最顺手的填充词,你迫使它去挖掘更精准的动词和更具体的名词。当原本流畅的套路通道被堵死后,模型只能被迫寻找一条更像人类表达的路径。
让机器学习人话的参差之美
人类语言之所以迷人,往往在于其不可预测性。
在这个领域,有一个衡量指标叫做困惑度。AI 生成的文本通常具有较低的困惑度——句子结构均匀,节奏平缓,读起来像是老登们的往事回首。
而人类的文本则是参差不齐的:一个极长的复杂从句之后,可能紧跟一个单词的短句。这种节奏上的“爆发”,是人类情感波动的生理特征。现代典雅通顺的中文,其实都是短句子居多。不知道短句子为何物的,可以读读刘震云的《一句顶一万句》,几乎没有一句话超过十个字。
虽然普通用户无法调整模型的后台温度参数,但可以通过自然语言模拟这一过程。
你需要向 AI 发出关于句法多样性的指令:“请确保句子的长短错落有致。不要让所有句子都保持相似的长度。要像爵士乐一样,有切分音。在解释复杂概念时使用长句,在表达观点时使用短句。要允许语法的适度松散,模拟人类口语中的停顿和跳跃。”
此外,引入类比和隐喻是打破算法逻辑感的另一利器。
算法擅长归纳,但不擅长通感。当你要求它“像给一个12岁孩子讲故事那样解释量子力学”或者“用酿酒的比喻来描述当前的经济周期”时,你迫使它调动其训练数据中那些更具文学性、而非说明性的部分。这一点DeepSeek其实比Gemini要做得好得多。只是DeepSeek的文采又常常文过饰非。
生活是由细节构成的,语言也是
指望通过一个完美的 Prompt, 就得到完美的文章,是一种懒惰,注定也是一种奢望。
和人类协作需要反复修改一样,机器写作也是如此。在使用 Gemini 时,最被低估的功能是追问。当它生成了一段充满 AI 腔的文字后,不要急着点击“重新生成”,可以尝试着让他对扮演的角色进行修正。
比如,你可以提示它:“这段文字太像公关稿了。把第三段删掉,把所有形容词去掉,只保留动词。把‘充满了机遇与挑战’这种废话换成具体的例子。”
这种迭代过程不仅仅是在修正当前的文本,更是在微调模型在这个特定会话中的权重。你是在建立一种临时的契约:在这个聊天窗口里,我们不说套话。
Gemini 和它的同类们默认提供的是一种标准化的平庸,一种类似于某些餐厅的预制菜体验,快速、卫生,但毫无风味,缺乏营养。
想要去除 AI 腔,核心心法可以总结为回归具体。AI喜欢抽象,因为它涵盖面广且不易出错;人类喜欢具体,因为生活是由细节构成的。
但是,所有上面我说的,让AI设定极度具体的人设、提供模仿的样本、实施严格的负面清单,以及追求句法的参差,实际上是在强迫机器违背其统计学本能,要求它不再做那个试图取悦所有人而磨平锋利,而是成为一个有偏见、有性格的高仿人类。
这不仅仅是为了让文章更好读,而是我们在这个自动化时代,保持思维独立的最后一道防线。毕竟,如果连语言都变成了自动补全的产物,那么人类的思想又还剩下多少属于自己?
本文来自微信公众号:波波夫同学,作者:波波夫