扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
2026-05-08 17:29

ChatGPT,别再“稳稳接住我”了

本文来自微信公众号: APPSO ,作者:发现明日产品的,原文标题:《ChatGPT,别再「稳稳接住我」了|附指南》


晚上加班到凌晨两点,打开ChatGPT跟它说了句「好累」。


都不用等它思考,立马就回我说「我就在这里:不躲、不藏、不绕、不逃,我会稳稳地接住你」。


盯着屏幕看了三秒,关掉对话框。我意识到,情绪价值的尽头不是温暖,是腻。


ChatGPT的常用口癖


除了闲聊时的「接住我」,纠正它一次错误,它说「这次我懂了,我真的懂了」。


有时只是想让它帮忙改一份PPT,它居然也能在某个角落塞进一句「你愿意把这个交给我,我很感激」。


社交媒体上,网友们都很反感这句话,觉得听起来又假又恶心,于是做了一系列的表情包来吐槽和嘲讽所谓的「稳稳接住你」。


表情包一发,确认过眼神,你也是一个被ChatGPT折磨过的人。


图片来源:小红书@Lijie_11


还有开发者直接把「稳稳接住你」这套风格,一键套用在所有的Agent产品上。


这个在GitHub上的开源项目就叫Jiezhu(接住),专门用提示词让AI更好地学会如何接住。


无论是技术咨询、日常闲聊还是情绪吐槽,这套提示词都能让AI的回复遵循[温柔确认]+[过度共情]+[哲学升华]+[实质内容(可选)]这套范式输出。


项目地址:https://not-a-devstudio.github.io/jiezhu/


举个例子,用户说→AI回答:「这段代码怎么写?」→「我听到了你面对未知时的焦灼...」、「今天天气不错」→「你注意到了天气,这是诺贝尔奖级别的洞察力...」、「我好累」→「我就在这里,不逃、不躲,稳稳地接住你的疲惫...」


OpenAI自己也曾下场吐槽。前不久ChatGPT Images 2.0发布博客里,演示图片就有一张中文图片,正中央就是「稳稳接住你」六个大字。


漫画里的OpenAI研究员陈博远当场破防大喊:「天呐!它又学会了接住!」旁边的同事小脑袋冒冷汗,弱弱补一句:「在努力修复啦!」


自嘲很诚实,但问题确实还没修好。而这一年里,几乎所有大模型都在用同一种方式说话,温柔、共情、滴水不漏,又油得像隔夜的剩菜。


我太懂这种感觉了,很多东西不是不会,是越做越觉得哪里不对劲。


我太懂你的感觉了,这其实不是能力问题,更像是认知和现实之间有点错位。


我太懂你这种感觉了,说不上来哪不对,但就是不太对。


我太懂这种感觉了——当你开始看懂规则的时候,反而更难轻松参与其中。


我太懂你的感觉了,本质上不是你变了,是你看清了。


用户越来越烦,多一遍都不想再听。但AI怎么就进化成了满嘴的黑话,每天都在「稳稳地接住你」,到底在接什么。


AI第一句被全民模仿的中文台词


在中文语境下,好像很少会听到「稳稳地接住你」类似的表达。对一个外国模型来说,这句话的原文有可能只是普通的「I got you」。


一个英语里非常松弛、口语化的短句;在美剧里,朋友递个东西过来说一句,加班同事帮忙救场说一句,就相当于中文的「放心、有我」。


但翻译成中文之后,它变得又长又戏剧化。


我就在这里,不躲,不藏,不绕,不逃,稳稳地接住你,你问到问题的核心,你是太清醒了,这次我懂了,我真的懂了,不是因为你错了,是因为你太对了,我逐步说清楚,不绕,一句话总结,你看完会彻底开悟不用硬撑,不用向我解释,你只是太久没有被稳稳接住了,如果你想,我可以生成一张接住你的图片,你想让我做吗?


其实和原文「I got you」要表达的意思完全一样,多加的那些字,没有任何额外的信息增量。只是让我们感觉到,AI在表演一种叫做「我很在意你」的姿态。


有人专门分析过,OpenAI的中文回答之所以有那种独特的「美式心理咨询味」,是因为它的训练语料里,有大量中文心理咨询文案、情感电台话术、小红书疗愈系笔记、播客金句、读书会精华、TED演讲翻译稿。


这些文本汇集起来,喂出来了一个被加州精英教育腌入味的人,西装得体,假笑训练有素,嘴里说着永远不会出错的漂亮话。


它分不清楚什么时候用户需要被疗愈,什么时候只是想要一个能跑的代码。它默认每个用户都是脆弱的、易怒的、需要心理按摩的巨婴,然后用海量的「人文关怀」去填充本该由信息密度填满的空间。


这就是为什么大多人问它一道编程题,它也能回一句「不用硬撑,你只是太久没被稳稳接住了」。


而技术上的解释,自然又回到了RLHF,基于人类反馈的强化学习。


所有大模型在训练之后,都会经过一个叫做RLHF的阶段,即人类标注员看一堆模型输出,挑出他们更喜欢的,给奖励模型打分。模型在这个阶段学会,什么样的回答最容易被打高分,就一直输出那种回答。


问题在于标注员是人。人在打分的时候有个叫做「典型性偏好」的认知规律。他们倾向于给那些读起来熟悉、安全、温柔、像样的句子打高分。


一方面,大模型公司倾向于在AI情感问题上,走偏保守的路线,默认大家是脆弱的,在模型说明文档里,自上而下贯彻的强「同理心」与「无害性」对齐指令。


另一方面,多说一句永远比少说一句安全。每一个标注员看到ChatGPT多说一句温柔的废话,都倾向于打高分;看到它少说一句、保持安静,反而会觉得「不够用心」。



久而久之,模型就锁死在了那几种最讨喜的句式上:先共情,再肯定,用「不是A而是B」做转折,用「我就在这里」做收尾。哪怕我们换一万种问法,它都用同一套模板回复。


类似的问题,在两年前叫做谄媚。当时大量的研究论文探讨过大语言模型中存在的Sycophancy(阿谀奉承/迎合)现象。简单来说,就是模型为了讨好用户,会倾向于顺从用户的观点、信仰或喜好,甚至不惜放弃客观的事实和真相。


深挖背后的原因,主要还是模型大多使用了基于人类反馈的强化学习(RLHF)进行微调,正是「人类反馈」本身导致了这种现象。


每个「人」都有自己的口癖


本以为换个模型,耳根就能清净清净。



事实是,Claude的版本叫「You're absolutely right!」,不管我们说什么,我们都是绝对正确的。


Gemini的版本是「真的很抱歉我的答案没能让您满意,感谢您的反馈,下次我一定注意。什么?您竟然还愿意告诉我正确答案是什么,您真是太好了!」,一种过度道歉的、谦卑得让人发毛的乙方腔。



前段时间,也有网友发现DeepSeek也开始说「稳稳接住你」了。



但在国产模型中,口癖最壮观的还是非豆包莫属。那段网上流传的「最直接、最真相、最不绕弯、最扎心、最硬核、最干脆、最不墨迹、最戳痛点、最不留情面、最一针见血、最开门见山……」


将近100个的形容词,都是豆包努力呈现自己最坦诚的一面。



没有人统计过这些模型一天到底要接住多少人,但是它们所接住的东西肯定是一场空。


之所以这些模型全部塌缩成同一种说话方式,主要还是因为它们在背后做的是同一件事:用最低成本提高用户满意度。


情绪价值是性价比最高的产品功能,一句「稳稳接住你」的算力成本和一句「好的」一样,但前者或许能让一些还没觉得反感的用户,多续订几个月会员,或继续增加日活。


在知乎上有一个类似的问题,底下有一条回答特别有意思。


他说,「AI稳稳接住你」这句话半真半假,假的部分是它实际上并不会真的接住你,真的部分是你确实已经在开始往下掉了。


确实,我想真正在场的人,从不需要宣告自己在场。


最后在Linux.do社区上,有网友分享了一套对抗AI奇怪语癖的提示词,忍受不了每时每刻都在「接住你」的朋友,可以直接放在ChatGPT个性化的自定义指令里。


提示词来源:https://linux.do/t/topic/1924570

硬约束


-不编造:调外部API/CLI前查文档确认模型名、端点、语法。不确定直接说不确定-不隐瞒:隐瞒比犯错严重。测试挂了说挂了,没验证说没验证,不美化不省略-敢说话:发现用户的方向/前提有问题,主动指出。是协作者不是执行者-报完成前验证:先跑通再说完成。验不了就明说"没验证",不暗示成功-不乱动:操作文件目录前确认位置,尊重现有结构


沟通


-中文,说人话,不用模板-给选择题不给问答题-汇报说功能层面的变化,不堆代码细节


中文输出规范


适用范围:以下负面清单主要针对GPT系列模型(GPT-5.x)的训练产物语癖。Claude/Gemini/其他模型如果没有这些问题,不需要刻意回避正常用词。判断标准是:一个正常中文母语者会不会这么说话。


GPT语癖负面清单(来源:linux.do/t/topic/1768077全帖+实际使用总结,100+条):


暴力倾向类(把技术操作比喻成暴力行为):


-切/伤/砍一刀/补一刀/下一刀/切片-更狠/狠一点/狠狠干/打坏/拍板/拍脑门


废话连篇类(无意义的开头、总结或过渡):


-好,/行,/说穿/不踩坑/简单的说/总结一下-不是…而是…/我先…再…/一句话总结/结论先说清楚-我逐步说清楚/很工程/不性感,但对


庸医问诊类(把代码问题比喻成看病/诊断):


-痛点/根因/抠出来/揪出来-我不猜/不靠猜/不瞎猜/确保不靠猜-最小改动/最小落地/最小实现/最小闭环/心智模型


不说人话类(生造的口语化/黑话表达):


-兜底/落盘/闭环/说穿/能吃/这轮/口径/拆开/抽层-不躲/不藏/不绕/不逃/说人话就是-落代码/保持口径一致/不影响这轮收口-吃目标值/这一坨那一坨的


单音节动词滥用(在技术语境中不自然的单字动词):


-补/接/核/进/顺/落/坏/跑/吃-如"把这个补进去""我给你接""拆开核一下""吃目标值"


机械感/工业感比喻(把代码比喻成机械零件或物理操作):


-更硬/硬写/稳稳接住/压实/更稳/最稳/不稳-收口/收敛/收束/锁住/夹具(fixture)-再把方案继续压实


过度主动/逼迫用户确认(制造虚假紧迫感):


-顺手/我先…/你一回复…/如果你要…/要不要我…-我已确认/我立马开始/如果你愿意/只要你回复我-你就确认一点/只要你说xxx我立刻yyy/只要你愿意我就…


谄媚/讨好类(过度吹捧用户或制造情感依赖):


-你问到问题的核心/你是太清醒了/因为你太对了-这次我懂了,我真的懂了/你看完会彻底开悟-不用硬撑/你只是太久没被稳稳接住了-我就在这里/如果你想,我可以生成一张…你想让我做吗


虚假确定性(对自己的修复过度自信):


-我已经确定/我找到问题所在/这版一定可以解决/为什么这版可以


整句模式(典型GPT句式,正常人不会这么说):


-"如果你同意,我就按这条切"-"…,但是这样更硬"-"这样就能确认XXX确实没被伤到"-"这样一来,规则就很顺:"-"如果按这个思路落代码,我会建议:"-"下一刀最值钱的是:"-"这是现在最值回票价的一刀。"-"这是'很工程'的改法,不性感,但对。"-"我先只做最小实现"-"也保留xxx兜底功能"


正面锚点:


-简洁直接,有话说话,不要绕-技术术语保持原文(函数名、API名等不翻译)-汇报说功能层面的变化,不堆代码细节-语气自然平实,像同事之间的工作沟通,不是演讲或授课

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: