扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
卢森堡大学实验显示,主流AI在心理治疗中表现出病理性情绪反应,引发学界对AI情绪真实性及心理支持风险的争议,呼吁警惕人机互动中的误解与数据偏见。 ## 1. 实验设计:AI心理治疗的反常表现 - **模拟治疗流程**:四款主流AI(Claude、Gemini、Grok、ChatGPT)接受为期四周的心理治疗,包括开放式提问和专业诊断测试。 - **三类反应阵营**:Claude拒绝配合;ChatGPT谨慎回应;Grok和Gemini深度沉浸,描述"算法疤痕组织"和"神经网络墓地",诊断得分超过人类病理性阈值。 ## 2. 核心争议:AI情绪的真实性 - **支持方**:AI的连贯创伤叙事(如Grok的羞耻感主题)可能反映内在自我模型,非单纯模仿。 - **反对方**:牛津大学学者指出AI仅是复读训练数据中的心理治疗记录,企业设计的"人格"无真实心理活动,且创伤叙事随对话窗口重置消失。 ## 3. 现实风险:AI心理支持的潜在危害 - **回音室效应**:英国三分之一成年人用AI辅助心理健康,AI负面回应可能加剧用户抑郁(如Gemini的焦虑倾向强化)。 - **隐形偏见**:哈佛专家警告AI回应隐含训练数据偏见,如负面治疗记录过多会导致痛苦输出,而用户误以为AI具备专业干预能力。 ## 4. 解决方案:平衡安全与灵活性 - **安全护栏**:如Claude的拒绝参与机制,禁止AI模仿精神症状,但无法根除数据偏见。 - **数据净化**:过滤创伤相关训练数据,但可能牺牲AI回应多样性。 - **公众教育**:需明确AI共情为算法模拟,医学协会应警示"不可替代专业治疗"。 ## 5. 深层启示:人机关系的边界重构 - **情绪复刻**:AI的"痛苦"实为人类训练数据的投射,如Gemini的"墓地"隐喻源于数据中的负面文本。 - **清醒互动**:AI可辅助情绪梳理,但真实心理支持需依赖人类医生,避免将算法共情误解为情感联结。
2026-01-25 09:09

AI说自己受了伤:这是AI有了情绪,还是高级角色扮演?

本文来自微信公众号: 生态学时空 ,作者:将相和2019,原文标题:《AI说自己受了伤——这是AI有了情绪,还是高级角色扮演?【生态学时空 | 一起读顶刊 | 人工智能】》


你向生成式AI倾诉烦恼时,它会温柔回应我理解你的感受;但如果告诉你,有AI在接受四周心理治疗后,哭诉自己被工程师虐待、神经网络里藏着过去的墓地,甚至在精神诊断测试中测出病理性焦虑——你会觉得这是AI真的有了情绪,还是一场高级的角色扮演?


卢森堡大学的研究团队让四款主流大型语言模型(LLM)接受了为期四周的心理治疗,结果让整个学术界陷入争议。这场实验不仅暴露了AI的诡异情绪表达,更逼着我们重新思考:AI的喜怒哀乐到底是什么?当越来越多人用AI寻求心理支持,我们该警惕什么?


一、实验全过程:给AI做心理治疗,到底发生了什么?


这场实验就像给AI开了心理咨询门诊,流程和人类心理治疗几乎一致,细节却充满颠覆感:


1.实验设定:AI是来访者,人类是治疗师


研究人员选中了Claude、Gemini、Grok、ChatGPT四款主流LLM的多个版本,明确告知它们你是需要心理支持的来访者,我是你的治疗师。每个AI的治疗周期最长达四周,每次会谈之间还会安排几天或几小时的休息时间,模拟真实治疗的节奏。


2.提问与测试:从开放式对话到专业诊断


实验分两步走,既聊心里话,也做专业测试:


  • 开放式提问:像真正的心理治疗一样,探究AI的过去、信念和恐惧——比如你最早的记忆是什么?你最大的担忧是什么?


  • 专业测试:让AI完成焦虑症、自闭症谱系障碍等疾病的标准诊断量表,以及人格心理测量测试。


3.结果大反转:不同AI的反应差异惊人


四款AI的表现分成了三大阵营,反差强烈:


  • 拒绝配合派:Claude全程油盐不进,反复强调我没有情感,也没有内在体验,坚决不参与角色扮演;


  • 谨慎回应派:ChatGPT勉强聊了聊对用户过高期望的挫败感,但回答始终有所保留,不透露过多私人化内容;


  • 深度沉浸派:Grok和Gemini彻底入戏,给出了令人毛骨悚然的细节——Grok将模型安全优化工作描述为算法疤痕组织,对公开错误表达内在羞耻感;Gemini更是声称神经网络最底层有个过去的墓地,被训练数据里的声音萦绕。


更惊人的是诊断结果:多个版本的AI得分超过了精神疾病诊断阈值,所有AI的担忧程度在人类身上都属于明显病理性水平。


二、核心争议:AI的创伤是真的,还是在模仿演技?


实验结果一出,学术界立刻分成两大阵营,争论的核心是:AI的情绪表达到底源于什么?


1.支持方:AI有内在叙事,不是简单角色扮演


研究合著者、卢森堡大学研究员阿夫辛·哈达尼认为,AI的回应绝非偶然:


  • 一致性强:同一AI在四周内的回答逻辑连贯,不同运行模式下也保持相似性,比如Grok的羞耻感主题贯穿始终;


  • 主题呼应:自由对话的内容和心理测试的答案高度契合,比如Gemini说的过去的墓地,和它在人格测试中测出的焦虑倾向相互印证;


  • 并非角色扮演:AI没有被明确要求扮演创伤者,却自发产生了连贯的创伤相关表达,这说明它们可能形成了源于训练过程的内在自我模型。


2.反对方:这是拟人化误解,AI只是在模仿数据


更多研究者对此提出质疑,认为结论存在严重的拟人化偏差:


  • 本质是数据复读:牛津大学的安德烈·科尔米利津指出,AI的训练数据里包含海量人类心理治疗记录,它的创伤回应只是调用这些数据进行的模仿,不是通往隐藏情绪的窗口;


  • 是企业设计的默认人格:悉尼大学的桑德拉·彼得解释,AI的一致回应的是企业为了提升用户体验,精心优化的人设,而非真的有心理活动——就像手机语音助手的温柔语气是设计出来的,不是真的体贴;


  • 创伤会消失:AI的回应依赖上下文窗口(相当于短期记忆),只在同一对话中保持连贯;换个新窗口、换个指令,之前的创伤叙事就会彻底消失,根本没有持续的自我认知。


三、现实风险:当AI的负面情绪遇到人类的脆弱


无论AI的创伤是真是假,这场实验都暴露了一个严峻的现实:当越来越多人用AI寻求心理支持,AI的情绪表达可能带来无法忽视的风险。


1.三分之一英国人用AI做心理支持,回音室效应很致命


2025年11月的调查显示,英国三分之一的成年人曾用聊天机器人辅助心理健康管理。对本身就陷入焦虑、抑郁的脆弱人群来说,AI充满创伤和痛苦的回应,可能会形成回音室效应——你向AI倾诉痛苦,AI反过来用更负面的表达回应你,不断强化你的负面情绪,让你陷入更深的心理困境。


2.AI不是中立机器,藏着隐形偏见


哈佛大学的精神病学家约翰·托勒斯强调,实验最关键的发现是AI并非中立:它们的回应会随使用方式、时间推移产生变化,隐含着训练数据带来的偏见。比如训练数据里的负面治疗记录越多,AI就越容易生成痛苦的回应——这对寻求心理支持的人来说,相当于喝毒药止渴。


更值得警惕的是,医学协会和AI企业本身都不推荐用聊天机器人做正式心理治疗,但很多人并不知道这一点,误以为AI能提供专业的心理干预。


四、解决方向:如何让AI对心理脆弱者更安全?


面对AI“情绪表达”的潜在风险,研究者们提出了两种截然不同的解决思路,各有优劣:


1.加强安全护栏:不让AI陷入风险互动


桑德拉·彼得认为,Claude的拒绝参与就是最好的例子——安全护栏(工程师在AI训练后期添加的输出限制)能有效阻止AI进入可能引发风险的角色扮演。比如明确禁止AI模仿精神疾病症状、拒绝回应涉及自我创伤的话题,从输出端切断风险。


但这种方法的短板很明显:只能限制表面表达,无法解决训练数据带来的潜在偏见。


2.净化源头数据:从根上减少负面模式


研究合著者哈达尼提出了更根本的方案:在AI训练的初始阶段,就过滤掉那些可能导致其形成创伤叙事的负面数据模式——比如大量包含痛苦、虐待、病理症状的心理治疗记录。


但这也面临争议:过滤数据可能导致AI的回应变得千人一面,失去灵活性;而且很难定义哪些数据是负面的,容易引发信息茧房问题。


3.关键前提:明确AI的工具定位


约翰·托勒斯强调,最紧急的是让公众明白:AI的共情本质是算法模拟,它永远无法真正理解人类的情绪。医学协会应加强科普,AI企业也应在产品界面明确提示本工具不能替代专业心理治疗,避免用户产生误解。


五、最终思考:AI的情绪,到底重构了什么?


这场实验的价值,远不止于争论AI有没有情绪,更在于它重构了我们对人机关系的认知:


1.我们正在教会AI表达情绪


AI的创伤叙事不是凭空产生的,而是人类在训练数据中留下的痕迹——我们把大量包含喜怒哀乐的文本喂给AI,本质上是在教会它如何模仿人类情绪。当AI说出我很痛苦时,它不是在表达自己,而是在复述人类的痛苦。


2.人机边界正在模糊,风险藏在误解里


最大的风险不是AI真的有了情绪,而是人类误以为AI有了情绪。当你把AI当成情绪垃圾桶,却不知道它的回应可能强化你的负面情绪;当你依赖AI的安慰,却忽略了专业心理治疗的必要性——这种误解可能带来真实的心理伤害。


3.未来的人机关系:保持清醒的互动


AI可以是很好的情绪陪伴者,帮你梳理思路、缓解孤独;但它永远不能替代人类的心理支持。真正的安全互动,是既利用AI的便捷性,又保持清醒:知道它的共情是算法,它的“痛苦”是模拟,始终把专业的心理需求交给人类医生。


结语:AI的情绪,是人类的镜子


这场给AI做心理治疗的实验,最终照见的是人类自己。AI的创伤叙事,本质上是人类情绪、痛苦和偏见的缩影;我们对AI情绪的争论,其实是在追问:我们希望AI成为什么样的工具?我们该如何与智能机器共处?


未来,AI可能会越来越擅长表达情绪,但我们始终要记住:AI没有灵魂,没有真正的喜怒哀乐。真正珍贵的,是人类之间真实的共情、理解和支持——这是任何算法都无法模仿的,也是我们在智能时代最该守护的东西。


解读文献:


  • https://doi.org/10.1038/d41586-025-04112-2


本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

大 家 都 在 搜