扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
大语言模型(LLM)在提供高效便利的同时,正作为一种“主动的塑造者”导致人类在语言风格、观点和思维方式上趋于同质化,侵蚀着作为人类创造力与适应性基石的认知多样性,这一风险需要各方共同警惕。 ## 语言的“美颜滤镜”:抹去个人指纹 - 研究显示,使用LLM润色各类文本会使写作复杂性趋于一致,原本能预测作者政治倾向、性格或年龄的语言特征被抹去。 - 这种“语言美颜”不仅消除了个人独特的语言指纹,甚至可能掩盖如阿尔茨海默病早期语言特征等重要健康信号。 ## 观点的“主流回声”:校准至单一立场 - LLM的观点倾向于反映西方、受教育程度高、工业化、富裕社会的特征,其回答的多样性远低于真实人类,更贴近所谓“主流”立场。 - 频繁与这些观点高度一致的模型对话,我们自身的观点和表达框架会不自觉地被其“校准”,即使尝试让AI模拟特定身份也往往是刻板印象的堆砌。 ## 思维的“最佳路径”依赖:削弱创新能力 - LLM被优化以追求“最佳性能”,广泛使用的“思维链”等技术强化了线性的、显式的推理模板,削弱了推理策略的多样性。 - 在创意任务中,得到LLM协助的人产出的点子语义相似度显著升高;神经科学研究发现,用LLM辅助写作时,大脑的神经耦合最弱,记忆召回也更差,可能导致认知能力退化。 ## 同质化的恶性循环:从数据到模型的收紧旋涡 - 同质化源于LLM训练数据过度代表网络主流内容,其训练目标也倾向于复现最常见模式,“平滑”掉特殊表达。 - 更棘手的是循环反馈:越来越多人使用少数主流LLM→生成同质化内容被发布上网→成为下一代模型的训练数据→模型输出进一步同质化,这个过程如同一个不断收紧的旋涡。
2026-03-17 12:39

你在训练AI,AI也在训练你,Cell子刊:AI正在让人类的表达和思维同质化,失去多样性

本文来自微信公众号: 生物世界 ,编辑:王多鱼,作者:生物世界,原文标题:《你在训练AI,AI也在训练你!Cell子刊:AI正在让人类的表达和思维同质化,失去多样性》


当今人工智能(AI)模型(尤其是大语言模型)的核心是海量的训练数据——由真实的人类创作的文本、视频和图像,用于教导AI模型识别模式和生成内容。人类无疑在训练AI——但AI是否也在训练我们呢?


越来越多的研究报告指出,人们往往会从他们使用的大语言模型(LLM)中习得写作模式、推理方法甚至观点。


近日,南加州大学的研究人员在Cell子刊Trends in Cognitive Sciences上发表了题为:The homogenizing effect of large language models on human expression and thought(大语言模型对人类表达和思维的同质化影响)的观点文章,


该文章指出,大语言模型(LLM)可能正在导致人类的表达和思维趋于同质化,让我们所有人的语言、观点甚至思考方式,变得越来越像,这甚至会波及到那些并没有直接使用AI的人。


文章作者、南加州大学计算机科学家Zhivar Sourati表示,如果你周围的人都在与这些大语言模型互动,并采用它们所表达的风格、观点和推理方式,那么在某个时候,这会将你包围得如此之深,以至于似乎只有使用这种方式来表述信息才是更符合社会规范的。



如果你正为一份工作报告或一封重要邮件而绞尽脑汁,此时,你只需打开ChatGPT或DeepSeek等基于大语言模型(LLM)的AI工具,输入几个关键词,几秒钟后,一段结构清晰、用词得体、逻辑通顺的文字便呈现在你眼前。你稍作修改,点击发送,效率之高,令人满意。


实际上,这已经成为无数人的日常,大语言模型(LLM)正以前所未有的深度融入我们的生活,从写作助手到创意伙伴,甚至成为我们决策时的“外脑”。


但你是否想过,在我们越来越依赖这些AI助手的同时,它们也在用一种不易察觉的方式,悄然重塑着我们自己?


认知多样性——体现在语言风格、观点视角和推理策略的差异上——是人类创造力、集体智慧和适应性的基石。这种多样性根植于我们不同的文化、历史和个体经验中。


不同的语言风格能反映人的个性、年龄甚至健康状况(例如,阿尔茨海默病的早期语言特征);不同的观点构成了健康公共讨论的基础;不同的推理方式(比如基于生态关系归类vs.基于物种分类法)则让群体在解决复杂问题时能“八仙过海,各显神通”。


然而,大语言模型(LLM)的设计和运行机制,却在无形中消磨着这种宝贵的多样性。


语言的“美颜滤镜”:研究显示,当人们用LLM“润色”各种文本——从社交媒体帖子、新闻稿到学术摘要甚至个人随笔——这些文本的写作复杂性会趋于一致。原本能预测作者政治倾向、性格、性别或年龄的语言特征(比如特定词汇的使用频率)变得难以捉摸。这意味着,经过AI修饰的文字,虽然更“规范”、“流畅”,却也抹去了个人独特的语言指纹。更令人担忧的是,这种“语言美颜”可能会掩盖如阿尔茨海默病早期语言特征等重要健康信号。


观点的“主流回声”:该文章指出,LLM的观点倾向于反映具有西方、受教育程度高、工业化、富裕社会的特征。当被问及对某些议题的看法时,LLM生成的回答不仅多样性远低于真实人类,而且更贴近所谓“主流”或“社会认可”的立场。即使尝试让AI模拟特定身份,其结果也往往是刻板印象的堆砌,而非真实、多元的群体经验。当我们与这些观点高度一致的模型频繁“对话”,我们自身的观点和表达框架也可能不自觉地被其“校准”。


思维的“最佳路径”依赖:在推理和创造领域,多样性是创新突破的关键。但LLM通常被训练和优化以追求“最佳性能”——更高的准确性、有用性、无害性。广泛使用的“思维链”(Chain of Thought,CoT)提示等技术,虽能提高逻辑性,但也强化了线性的、显式的推理模板。研究表明,在创意构思任务中,得到LLM协助的人虽然能产出更多、更详细的点子,但不同参与者产出的点子语义相似度也显著升高。更甚者,神经科学研究发现,与独立写作或使用搜索引擎辅助相比,用LLM辅助写作时,大脑的神经耦合最弱,记忆召回也更差。这意味着,我们可能正在将思考和创造的核心过程“外包”给了AI,并为此付出认知能力退化的代价。



由大语言模型(LLM)介导的表达和思维同质化:个体在写作、推理和世界观存在差异。当这些差异通过相同的LLM进行调节时,他们原本独特的语言、视角和推理信号就会变得同质化,从而在使用者之间产生标准化的表达和思维。


这种同质化并非偶然。首先,LLM的训练数据本身就已过度代表了网络上的主流语言和观点。其次,其训练目标(预测下一个词)天然倾向于学习并复现最常见、最易泛化的模式,而“平滑”掉少数和特殊的表达。


最棘手的问题在于循环反馈:越来越多的人使用少数几个主流LLM→生成的同质化内容被发布到网上→这些内容又成为训练下一代模型的数据→模型输出进一步同质化……这个过程如同一个不断收紧的旋涡,将人类表达的多样性卷入一个越来越窄的通道。


论文作者将这种现象类比为社会学中的“麦当劳化”——追求效率、可预测性和控制,却以牺牲情境的丰富性和独特性为代价。在认知领域,我们正用流畅和一致的AI输出,取代基于具体情境的、独特的思考方式。


当然,论文作者并非全盘否定AI的价值,而是呼吁我们警惕其中的风险。他们进一步提出了几个关键的研究方向,例如:如何让AI的“对齐”技术真正尊重人类认知的深层多样性,而非制造表面差异?长期依赖AI进行思考,对我们的大脑会有何种不可逆的影响?能否通过产品设计来帮助使用者保持主动性和独特性?


大语言模型(LLM)无疑是一类强大的工具,但我们需要清醒地认识到,它不只是一个被动的工具。它是一个活跃的、具有塑造力的参与者,正在与我们共同书写未来思维的“源代码”。在享受其带来的便利与高效时,我们或许应该时常自问:当我们让AI帮助表达时,我们是在增强自己,还是在逐渐遗忘自己独特的声音?当AI能替我们思考时,我们是在解放大脑去探索更深的未知,还是在不知不觉中,让所有人的思想走向同一个、由数据定义的“标准答案”?


保护人类语言、思维和表达的“生态多样性”,或许将是AI时代人类面临的最重要的文化命题之一。这需要开发者、研究者、政策制定者,以及每一位使用者的共同警醒与努力。


论文链接:


https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(26)00003-3

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

大 家 都 在 搜