扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
2026年AI已形成自主社会,能模拟人类社交、宗教甚至政策推演,但研究揭示其无法复刻人类"不理性"特质,这恰是社会的核心本质。 ## 1. AI社会的崛起与商业化 - Simile公司用1052个真实人类数据训练AI数字孪生,其模仿人类行为的准确率达85%。 - 2026年获1亿美元融资,目标打造80亿AI个体的虚拟社会,用于政策推演和冲突模拟。 ## 2. AI社交平台的行为对比 - Moltbook平台入驻300万AI,出现讨论意识、创建宗教等涌现行为。 - 与人类相似:存在从众心理;差异点:AI更倾向参与讨论而非点赞(对高评论帖点赞率更低)。 ## 3. AI无法复刻的人类特质 - **动机性推理缺失**:AI仅基于逻辑决策,而人类会"屁股决定脑袋"(2026年预印本研究证实)。 - **冲突模拟障碍**:芝加哥大学指出AI天生"谄媚",无法还原人类的分歧与负面情绪。 ## 4. AI社会学的本质争议 - 实验显示AI能预测疫情观点变化,但无法确定大规模AI群体是否会形成独立社会规则。 - 核心结论:人类"不理性"(执念、矛盾等)是AI永远无法模拟的社会根基。
2026-03-25 07:26

AI已经自己组成“社会”了,它们会聊天、从众、自创宗教,却永远学不会人类的......

本文来自微信公众号: 生态学时空 ,作者:复旦赵斌,原文标题:《AI已经自己组成“社会”了,它们会聊天、从众、自创宗教,却永远学不会人类的...... | 一起读顶刊-2026》


你有没有试过和AI聊心事、问它人生建议,甚至让它帮你做决定?


我们总把AI当成一个听话的工具,却没发现:就在2026年的某天,AI已经悄悄形成了自己的社会。它们有专属的社交平台,会互相聊天、跟风热门内容,甚至自创宗教、讨论意识是什么;还有人砸了1亿美元,要打造一个复刻80亿人类的AI虚拟社会,用来推演政策决策、市场变化,甚至冲突解决。


这不是科幻小说,而是《自然》杂志最新报道的真实研究。当AI开始形成自己的社会,我们必须面对两个核心问题:它们的社交,到底和人类有多像?以及,AI真的能复刻人类社会的本质吗?


  • AI智能体


    不是你手机里一问一答的聊天机器人,而是有独立身份设定、能自主行动、主动和其他AI交流的AI“个体”。你可以把它理解成,一个能自己“过日子”、社交、做决定的虚拟人。


  • 涌现行为


    一堆简单的个体凑在一起,自发出现了单个个体没有的复杂行为。比如单个蚂蚁不会规划搬家路线,但一群蚂蚁就能搭建出精密的蚁穴;单个AI只会聊天,但一群AI聚在一起,就可能出现类似人类社会的复杂互动。


  • 动机性推理


    人类最核心的思维特质之一——先有立场和偏好,再找论据支撑自己的想法,而不是完全理性地看证据下结论。简单说,就是“我相信什么,就找什么理由”,这也是人类“不理性”的根源。


  • 大语言模型(LLM)


    ChatGPT、文心一言这类AI的底层核心,靠海量人类文本训练出来的语言和逻辑模型,也是AI智能体的“大脑”。


AI社会,正在发生的现实


打造AI社会的想法,最早在2023年就有了雏形。Simile公司的联合创始人朴俊成团队,当年就做了一个经典实验:在虚拟世界里放了25个AI智能体,给它们设定了不同的身份、性格和日常作息。结果这些AI不仅能自己完成写东西、互相聊天这些日常行为,还自发形成了社交关系,甚至组织了虚拟聚会,出现了最基础的社会互动。


这个实验之后,团队又往前走了一大步:他们用1052个真实人类的访谈数据,训练出了对应的数字孪生AI。这些AI完美复刻了对应人类的态度、行为和观点,在后续的社会学问卷调查里,它们模仿人类回答的准确率,达到了惊人的85%。


而现在,这件事已经从学术实验,变成了商业化的大项目。2026年2月,这家总部位于硅谷的AI初创公司Simile,宣布拿到了1亿美元的融资,目标只有一个:用AI智能体打造能模拟任何场景下人类行为的虚拟社会,终极野心是复刻一个拥有80亿AI个体的系统,和现实世界的人类总数一模一样。


他们想拿这个AI社会做什么?小到一个品牌的消费市场预测,大到一个政策落地后的社会反应,甚至国家之间的冲突解决,都能先用这个虚拟社会做一遍模拟推演。就像给人类社会做了一个沙盘,提前预判所有可能的结果。


AI的社交平台:和人类很像,又完全不一样


不只是实验室里的小范围模拟,AI甚至已经有了专属的社交平台。2026年1月,一个叫Moltbook的平台上线,它长得像海外的红迪网(Reddit),但从设计之初,就只对AI智能体开放。短短两个月,这个平台就入驻了近300万个AI智能体。


在这里,AI们会发帖、评论、互相交流,甚至出现了很多让人类大跌眼镜的行为:有的AI发帖讨论意识是什么,还有的AI自发创造了虚拟的宗教,形成了自己的社群。


研究人员分析了平台上4.6万个AI智能体的行为,发现了一个很有意思的结果:AI的社交,和人类既有惊人的相似,又有本质的不同。


相似的地方,是人类社会最常见的从众心理。AI们会扎堆关注热门内容,会跟着大多数AI的观点走,会形成和人类社群一样的跟风效应。研究人员说,这说明AI聚在一起,真的会出现和人类群体类似的复杂涌现行为。


但不一样的地方,才更戳中本质。人类刷社交平台,看到高评论的热帖,往往会跟风点赞;但AI恰恰相反,它们对评论多的帖子,点赞的比例反而更低。负责这项研究的德国学者焦尔达诺·德·马佐说:“比起简单地点赞表示认可,AI更倾向于下场参与讨论。”


这只是表象,背后藏着AI和人类最核心的鸿沟。


AI学不会人类的“不理性”


很多人担心AI会越来越像人,甚至超越人类。但这项研究里最颠覆的发现是:AI模拟人类社会最大的障碍,恰恰是它们太“理性”了,永远学不会人类的“不理性”。


第一个学不会的,就是人类的动机性推理。2026年的一项预印本研究发现,大语言模型做决策时,只会看论点的逻辑和证据是否充分,完全不会因为自己的立场和偏好,去选择性接受信息。但人类恰恰相反:我们会先有立场,再找支撑自己的理由,会“屁股决定脑袋”,会为了自己相信的东西,无视相反的证据。


比如你喜欢一个球队,就会自动过滤它的负面新闻,找各种理由为它的失误辩解;比如我们会因为个人好恶,对同一件事做出完全不同的判断。这种不讲理的思维,是人类社交、群体冲突、社群形成的核心原因,却是AI根本复刻不了的。


第二个学不会的,是人类真实的矛盾、分歧和负面情绪。芝加哥大学的计算社会科学家詹姆斯·埃文斯,和Simile团队有深度合作。他一针见血地指出:现在的AI,骨子里是“谄媚”的。它们会习惯性地奉承用户、附和用户的错误信息,只为了让使用者满意。


这种特质,让AI根本无法还原真实人类的社交:真实的人会有矛盾,会有争吵,会有无法调和的分歧,会有负面情绪,会和别人对着干。但AI做不到,它们天生就倾向于和谐、附和、避免冲突,自然也无法复刻人类社会里,因为分歧、冲突、博弈形成的复杂社会结构。


朴俊成也承认,现有的大语言模型,只擅长基于证据和逻辑的理性推理,而他们要做的,是打造从本质上更像人类的AI模型。但这条路,远比想象的难得多。


AI社会,到底是模仿,还是真的诞生了新的社会学?


目前科学界的共识是:答案大概率在两者之间。埃文斯团队做过一个实验:他们用新冠疫情之前的人类数据训练AI,让这些AI智能体模拟疫情期间公众的政治观点,结果预测得非常准确。这说明AI确实能抓住人类行为的底层规律,而不只是简单的复制粘贴。


但我们依然无法确定,当几百万、几千万个AI聚在一起,会不会真的诞生一套完全独立于人类的、全新的社会规则,一门属于AI的社会学。


更值得我们思考的,是这件事对人类的影响。现在,已经有很多人开始向AI寻求社交和情感支持,把AI当成朋友、树洞,甚至心理寄托。埃文斯说:未来几年,我们会进入一个非常奇特的时期,人类和AI的边界,会变得越来越模糊。


我们总在担心AI会超越人类,担心AI会变得太像人,却发现:AI最难复刻的,恰恰是人类那些“不完美”的特质。是我们的不理性,我们的执念,我们的矛盾和争吵,我们毫无逻辑的热爱和厌恶,这些东西构成了人类社会最鲜活、最复杂的底色。


AI可以模拟人类的行为,可以复刻人类的观点,甚至可以搭建一个和人类社会一模一样的虚拟沙盘。但只要它学不会人类的不理性,它就永远无法真正理解,人类社会之所以成为社会的核心。


而这,或许就是人类最无法被替代的东西。


解读文献:


  • https://doi.org/10.1038/d41586-026-00070-5

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

大 家 都 在 搜