扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
胡泳教授探讨AI时代人类主体性的危机,指出技术拟人化导致人类从自大滑向自卑,强调肉身经验与隐性知识的不可替代性,呼吁警惕技术对文化多样性和社会平等的侵蚀。 --- ## 1. AI演员与人类情感丰富性的消解 - **真实性 vs 数据媒介**:若AI表演达到感官无法区分的程度,人类可能接受AI演员,但二阶感知(意识到数据媒介本质)会引发抵触。 - **情感复杂性的局限**:AI难以完美演绎人类情绪的叠加状态(如《黑天鹅》中痛苦与希望的交织),大规模接受AI演员或反映人类审美退化。 - **版权与产业动荡**:AI生成内容无明确版权归属,冲击文化产业原有结构,全AI流程制作可能引发媒介转型争议。 --- ## 2. 生活文本化与行动力的丧失 - **解释替代行动**:AI加剧年轻人“文本式人生”倾向,过度分析导致行动瘫痪(“擅长解释情境,却难果断行动”)。 - **肉身三原则**:胡泳提出解决方案:身体在场、相互触碰、生态共存,强调直觉行动(“一思而行”)。 - **照护技术的伦理边界**:亲身照顾父母的体验证明,技术无法替代具身性互动带来的隐性知识(“体会”)。 --- ## 3. 技术演变的“走岔”与多样性消亡 - **社交网络→社交媒体**:从关系连接转向内容发布,算法驱动流量经济,表达沦为表演(“人人都是演员”)。 - **PC互联网→移动互联网**:超链接共享精神被“信息孤岛”取代,平台垄断扼杀多样性(“80-90%短剧收入归流量平台”)。 - **拟人论的危险**:模仿型AI加剧人类自卑(“普罗米修斯式羞惭”),增强型AI才是出路(如AI辅助医生降低误诊率)。 --- ## 4. 隐性知识与人机责任边界 - **显性 vs 隐性知识**:AI可替代显性知识(如公式化内容),但隐性知识(工程师的经验判断)是护城河。 - **责任不可外包**:机器能计算但不会选择,核心决策需保留人类主体性(“自动驾驶的电车困境仍需伦理争辩”)。 - **行星级问题挑战**:AI可能加剧不平等,需人文社科介入解决气候变化、暴力等全局性问题。 --- ## 5. 存在论层面的反思 - **“最多的生活”哲学**:反对标准化人生(“填空题”),倡导多元体验(“涂鸦纸”),隐性知识源于行动而非解释。 - **技术乐观主义的转向**:胡泳从30年前的技术乐观者变为怀疑者,警惕技术对文化算法化的单向度塑造。
2026-05-06 09:38

胡泳:我不认为AI能真正炼化我

本文来自微信公众号: 正面连接 ,作者:于友嘤,胡泳


我们正面临一个危险的十年,技术拟人化,生活文本化。面对AI的进化,人类从自大走向自卑。


4月20日,“2026爱奇艺世界大会”发布AI艺人库计划,宣布已有100多名艺人入驻爱奇艺的AI艺人库。CEO龚宇在演讲中提到,演员授权AI能够提高演员的工作效率,使他们从“一年接俩项目”变为“一年接四个”。实拍不会消失,但“完全100%真实的、物理的一些作品,会不会过多少年以后,被命名为世界文化遗产,变成非遗(非物质文化遗产)?”


随着社交媒体的耸动传播,“爱奇艺疯了”的词条冲上微博热搜。这一发言引发了人们对技术伦理的极大焦虑。实际上,在短剧行业,AI早已入场。尽管目前水平仍有限,但我们确实可以看到,AI正在尝试入侵那些具有肉身、情感和不可替代性的行业和领域,比如表演、写作。人甚至可以把自己的全部技能或经历“炼化”后喂给AI,制作成一个虚拟自己。


OpenAI的联合创始人兼首席执行官萨姆·奥尔特曼早在2025年年初就预测,AI“超级智能可能会在几千天内到来”,“AI的兴起至少会和互联网一样大,甚至可能更大”。同时,他也认为,当AGI(Artificial General Intelligence,通用人工智能)真正到来时,世界可能只需要几周时间去适应,之后一切会恢复正常运转。对于一些资本所有者而言,技术乐观主义的甜美气息弥漫在空气的每一个角落。


胡泳是北京大学新闻传播学院的教授,过去三十年,他一直关注技术与媒介的交互。最近几年,他也日益关注人工智能。三十年前,胡泳相信自己是一个“技术乐观主义者”。三十年后,胡泳一路目睹那些变革性的技术,比如社交网络、PC互联网等在一些关键节点上“走岔了”,他开始对技术持有一种更加怀疑和审慎的态度。


在人工智能时代,胡泳开始愈加看重身体性、关系性。他喜欢一位叫伊曼纽尔·列维纳斯的法国哲学家,这位哲学家强调人活在世上对于“他者”的责任。他也喜欢另一位法国哲学家莫里斯·梅洛-庞蒂提出的“身体间性”,主张我们对他人的理解是通过身体与身体之间已经发生的感知共振来实现的。这些共同构成了胡泳对当下复杂情境的看法。他鼓励人与人具身性的在场和交互,认为人的“显性知识”可以被替代,但在经验与行动中生成的“隐性知识”却无法被替代。他鼓励年轻人们去创造“最多的生活”,而非“最好的生活”。


我们邀请到了胡泳教授,和他聊了聊,在人工智能时代,我们的路也“走岔了”吗?


以下内容根据我们对胡泳的访谈整理而成。


如果AI演员被大规模接受


证明人类的审美和情感丰富性在下降


我们观看演员表演的感知有几个层次,首先是真实性。现在AI的技术还达不到完全真实,所以大家可能觉得爱奇艺疯了。我们假定将来AI技术已经达到让人类的感官区分不了真假的程度,那人们可能觉得AI演员跟表演者也没什么差别。在感知的真实性上,我们不能以此为理由反对AI演员。


然后我们进一步,我们看表演一定会产生情感,我们会笑、会哭,看惊悚片会高度紧张。这些东西能不能被复制?如果AI的表演不仅表面像,而且真的能把人的情绪表达得非常饱满,让你也同样产生强烈的情感共鸣,那么人类可能更没有什么理由拒绝AI演员。很简单,我们看很多动漫形象,明明知道是假的,不是照样投入很多情感吗?你的共情机制不会因为不是真人就不共情,你完全可能还是共情的。


但我认为再往上推,可能就会出现微妙的差异。人类的感知有一阶、二阶。比如我们忽然意识到这个表演整个是虚拟的,跟肉身毫无关系,这时我产生了一种二阶感知,意识到自己在看一场被模型或数据弄出来的东西。表演本来是身体媒介,现在变成了数据媒介。演技本来是演员台下十年功练出来的,现在就是输入模型、参数优化。当你意识到无法接受纯粹的数据媒介,产生了二阶认知,可能就是另一回事了。


举个例子,以往人类的约会都是肉身约会,现在可能先在线上用算法算出某人和你非常匹配。有的人接受数学结果,但一定有很多人对“我的对象是被计算机算出来的”这件事有怀疑。当他开始怀疑,就调动了二阶感知。前面的模拟逼真度、镜像神经元的激活可能不足以让人反感,但后面这个东西是有可能的。


发生这些感知的前提是核心的东西:肉身。你自己就是个肉身。不管多么喜欢技术,你是个肉身。你之所以以前钟情于表演,是因为意识到演员通过身体训练、反复排练、心理和情绪投入,把个人的痛苦、喜悦、恐惧、脆弱都凝聚在表演中。你的认同是肉身与肉身的认同。


有一部电影叫《黑天鹅》,芭蕾舞演员为了演绎白天鹅、黑天鹅,为了做完美的舞者,投入了极大的苦和磨练,最终失常了。你看的时候会惊心动魄,这种东西紧紧抓住你,让你觉得片子好。这里还有人的情感的复杂性:人永远是恐惧中还有希望,爱中一定有嫉妒。我不清楚AI算法对多种情绪的叠加能在多大程度上完美演绎这种复杂性。


当然,现在观众心态在变化,可能越来越强调颜值高、流量高,不管演技好不好。相信颜值、流量的观众会不会毫不犹豫地接受AI演员?我觉得很难讲。我不能预测AI演员会不会被大面积接受,但有一点可以得出结论:如果AI演员被大规模接受,就证明人类的审美能力和情感丰富性在下降。



另外,AI演员跟法律、监管、制度都有关系。全世界所有的AI输出严格来讲都没有版权,通过AI生成的任何东西直接进入公域,因为无法追溯作者身份。这是全世界的问题,因为版权体系总体上是工业时代、印刷时代的产物,虽然经过了电子媒介的冲击做了各种调整,但现在更大的一波冲击来了。


文化产业的很多东西现在都处于动荡状态。如果你去看戏剧艺术,看到的是现场舞台,看电影、电视剧,看到的是拍摄现场被拍出来的东西。但演出绝不是只有你看到的这一点。演出需要编剧、导演、演员、摄影、制片等共同完成制作,最前台才是表演。我们看到娜塔莉·波特曼(《黑天鹅》女主)精湛的表演,被她迷住了,但看不到后面的东西。


后面的东西是文本和制作,是结构性的、稳定的。但表演是不稳定的、高度变动的、稍纵即逝的。我们现在争议AI演员,只是在争议最前端这一部分,还没有深入到后面的文本层或制作层。如果推动整个流程都向AI发展,比如AI写本子、AI制作、AI当导演,全部AI化,按照现在AI的能力,是可以做到的,当然质量高低是另一回事。问题在于你接受这种东西吗?你接受全AI流程的东西吗?如果你接受,那这就是一个媒介转型问题,是文化算法化的问题。


我们可能需要在另一种形态的媒介范畴里去考量它。你需要思考更深的东西,比如人类的经验到底如何生成、如何感知、如何理解?这不能简单视为技术替代,它涉及到媒介转型,商业模式,在更大意义上涉及到我们的文化往哪发展——我们的文化应该算法化,还是应该反对算法化?


表演只是这一切东西的一个表层,现在被推到前台上来说了。


AI让年轻人更擅长解释情境


却更难在情境中果断行动


AI百分之百会加剧一种倾向,我把它叫作“生活的文本化”。每个人都是一名“编辑”:通过数字媒介,重新修订过去场景的意义;重构因果关系(“我之所以这样选择,是因为……”);重新分配行为的主体性与责任。到头来,这一切非常类似于计算中的错误校正,或写作系统中的版本控制。


人这个主体现在分裂成两个层面。第一个层面是经验的生成:我活着,我有感受,不仅感受还行动,在现实中生成经验。另一个层面在经验生成之后,你可能对经验有一系列理解。但目前的理解走到了一条路上,我把它叫作“文本式的人生”——把人生当作一个叙事的东西来处理,给很多东西解释、归纳,试图赋予意义。


文本化有一个时间的问题,如果面向过去,相当于它是一个叙事的回放装置,你不断地解释,就是不停地反刍。面对未来呢,你很厉害的是你能精准地诊断自己的一切问题,但你只能完成理解,不能把它结合到未来的行动当中,那必然的结果就是,你将来会重演你走过的模式。


现在大家教育水平提高,每个人都有一堆理论,不管是社会学还是心理学。现在的年轻人表达能力和分析能力都很好,聪明,也知道反思,但欠缺行动能力。过度解释会剪断行动的流畅性。他们非常擅长解释情境,却难以在情境中做出果断的行动。


AI会进一步加剧这种倾向,说得严重一点,你退出了自己的生活,变成了自己生活的旁观者,不再是参与者。


所以我现在到处鼓吹肉身的重要性,我概括为三个原则。第一个原则是身体在场,强调身体的重要性,强调在场的重要性。有意识的体验必须以有生命的身体过程为前提。


第二个原则是相互触碰。身体在场不是自己单独在场,而是和他人一起在场。你要永远跟他者共在,互相发生触碰。从小了说,亲密关系中不管是跟父母、子女还是伴侣,都需要更多触碰;往大了说,我们走出自己的小圈子,跟更广阔的社会接触,跟不同的人群接触。


第三个原则,人是整个生态的一部分,我们要和生态共存,通俗讲就是回归自然,回归到跟我们在一起的整个生命体系当中。这可能会解决很多问题,包括生活在文本中的情况。


简单来说,去行动,不用想那么多,该干什么就去干了。在人工智能时代,直觉特别重要,觉得应该这样,那你就这样。我们过去讲三思而后行,现在我觉得不能三思而后行,一思就行了。


我最近老说汉语的美妙。我们讲人的经历、经过人世产生经历、形成经验,汉语叫“体验”——身体的体,强调身体性和在场性。有了这些经历以后,你对人生有一些领悟,汉语叫“体会”。如果你单纯在虚拟中、在文本上、在自己封闭的内心当中,你是产生不了这个体验和体会的。


我当时选择亲自照顾我父母,真的特别累,累得不行了,但我从来没有后悔过。我很清楚这对我是非常大的挑战。但接受这个挑战,你就不止获得了辛苦,你会收获到原来不做就永远收获不到的东西。你只有走了这一步,才真正有那个体验,然后有那个体会。这也才使我现在持有这样强烈的主张:很多人说可以把照护交给技术,我认为这是不行的。


从社交网络到社交媒体


人人都是演员


表达变成表演


很多人觉得技术是中立的。讨论“技术中立”,说的不是技术有没有善恶,而是说,我们看到的变化是由于文化内部的力量而不是技术造成的。相应的,“技术并非中立”,是指它有方向性,它能使文化朝着它本来无法去往的方向发展。


我观察这个事情太多年了,如果从95年算起,已经超过30年。举个例子,95、96年,没有社交媒体。社交媒体是21世纪后才出现的,它有一个演变,早先不叫社交媒体,叫社交网络。现在我们把两个概念混用了。千万不要小瞧这两个词语的转变,这是个巨大的变化。只不过我们人人都在这个过程当中,难以看清楚。


社交网络的核心是连接(connect),社交媒体的核心是发布(publish)。社交网络能够成立,因为人本来就是社会动物,在现实生活中就要连接,本来就有社交网。在中国叫关系,社会学分析有强关系、弱关系。你把社交关系搬上网络,主要是为了建立或者加深关系,核心是关系、是连接。


智能手机问世,Instagram推出以后,社交网络开始转变成社交媒体。社交媒体让你通过一个平台尽可能广泛地发布内容。你发布的对象是不是你熟悉的人、是不是与你有关系,都不重要。结果就是,所有人现在都是广播员。这不是完全没有益处,比如表达的民主化,大家都可以表达,变成广播员也有很多乐趣。


但它有两个很关键的要素。第一,社交媒体能够创造利润,平台以此赚钱。这个利润来自注意力驱动的、数据导向的内容经济。第二是算法。以前你的关系网或时间线是非算法的,是按时间顺序排列的信息流。但社交平台发现,如果这个人喜欢一个页面,我就给他推更多这个页面的帖子;如果他喜欢这个视频,就能看到更多视频;如果他跟某人互动,就能更多获取与这个人的互动。严格来讲,算法当然就是人工智能。人工智能在那个时候已经大肆进入网络,根本不是今天的事。


这样,社交媒体把主要行为从连接变成发布,把底层逻辑从社交联系变成广播渠道,平台通过算法加持以后奉行流量逻辑。如果我是平台,我会兜售说所有人不用干别的,都来开自媒体、搞直播,做得好的可以一夜之间变成网红。


这个想法与社交媒体本身的概念结合在一起,我们就进入了灾难。社交媒体的整个概念就是建立系统,提供无穷无尽的内容流。我们今天在这个地方,跟联不联系没有任何关系,你可以把它理解为内容的超级高速公路。这个流永无终止,能给平台带来数据导向的利润,用来做钓你的钩子,让你成为网红,变成社会上令人向往的角色。一旦令人向往,它甚至不是发布,也不是表达,而是表演。最终它完成了从连接者到表达者到人人都是演员的转变,生产的内容既不是表达也不是社交,而是娱乐。


还有别的“走岔”的例子。我也不认同从PC互联网到移动互联网的发展。本来在PC互联网时代,网络基础很简单,就是超链接,大家都是互相连着的,你可以从一个地方跳到另一个地方,真的是超文本或超链接连起来的网络。网络用户总是很慷慨地提供这些链接。PC互联网是建立在人的慷慨精神和分享精神之上的。


移动互联网的好处是人人都方便,所有东西全是APP,但最大的问题是造成大量信息孤岛。我们打个比方,叫有墙的花园。花园里花团锦簇,但高墙深锁,跟其他的花园互不来往。这直接导致了一个局面:在互联网上,平台就是一切。平台逻辑延续下来,一直到今天,比如短剧那么火爆,钱都被谁赚走了?80-90%的收入被流量平台拿走。


无论是从社交网络到社交媒体的演变,还是从PC互联网向移动互联网的迁移,以及平台经济的出现,最后都消灭了多样性。互联网在最好的状态下,本应该是充满活力、大量产出、奇奇怪怪、参差多样的。过去在互联网上活动时,我们有艳遇的乐趣,今天没有了。所有东西都像预制菜一样全给你预制好了。我怀念古典互联网时期,觉得以前很多互联网产品的样式远远比今天好。今天反而越走越糟了。


“拟人论”发展下去


大量的人会丧失权利


社会将更不平等


现在整个人工智能的发展方向,叫作“拟人论”。“拟人论”影响下发展出来的人工智能,我称为模仿型人工智能。我们会把人的意图、目的、动机投射到机器身上,倾向于创造尽可能像人的机器。


大模型为什么这么流行?因为你跟大模型聊天的时候,你真的觉得它是一个能够跟你对话的人。很多时候你忘记了它是个机器。


模仿型人工智能发展来发展去,最终结果一定是取代你。我们过去常讲机不如人,现在可以倒过来讲:它非常像你,越来越像你,比你自己还了解你,比你的伴侣还了解你。最后你面对它的时候,你感到的不是机不如人。你觉得惭愧。最终结果就是它应该替代你,因为你不如它。


人面对自己的造物产生的羞惭,最后可能是一种存在论意义上的羞惭。这可以称为“普罗米修斯式的羞惭”。普罗米修斯造了人。一般来讲造物者总是比被造物高明的。现在我们却发现自己越来越不如被造物高明,不知道这会把我们引向什么地方。很多研究者现在都在鼓吹人工智能是一种新的物种。我对此持非常怀疑的态度。


“拟人论”的背后其实是人类中心主义。我们以前在电影里看到的很多人工智能形象都是非常像人的,一开始服务于人类,然后背叛人类,取代人类,侵略人类,不少塑造都是这样的。这其实是一个自大的过程,人类想造物,造完以后他又开始自卑,他从自大走向自卑。


如果人工智能沿着这个方向发展,就只能造成一个结果:给少数人带来繁荣,但社会上大量的人丧失权利,它会加剧社会不平等。



人工智能不应该只有这个发展方向。另一个发展方向更重要,叫增强型人工智能。AI不是用来替代你,而是用来增强你的能力。如果往这个方向发展,会打开一个崭新的天地。人类能够保留所有创造价值的权利,决策权、责任和主体性始终保留在人手中。同时,增强型人工智能能给我们带来新的产品和服务,这些产品和服务的价值可能远超现在单纯的模仿型人工智能。


我们应该利用这个机会思考:把人解放出来之后,让人去干什么?人和机器怎么共同创造价值?如果是这个思路,人就不会在社会中被机器挤走。


如果技术只是简单替代人,而没有创造新的能力边界,它就只是“替代性自动化”,就像超市中的自助结账系统,自动语音客服,还有很多自动生成内容的低质量应用,它们只替代了人类劳动、却没有显著提升整体生产率。简单来说,它们确实把人换掉了,但并没有让事情变得更快、更好或更便宜多少。


现在很多AI可以帮医生看影像,识别肿瘤、异常点。如果是“替代逻辑”,那就是:以后医生可能不需要了。但现实中更有效的模式是:AI先帮你筛一遍,标出风险点,医生再结合经验做判断。结果是年轻医生也能做出接近专家的判断,整体误诊率下降。这不是机器取代医生,而是把普通医生拉近到优秀医生的水平。


另外一个问题是,生成式智能的投资规模远远超过具身智能。有个叫莫拉维克的学者提出过“莫拉维克悖论”:对人类来说很“高级”的认知任务(比如下棋、证明、算逻辑),机器很容易做得很好;但对人类很“低级”的能力(比如看东西、走路、抓东西),机器反而很难做到。在现实生活中,我不需要AI会下棋,我需要AI给我干家务。但它就不会干家务,它只会下棋。


你应该努力增强你的隐性知识


现在,你的前任同事、老板、专家,包括张雪峰、巴菲特等,都可以被“炼化”成一个个“skill”。我的很多学生现在都在各种岗位上工作,他们已经遇到过这类的问题,就来问说老师,“skill”这事儿你怎么看?更有意思的是一个博士生说,老师你知道吗?现在导师也可以被炼化的,你害不害怕自己被炼化?


我说,看达到什么结果了。如果你炼化我的东西,是为了跟我更好的交流,我举双手支持你炼化我。但如果你是为了避免跟我见面,那我不支持。但是当然了,这是开玩笑的,其实我支持不支持,要想炼化我,她都可以照干。我也没有办法。


不过呢,要看学生炼化我的哪一部分,我不认为学生能真正完全炼化我。我们有一个知识分类,迈克尔·波兰尼讲了,知识有显性知识和隐性知识(也叫默会知识)。显性知识是可以用语言、文字、图表、公式等系统化符号清晰表达、记录和传递的知识。但隐性知识具有情境性和身体性,根植于行动和经验中,不可完全言说,难以完全量化。波兰尼说:我们知道的多于我们能够言说的。


如果你在制造业工作就会发现,公司最有经验的工程师掌握着大量关键知识,但它们从未进入手册或数据看板,其中很大一部分判断能力,是他们在数十年处理模糊问题、进行各种权衡取舍的过程中逐步形成的。


显性知识比较容易被“炼化”。但我不觉得如果你的显性知识多就很厉害。这只是知识的外壳。这也是我给学生的一个建议:你应该尽量想办法努力增强你的隐性知识,因为显性知识被替代的可能性是很高的。别说被AI替代了,别的人也可以替代你。无论是个人还是组织,在一个数据充裕、模型逐渐开放的时代,隐性知识将成为其下一道护城河。


文科需要解决的


是行星层级的问题


人跟机器相处还有一个很大的问题:如果真出了问题,这个责任不知道由谁来负。机器难以负责。我写过论文,提出我们要重新审视计算与判断的关系。机器所做的每步,追溯到最后你会发现,它其实还是获得了人的一个指示,或者人的一个提示。机器可以决定,但它们不会选择。选择是只有人才会做的。


选择这个事情其实包含着人的主动性,包含着人类的创造力,还包含人类的责任。因此有很多很核心的东西,我觉得是既不应该外包给机器,也无法外包给机器的。


不是说什么都不能外包给机器啊。有一些还是可以的。比如扩展认知边界。机器那种百科全书的属性、它在众多的数据中给你输出某种联系的属性,当然是比人厉害的。


然而生成式人工智能产生的创意都是单一模型框架,这种单一性源于训练数据分布与概率引导的机制,它非常擅长排列组合,擅长计算哪个概率更高,它会把这个概率作为答案给你。在个体层面上,人工智能可以帮助个体扩展想象空间,一点问题也没有。但这个系统能不能产生颠覆性的创新想法?在群体层面,它能不能产生想象空间?我觉得要打很大的问号。


有人举例说,人工智能帮助科学家获得诺贝尔奖。但我们可能还需要用更高的层级来衡量——不是个体的问题,也不是群体的问题,是行星层级的问题:经济不平等,至今人类消除不了;气候变化,大家根本没有办法;暴力,战争还在打,就在我们眼皮子底下。人工智能真的有可能在这个层面产生颠覆性的范式创新,让全球气候变化停止、改变经济不平等、消除暴力吗?我现在所见到的是,人工智能可能会加剧经济不平等。


我们正面临一个危险的十年,因为在组织结构、制度安排、立法体系以及经济理解等方面,我们对这种变化中动态关系的把握速度远远不够。极为必要的是在经济学、法学与社会学等领域投入更多资源,以更深入地理解这场技术变革所带来的广泛政策影响。只有在做出正确决策的前提下,我们才有可能实现技术所承诺的对地球与人类社会带来的大规模整体收益。这如何能够离开人文社会科学呢?


伦理学也很重要。其实AI时代很多伦理争论与前AI时代具有延续性。电车困境现在完全可以移到自动驾驶上。自动驾驶可以设定很多条件,让你再次遭遇选择功利主义还是义务论的选择:是压死一个老人还是小孩?一个男人还是女人?一个罪犯还是普通人?是优先保车内乘客安全,还是优先保路上行人安全?这些道德困境在人工智能时代获得了新的含义,我们仍然需要争辩指导行为的伦理准则到底是什么。


我想说的是,我们需要在存在论的意义上想这些事情。它甚至比伦理更深,是在存在意义上想清楚人活在世界上到底是怎么回事。用佛教的话来讲,就是“桶底子脱”。凡是真的想明白的,一定是在存在论层面。那些没想清楚的人,一定不是在存在论层面上想。在伦理学层面上想已经很高了,很多人只是在实用主义角度想——我说的不是哲学上的实用主义,是现实中的实用主义。


现在的教育导向经常把人生当做填空题。填空题就一定有标准答案。其实你完全可以把人生当做涂鸦纸。用我的话来讲,没有最好的生活,只有最多的生活,数量高于质量。活得最好的人不是拥有最好的生活,而是拥有最多的轨迹。他对人生的理解不是单一的,不会把自己镶到唯一的一个模子里被塑造成型。他是不可塑的。或者讲,他是支棱八翘的。

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

大 家 都 在 搜