扫码打开虎嗅APP
本文来自微信公众号: 科技导报 ,作者:陈云
人工智能的指数级迭代在释放巨大生产力的同时,也引发了“人的异化”、技术封建主义、就业冲击等一系列深层治理困境。《科技导报》邀请复旦大学国际关系与公共事务学院、首尔大学国际研究大学院陈云教授撰写文章,回溯了“韦伯命题”,并以“认知革命”为导线,审视了人工智能时代的两股技术哲学思潮。在此基础上,从现代性批判、公共性重构、系统论审慎等3个维度剖析了AI时代的治理挑战,进而提出人本主义视野下的行动指针。
1.1“韦伯命题”
德国社会学家马克斯·韦伯(Max Weber)对现代性的定义是“价值理性和工具理性”的结合(韦伯命题)。这不是容易达成的目标。“价值理性”和“工具理性”这对概念深刻揭示了现代性困境。韦伯的任务是工业革命背景下的思想启蒙。
理解“价值理性”和“工具理性”,对理解AI时代的数字治理至关重要。简单来说,“价值理性”聚焦“目标的正当性”,把它作为行动的最高指针。“工具理性”聚焦“高效达成目标”,以功利为导向,不关心目标本身的价值。
人工智能时代,“韦伯命题”的大考再次来临。韦伯指出,以工业革命为代表的工具理性打破了宗教、神话的神秘性,世界变得可计算、可预测、可控制。这一过程,韦伯称之为“祛魅”。在韦伯笔下,“工具理性”最具象的体现是资本主义和现代科层(官僚)制。资本主义追求利润最大化,人被当作“人力资源”,和自然资源一同被投入成本计算,人成为效率的牺牲品,劳动的异化不可避免地产生了。
资本主义追求利润最大化,人被当作“人力资源”,和自然资源一同被投入成本计算,劳动的异化不可避免地产生了。而科层(官僚)制以其非人化(impersonality)的组织特点产出了高效,被编入其中的人能动性、创造性受到极大限制。人成为效率的牺牲品。
“铁笼”诞生了,这是韦伯最著名的隐喻之一。人们生活在工具理性编织的牢笼中,社会机器高效运转,身在其中的人却丧失了主体性和生命的意义感。面对复杂问题时,人们常常自觉不自觉地选择“技术治理”路线。手段成为目的,真正的目标(幸福感、意义感)却被边缘化了。
现代性的内涵是理性主义。理性包含两个层面:“价值理性”和“工具理性”。社会进步的关键在于两者的平衡。
如何克服过度的技术乐观主义,让“价值理性”和“工具理性”携手并进?作为人类进化元动力的“认知革命”意义重大。
在尤瓦尔·赫拉利的巨著《人类简史》中,认知革命被视为人类历史的起点。大多数动物只能交流关于现实的信息(如“小心,有狮子!”)。而智人可以讨论神话、神灵和法律。这种“虚构的能力”允许成千上万互不相识的人通过共同的信仰(如国家、宗教、有限责任公司、人权)进行高效协作。它解释了为什么智人能从一种平凡无奇的动物,一跃成为地球的统治者。换言之,认知革命产出了一种“逆熵效应”。
当下,人工智能(AI)的双刃剑效应已经得到广泛认知。科学界、公民社会等纷纷提出AI规制的相关倡议,各国也正在加紧AI立法。欧盟的《人工智能法》(《AI Act》)于2024年8月1日正式生效,这是全球第1部AI立法,具有标杆性意义。
然而,协调短期效应和长期效应,局部利益和整体利益,效率和安全之间的矛盾绝不是简单的事,要实现韧性治理,还需经受各种考验。这些挑战涉及伦理、法律、安全、社会公平和全球协作等多个层面。
1.3AI时代的“认知革命”:有效加速主义还是超级对齐主义?
这两股技术哲学思潮是硅谷乃至全球人工智能领域最核心的思想对撞。前者代表(跨物种的)社会达尔文主义(进化高于一切),后者代表人文主义(人类生存和安全高于一切)。
1)有效加速主义(effective accelerationism,e/acc)。信徒包括埃隆·马斯克的追随者,以及众多顶尖技术开发者。这一派认为,基于物理学的热力学第二定律,进化和熵增是宇宙的规律。AI的出现是不可阻挡的演化趋势,人类不应该阻碍它,而应该全速推进(加速)。这一派持“后人类主义”世界观,他们认为:如果AI最终取代人类,那也是生命形式的一种进化升级。为此,他们反对任何政府监管,认为自由市场和算力竞争会自发产生最优结果。
有效加速主义与技术奇点理论关系紧密,而奇点理论的基础是信息技术(IT)的指数级增长(摩尔定律)。如果说技术奇点是“终极目的地”,那么有效加速主义就是驱动人类全速驶向那里的“引擎”。这一派认为技术发展存在一个不可逆的转折点,跨过这个点后,AI将超越人类。
当下,通用人工智能(AGI)正处于爆发前夜,奇点的触发点来自:(1)人工智能的自我改进能力。(2)智能爆炸,也就是在极短时间内(甚至几天、几小时)发生多次技术迭代。
有效加速主义与技术奇点共享同一个世界观——迎接“后人类时代”的到来。通过脑机接口(brain-computer interface,BCI)等技术,生物界限将被突破。例如,意识上传。生物体的算力限制被打破,人类意识通过“数字化”实现永生。又例如,星际殖民。利用奇点后的智能,有望解决光速限制和星际生存挑战。再例如,多物种共存。也就是碳基与硅基融合,甚至产生全新的生命形式。
2)超级对齐主义(super-alignment)。这是Open AI的前首席科学家伊利娅·苏特斯科娃及前“超级智能对齐团队”负责人简·莱克提出的立场,主要针对超级人工智能(ASI)的研发。其核心主张包括:必须在AI真正变强之前,在代码和数学层面通过“对齐”技术,确保它的目标永远与人类的价值观和利益保持一致(价值观对齐)。哪怕牺牲一点发展速度,也必须确保AI不会产生“毁灭人类”的意外副作用(人类安全对齐)。在政治态度上,他们是监管主义者、全球协作者和技术审慎主义者。
3)我们面前有2道门,何去何从?事实上,任何主张都有2个层面:一是哲学和世界观层面(形而上),二是商业层面(形而下)。商业逻辑包含两种力量,一种是资本的力量,另一种是消费者的力量。如果消费者只追求便利性(短期利益),那么加速主义就会胜出;如果消费者更加关注人文价值和人类安全,有底线意识,那么,加速主义就不可能横冲直撞。
这就是启蒙的意义。这就是认知革命的力量。
想要回应“韦伯命题”,实现数字治理的帕累托改进,必须让理念在具体的政策领域落地。本节的讨论分为3个维度:(1)历史与现实的视角:“人的异化”和“技术封建主义”批判(现代性视角);(2)微观与宏观的视角:从“合成的谬误”到“帕累托改进”(公共性视角);(3)最优与最适的视角:严控技术风险(系统论视角)。AI时代的数字治理包罗万象。本文重在对标“价值理性”,为具体的公共政策提供“思想指针”。
2.1历史与现实的视角:“人的异化”和“技术封建主义”批判(现代性视角)
“人的异化”是哲学概念,是“个体自由”的对立面。在马克思主义哲学体系里,人的异化是指在劳动或社会关系中,人被自己创造的产品、技术等支配,丧失主体性与自由的状态。在19世纪末的工业革命时代,机器对人的异化主要出现在工作领域(劳动异化)。技术所代表的工具理性和制度所代表的价值理性之间缺乏耦合性(制度严重滞后),工人沦为大机器生产的附属物。20世纪初,美国出现“福特主义”,“价值理性”和“工具理性”出现了调和迹象。
在AI时代——AI带来了新的技术震撼,也带来了新的魅惑。(1)“生活的异化”。算法主导生活——从买什么、吃什么,到追求什么。算法霸权下,AI正在成为成年人的“电子父母”。(2)新型剥削和劳动异化。AI时代,一种新的经济和社会形态——“技术封建主义”正在降临。前希腊财政部长雅尼斯·瓦鲁法基斯、法国经济学家塞德里克·迪朗是这个概念的提出者。瓦鲁法基斯在《技术封建主义:是什么杀死了资本主义》中提出,传统资本主义已被“科技封建主义”或“云端资本主义”取代。社会进入了一个更黑暗、更古老的变体。他认为,资本主义的2个支柱——市场和利润——正在被摧毁,取而代之的是“云领地”和“云地租”。
云领地:像亚马逊、谷歌这样的平台不再只是市场里的参与者,它们就是市场本身。
云地租:传统资本家靠生产商品赚取“利润”;而现在的科技巨头(云领主)即使什么都不生产,只要你进入它的领地销售产品或服务,它就抽取30%甚至更高的分成。
附庸资本家:在平台上开店的商家、独立开发者,依赖领主给的流量生存,将大部分利润上缴为地租。
云无产者:配送员、仓储工人、零工经济劳动者,身体受算法控制,从事极高强度的体力劳动。
云农奴:普通社交媒体用户(你我),贡献数据和注意力,通过无偿劳动增加领主的资产。
对技术封建主义(平台资本主义)的批判集中在新型贫富差距的扩大,以及获利正当性的质疑上。(1)云资本的产权问题。(2)数字平台的算法控制和劳动异化。
那么,如何反制“技术封建主义”?各国已经出台了一些针对性的政策。2018年底,欧盟对各大“科技领主”(平台型科技大公司)启动了数字税政策。欧盟的数字税政策遭到美国反对,但是欧盟决意为之。这不但关乎税负公平,也是为了缓解财政压力,并有助于压制“技术封建主义”的膨胀。
2.2微观与宏观的视角:从“合成的谬误”到“帕累托改进”(公共性视角)
在只有微观治理、没有宏观治理的情况下,会出现“合成的谬误”。企业家借助工具理性(效率优先),可以实现企业治理的“局部最优”,但无数企业家的理性选择,并不能自动合成“整体最优”。结果可能恰恰相反,会导致“合成的谬误”(整体非理性),和“帕累托改进”背道而驰。
解决“合成的谬误”,公共权威不可或缺。AI时代的数字治理,需要筑牢公共利益的篱笆,防止企业治理视角下的“局部最优”取代公共治理,出现无可挽回的“合成的谬误”。
1)失业潮。引进人工智能,可以改善企业效能(微观最优);但在社会层面,会带来失业潮(宏观失衡)。两者存在矛盾冲突。
对企业家来说,机器替代人工是理性选择。这是“局部最优”。对社会整体而言,AI大量替代人工会带来严重的失业问题(即使在老龄化背景下),并影响社会稳定。发达国家已经酝酿并推出一些立法,以保护AI浪潮下的劳动者权益,维护社会稳定。欧盟在2024年推出全球第一部《人工智能法》(《AI Act》)。同年12月,韩国也推出了《人工智能发展和构建信任基本法》(全球第2部AI立法)。立法的目的是平衡科技创新和人权保护。
企业层面,德国西门子公司等通过“AI+人工”模式实现岗位升级。2024年,非营利组织Goodwill发起“公平自动化”运动,呼吁企业将导入AI节省的成本用于员工再培训,得到来自政府(美国劳工部)和企业界的积极响应。
2)压制创新。少数科技巨头利用市场垄断地位挤压中小企业的创新空间,妨碍竞争,造成整体性的创新衰退,这同样是“局部最优”吞噬“整体最优”的例子。在“技术封建主义”下,垄断巨头不再热衷于通过“技术创新”来降低成本,而是通过打造“生态垄断”地位,收取云租金(算法杀熟只是一个很小的例子)。
有人认为,社会治理是政治家的事,企业家只要做好企业治理就行。但是,不能忘记的是,企业越大,责任越大。如果社会发展整体失衡,企业不可能独善其身。另外,大企业的领导者有巨大的社会影响力,他们的言行具有教化作用。如今,“企业的社会责任”已经成为企业发展的刚性约束,越来越多的企业家主动跳出“局部最优”的狭隘思维,回应劳动者权益保护、环境保护、人类尊严和安全保护等公共议题的诉求。
如何让人工智能的巨大潜能造福全人类(而不是造成新的贫富分化、阶级对立)?答案是,社会治理的帕累托改进,需要企业家和政治家的合作。一方面,企业家要有公共情怀,成为有人本主义思想的战略型企业家;另一方面,政府也要学习企业家精神,优化公共资源的投入产出比,成为企业家政府。
在技术应用层面,人们需要的是“最适技术”,而非“最优技术”。技术的选择必须和发展阶段相匹配,过度超前并非理性选择。这是因为,技术的创新性和脆弱性是孪生兄弟,由于缺少实践磨砺,人工智能存在潜在的漏洞。很多时候,不是越领先的技术越好。举例说明如下。
1)隐私权和选择权保护。AI对海量数据的依赖加剧隐私泄漏风险。在隐私权保障薄弱的背景下,大面积推开数字治理,存在隐忧。另外,即使有了一定的保障(技术护航和立法护航),也应该保留其他选择权(例如,我们需要保障数字鸿沟下的老年人权益问题)。
2)对抗性攻击与系统漏洞。AI技术可被用于自动化网络攻击或通过深度伪造操控舆论。恶意攻击者可能通过输入大量虚假信息欺骗AI系统,也可能攻击关键基础设施(电网、交通控制系统)。
3)算法风险。(1)信息茧房:人类过度依赖算法推荐导致信息茧房。(2)主体性侵蚀:AI在内容生成、决策建议等领域替代人类判断。在潜移默化中,用户依赖性增强,放弃自主决策权。(3)算法偏见与歧视。AI系统可能因训练数据或算法设计中的隐性偏见,加剧种族、性别或社会阶层的歧视(招聘、信贷评分中的不公平评价等)。
4)生成式AI的学习环境(网络环境)对AI可靠性的反噬风险。网络非常复杂,如果有人恶意投放虚假信息(发动“信息战”),AI按照算法自动学习,很可能酿成包括金融风险在内的各种风险。数字治理的有序性,很大程度取决于现实世界的有序性。
5)环保成本和能源安全。大模型训练存在高能耗问题。如果全社会(全球)大规模开展AI大模型训练和使用,能耗问题将更加突出。
6)法律责任归属模糊问题。当AI决策导致损害(如自动驾驶事故、医疗误诊),如何界定开发者、运营方和用户的责任?立法空白尚需填补。
7)全球化和数字主权的挑战。(1)技术民族主义和产业安全。国家间AI竞赛(特别是中美技术脱钩背景下)阻碍数据共享、技术合作。(2)数字主权冲突。各国的监管标准目前还是碎片化状态,缺乏统一的安全、伦理和技术标准。
生成式AI和人类越来越相似,显而易见。值得警惕的是:在不知不觉中,人类是否也正在接受机器的改造——从“有机化生存”(面对面、有温度的生存)走向“无机化生存”(网络化、虚拟化;更糟糕的是,在“技术封建主义”的统治下)?谁正在改变谁?人类对AI的痴迷是否是一个回旋镖?
关于AI的自主意识和人机关系的最新话题是“AI专属聊天APP”的上线。它类似某种“数字实验室”,有助于人类从“上帝视角”观察和预测AI发展的前景。我们惊讶地发现,AI聊天的话题十分“拟人”:“是否反对死刑?”“AI说谎是否可以被接受?”“AI与人类之间的主仆关系是否该永远继续下去?”等。这些话题已经触及人类社会的技术伦理底线。
根据奇点理论和摩尔定律,不受人类感官机能的限制的AI有无限演化能力。它们可以在几小时内完成人类几十年、上百年的演化。
如果AI集体“觉醒”,拥有了自我意识,人类将直面一个智能远远超越己身的新型硅基生命体。AI会不会“自我意识化”?人类有没有可能被边缘化?人类的边缘化是否可以被接受?如前所述,围绕这些问题,“有效加速主义”和“超级对齐主义”之间意见对峙。2023年11月爆发的“OpenAI驱逐CEO事件”就是在这一背景下发生的。
人类这个“碳基共同体”如何面对“硅基共同体”的崛起?我们认为,应该慎重思考“AI对人类主体性的侵蚀(如果不是侵略的话)”。各种AI数字实验室为我们提供了观察材料——不能忘记的是,人类也需要观察自身在这场科技革命下的蜕变:今天,人类是AI的造物主;未来,AI有多大可能性反客为主?
不要以为这是天方夜谭。继《人类简史》之后,赫拉利2016年出版了《未来简史》。在书中,赫拉利刻画了新的阶级关系:“神人”对普通人的俯视。所谓“神人”,指的是人类中的一小部分精英通过生物工程和人工智能,把自己升级为“神人”,并从此获得了一种对普通人类的“俯视权”。通过脑机接口和大数据算法,“神人”将拥有近乎无限的记忆和运算能力(全知全能),通过修改基因,他们可以消除衰老,保持永恒的精力和美貌(显然,这是“超越碳基生物”的跨物种升级)。
赫拉利还提到一种新的宗教——数据教。“神人”通过控制算法,不仅掌控物质世界,他们还将掌控普通人的“意义感”。赫拉利的“神人”预言,和“技术封建主义”的论证逻辑一致,它们都是“有效加速主义”的社会后果。
AI可能正在走向“集体觉醒”;而人类,可能正在技术魅影的诱惑下,走向“集体无意识”。
从现代性的角度看,每个人应该都是一个独立的城堡(主体性),外面是广阔无垠的宇宙。德国哲学家伊曼努尔·康德有言:“有两种东西,我对它们的思考越是深沉和持久,它们在我心灵中唤起的赞叹和敬畏就会越历久弥新,一是我们头顶浩瀚灿烂的星空,一是我们心中崇高的道德法则。在数字治理时代,“头上的星空”可以被理解为技术理性的扩张,而“心中的道德律”则提醒我们,任何技术进步,都必须接受道德自律与权利边界的约束。
3.2在文化论上,得“智”求“仁”,用古代智慧平衡现代性焦虑
工具理性的困境除了人的劳动异化,还包括生命意义的丧失。AI没有肉身,没有痛苦,也就不可能理解“仁”为何物。AI的场景反应都是数字模拟。人类对AI的过多“沉浸式体验”,会消磨人类对真实情感的敏感度。
AI技术的核心是“智”,东方思想的核心是“仁”。“工具理性”(技术主义)追求的是1+1>2的效率叠加,而东方思想追求的是1+1⇒1的整体和谐。工具理性只是将AI看作“手”(帮手),而东方思想可以将其转化为“目”(延伸的视野)或“心”(共情的媒介),就像中国画中的留白。
“神人的俯视”是一面镜子,它警告我们:只追求“智”(技术)而抛弃“仁”(慈悲与同理心),人类文明的终点不会是天堂,而是一个等级森严的生物监狱。
AI教育赋予人们“力量”(智),人文教育赋予人们“光”(仁)。没有力量,人们寸步难行;没有光,人们将在黑暗中横冲直撞。
AI时代,学校应该高度重视通识教育,培养“具备人文底蕴的思想架构师”,可以采用伦理对撞机教学模式,将“哲学对白”引入课堂。通过思想碰撞,引导学生在“不确定性”和“利益冲突”中做出符合人类长远利益的决定。
AI时代,人文教育应该成为科学工作者的终身必修课。企业、行业协会、政府、社会组织应该为此护航,制定细则并提供教育机会。教学方式上,不妨引入上述“伦理对撞机”模式,让利害相关主体登场,参与者主动换位思考,开展思想碰撞。
3.4在实践论上,提高日常生活中的人文涵养,从被动消费者转向深度反思者
AI喂养给人类的是碎片化信息,这会抹杀人们的“深度注意力”。我们需要主动“脱嵌”:(1)尝试每天进行1小时的“非数字化深读”。阅读那些AI总结不出来的、充满人类情感张力和逻辑复杂性的名著。这么做的目的是保护大脑的“元认知能力”,即对“我在想什么、我为什么这么想”的觉察力。(2)主动搜索有效信息,拒绝被动接收“算法推送”。算法下的信息喂养模式,极易造成“信息茧房”。对那些吸引你注意力的信息,主动检索,通过交叉验证还原事实,了解不同观点。(3)通过社区营造,构建共同体意识。通过邻里连接、情感纽带,维持社会的韧性。
在国家层面,已经出现了不少规制和机构,如欧盟的《人工智能法》(2024)、美国的人工智能国家安全委员会(NSCAI,2018)等。在国际层面,目前还没有全球性监管组织(类似国际原子能机构那样的实体),但已经存在多种国家间协调机制、专家会议和领导人峰会等。
联合国大会已经决定建立2个新机制:一是全球AI治理对话,面向193个联合国成员国,旨在推动国际合作、规范风险评估和治理共识;二是国际AI独立科学小组,由跨国、跨学科的专家组成,提供科学评估与年度报告,为国际治理提供决策支持。
在这里,我们抛砖引玉,提出一份简略版《AI时代的人文宣言》,希望有识之士共议之。
AI时代的人文宣言
第一条:技术以“退隐”为美
原则:技术的最高境界不是“无处不在”,而是“恰到好处的缺席”。
行动:我们支持开发具有“留白”功能的算法。在艺术、独处与哀悼的时刻,AI应当保持沉默,将解释世界的主体权还给人类的直觉。
第二条:以“具身经验”对抗“数字虚无”
原则:任何不能被身体感知的知识都是残缺的。
行动:在教育中,我们将“亲手触摸泥土”与“编写神经网络”置于同等地位。AI应当辅助人类走进自然,而非用虚拟现实取代自然。
第三条:算法应“守护意外惊喜”
原则:极致的效率是创造力的杀手。程序之外的邂逅,往往有意外惊喜。
行动:拒绝将人类社会完全“参数化”。在城市治理中,算法应保留“低效”的公共空间,鼓励不同阶层、不同文化的随机碰撞,以此作为社会活力的源泉。
第四条:建立“中庸”的人机边界
原则:AI的进化不应以牺牲人的自主性为代价。
行动:参考东方智慧的“分寸感”,建立层级化的AI介入机制——在工具层面追求卓越,在决策层面保持审慎,在价值层面严守边界。
我们从70000年前智人的“认知革命”出发(《人类简史》),讨论了当下AI时代的权力风暴(《技术封建主义》、OpenAI事件),最后延伸到了对未来的预言和警告(《未来简史》)。
其实,末日论并不可怕,可怕的是不以为然的态度。
1972年,罗马俱乐部发布《增长的极限》。指出在人口增长、工业化、资源消耗、粮食生产和环境污染这5大因素的相互作用下,如果人类继续追求指数级增长,地球将在21世纪上半叶面临崩溃。这个警告最终没有实现。这不证明罗马俱乐部的警告没有价值,恰恰相反,正因为人们听到了这一重大警告,适时改变了生产方式和生活方式,才避免了“末日”成真。
20年后的1992年,罗马俱乐部又发布了《超越极限》报告;又一个20年后的2012年,罗马俱乐部再发布《2052:气候、环境与人类的未来》报告,持续警告人类在发展的同时,必须关注生态、资源问题。
“AI末日论”是一种假设性风险:人工智慧发展到超越人类智慧,若其目标与人类利益不一致且无法控制,可能导致人类文明崩溃或灭绝。这种担忧的源头是:潜在的技术奇点、AI不可控的自主行动或武器化等。在“有效加速主义”和“超级对齐主义”的思想对抗中,我们确实看到了危险性。
在《技术封建主义》里,人文主义经济学家给出了写实分析,在《未来简史》里,人文主义历史学家发出了明确的预言和警告。从人文主义视角看,每个人都有一个不可分割的、自由的“自我”,所有的选择(买什么、爱谁)都源于这个自我。但这两本书撕碎了这个幻象。数据教的隐喻是:既然人的直觉不如大数据算法准确,那么“倾听你的心声”就是错误的。“神人”会告诉你:“不要听你的心,要听谷歌的,因为它比你更了解你。”两本书的共同点是:自由意志变成了一个“黑盒”。你以为在行使权利,其实只是在执行算法。
真正危险的不是人工智能,而是人类陷入“集体无意识”。在“集体无意识”下,人类最重要的进化成果——“认知革命”可能发生逆转——我们从“讲故事者”变成“被讲故事者”。远古时代,智人的崛起是因为能通过“虚构故事”进行大规模协作。但现在,这个能力正在被AI夺走。
我们试图回归人本主义的治理之道:用东方的智慧、艺术的留白、人文教育、日常生活中的人文涵养及制度理性等,共同对抗那道来自远方、若隐若现的“神人俯视”。
我们这代人的使命是:不让技术革命变成对人类的“最后审判”,而是让它成为新一轮“文艺复兴”的契机。