正确的提示信息

扫码打开虎嗅APP

从思考,到创造
GO!
搜索历史
热搜词
2020-01-06 08:29
AI的反乌托邦:该控制造物者,还是控制造物?

本文来自微信公众号:Nature自然科研(Nature-Research),作者:David Leslie,原文标题:《崛起的机器人、不幸的人类:AI的反乌托邦》,Photo by Alex Knight on Unsplash


David Leslie对Stuart Russell审视人工智能如何失控的新书进行了评论。


在2019上海世界人工智能大会上展示的监控摄像头。来源:Qilai Shen/Bloomberg via Getty


Stuart Russell在他的人工智能新书《人类兼容》中直面“控制的问题”,即通用人工智能最终超过其创造者的智力水平,带来不可逆的反乌托邦的可能性。


控制问题由来已久。小说家塞缪尔·巴特勒在其1872年的经典科幻小说《埃瑞璜》(Erewhon)中就描绘了对于机器人的超人智慧的担忧:机器人奴役自己的人类制造者并将他们变成“取悦机器的寄生者”。然而在1956年,控制论之父诺伯特·维纳在《人对人的利用》(The Human Use of Human Beings)中写道,社会面临的危险“并不源于机器而是源于制造它们的人类”。Russell的新书实际上正着笔于这种紧张关系:问题是要控制造物还是控制造物者。从某种意义上来说,这从AI诞生之初就已根植于它的内核中了。


即便是在AI诞生的初期,激烈的争议就不断裹挟着它的发展。Russell简要地回顾了1956年AI的创造者们在达特茅斯学院举办的那场研讨会。在这个具有传奇色彩的AI诞生地,研究人员激烈地争论应该如何为当时仍在蛰伏中的发明命名。博物学家和未来的诺贝尔奖获得者希尔伯特·西蒙和计算机科学家艾伦·纽厄尔更为偏好“复杂信息处理”(complex information processing),这种命名所反映出的精确性揭示了现代科学方法的约束力,让人会想起像麦克斯韦那样一点一点进行研究和发现的过程。计算机科学家约翰·麦卡锡和马文·明斯基(可以称他们为智能学家)则更希望将其命名为“人工智能”(artificial intelligence)。麦卡锡认为这更具市场价值,而明斯基则认为命名“不单单是一个技术问题,更是一个美学问题,或者说是一种庄重的感觉”。


麦卡锡、明斯基和其他的智能学家借鉴了行为主义,这是一个横跨自然和人类科学并包含丰富的心理学词汇的领域。他们似乎这样假设:看起来“有思想”的行为在逻辑上足以证明自身的存在。所以他们可以声称他们的机器可以进行简单的思考和感知,只要它们看起来会思考和感知。


马文·明斯基,提出“人工智能”概念的计算机科学家之一。来源:RGB Ventures/SuperStock/Alamy


后来我们都知道智能学家的命名胜出了。从此,这个领域走上了起起伏伏的发展道路,不吝承诺却无法一一兑现,睥睨一切却不得不在漫漫严冬中自舔伤口。人们不禁会想,如果西蒙和纽厄尔在当初获胜,AI研究的命运将会怎样。Nick Bostrom 2014年的畅销书《超级智能》如果被叫做《超级复杂信息处理系统》是否还会产生一样的影响力?Russell是否还会撰写《人类兼容》呢?


这些问题依然存在争议。但确定的是,《人类兼容》标志着AI研究领域的一大进展,尤其是该书对于伦理的强调。在书中最核心的部分,Russell尖锐地讨论了AI技术的滥用。他警告说,结合大规模的数据收集后,类似语音和面部识别技术、人脸伪造生成器以及信息整合系统等AI应用可以被应用到监控、控制和大规模的行为操控中去。他重点突出了人类在这些技术面前的脆弱性,强调了在“基本真实的信息环境中”生活的心理安全的权利;同时还以充分的论据来反对被视为“可扩展的大规模杀伤性武器”的致命自主武器。


但令人惊讶的是,在掷地有声地讲述AI在当代被误用和滥用的情况后,Russell却没有公正地审视AI为社会带来的进步和益处。它们已经在帮助人们应对气候变化、生物多样性流失、疾病检测和灾害救援等方面的诸多挑战。例如在医学图像分析领域,AI应用已经在乳腺癌、非小细胞肺癌和慢性心力衰竭等疾病的早期检测中发挥出显著的优势。整合宏观气象预测和局部观测数据的机器学习模型使得科学家们可以在气候适应和缓解方面协助政府。


但“无趣”却有益的“工具型AI”——Russell口中的说法——不是本书的主角,“超级智能”AI才是,后者才是控制问题真正的根源。换句话说,一旦“超级智能”AI的认知能力超越了人类,AI可能变得不可控。他向我们保证说,目前还没有到这一地步,但是如果这一天终将到来,我们最好未雨绸缪。


但Russell却没有能够让我们相信“第二个智能物种”将会到来。他在书中对于“智能”的描述前后不一,令人困惑,细心的读者一定会感到不明所以。他在定义AI时,将“智能”归结为工具理性。按照他的说法,理性主体会理智地行动,即他们的行动是为实现一定的目标服务的,从而使预期效用最大化。倾向于形式化的老派行为经济学家,或是会在白板上吱吱地写下奖励函数的AI技术专家也许会对这个观点大加赞赏。但是,这是一种狭隘的描述,当Russell将其应用于他所谓的“过度智能”AI时,便暴露了其中的荒唐。


Russell举出的人类意图在目标导向的超级智能机器中被歪曲的例子十分令人困惑。他描述了这样一类场景:家用机器人将家里的猫烤了来喂饿了的孩子;AI系统在每个人体内诱导肿瘤来快速寻找最优的癌症疗法;地质工程机器人选择让人类窒息来为海洋脱酸。读者在这里难以发现任何所谓的智能。


2018年在日本的一个贸易博览会上展示的人工智能个人助理。来源:Tomohiro Ohsumi/Getty


Russell差不多也承认了工具型能力不足于描述完整的智能能力。为了回避这个问题,他牺牲了他自己的定义的一致性。他认为要让超级智能AI的作用充分发挥出来,还需要实现一系列的“概念突破”,包括获取常识能力、掌握上下文和相关性以及理解自然语言等等。


这份清单让人难以消化。它仅仅是列举了六十多年来未予回应的批评、棘手的缺点和重复的失败,其中大部分源于认知科学家泽农·派利夏恩在1987年提出的“推理中的整体论问题”。这些问题源于AI系统无法像人类一样,从无数可能的含义、性质和关系中总结得出一种可行但暂时性的对于世界的认知,正是这些含义、性质和关系构成了一个动态的世界。


《人类兼容》没有提出硬性证据说明复杂信息处理系统——超级智能的或反之——如何能够解决前文提到的问题。Russell也没有澄清这种能力与他提出的一心追求成功的经济机器人(Robo economicus)如何相容。相反,他忽视了二十世纪思维方式的硬伤,基于整体论从上下文去理解推理,导致不得不承认智能本身存在的局限。因此,Russell陷入了技术解决方案主义的圈套,技术解决方案主义认为智能可以被视为一个“工程问题”,而不是需要持续进行自我批判审视的人类特征的一个约束维度。


但Russell的书依然为世人敲响了重要的警钟——尽管这并不一定是他的本意。真实的控制问题并不是管理超常的超级智能造物的到来,更关键的是要控制那些洋洋得意的造物者,他们也许正在Russell 本人所拥护的智能之定义的误导下,研发日渐“自主”的AI技术。


本文来自微信公众号:Nature自然科研(Nature-Research),作者:David Leslie

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
打开虎嗅APP,查看全文

本文已被收藏在:

热 文 推 荐

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账户

    自定义
    支付: