扫码加入虎嗅会员

“扫一扫”立享会员服务

正确的提示信息
取消 发送 评论
取消 发送 评论
取消 发送 评论
虎不咬你,你来咬我?
好啊
搜索历史
热搜词
《西部世界》,能给现实世界的人工智能带来怎样的启示

本文来自微信公众号:腾讯研究院(cyberlawrc),作者:王健飞,腾讯研究院研究员,虎嗅获授权发表。


《西部世界》又来了。


继2016年,美剧《西部世界》刷爆朋友圈之后,它的第二季现在已经开播并且由腾讯视频独家引进。


《西部世界》讲述了在一个以美国西部为主题的大型主题公园里,园方使用搭载超高人工智能的仿生人作为服务人员,让游客进入完全沉浸式的角色扮演体验的科幻故事。


在第一季中,随着剧情的展开,西部世界主题公园中的服务机器人开始像每一部赛博朋克作品中的人工智能那样开始觉醒、逃离、反抗。


凭借简单设定基础上复杂的故事线设置和别出心裁的剪辑技巧,《西部世界》剧集在播出后获得了极高的反响。在豆瓣上,《西部世界》的第一季收获了14万余人的评价,评分高达 8.8 分,第二季目前评分 9.2 分。


《西部世界》的导演乔纳森·诺兰表示,这部剧的火热反应了大众对人工智能的焦虑与思考。


如果你还没有开始看西部世界第二季,不用担心,本文不会讨论第二季的剧情和新增设定。我们只想顺着《西部世界》的方向,去思考一下它对现实中人工智能发展的意义。


机器人在短期内不会变为现实,但《西部世界》对AI仍有指导意义


《西部世界》中对接待员人格觉醒的定义和对“故事”的定义,都有助于为解决现实中的AI问题提供一些思路。


首先,就是算法的价值观问题


在谈到《西部世界》剧情对这个现实问题的指导意义之前,我们不妨先了解一下《西部世界》世界观下的算法。


在《西部世界》中,矛盾被描述为人工智能觉醒并形成自我人格的一种关键因素,这起源自美国上世纪70年代一种并不主流的心理学理论“二分心智”。


在第一季的结尾,机器人梅芙放弃了坐上火车混入人类世界的自由之路,而选择了回到主题公园寻找自己的女儿,这是西部世界中机器人算法矛盾性最集中的体现。


《西部世界》的科学顾问、斯坦福大学的一位神经学家,大卫·伊格尔曼(David Eagleman)在接受《科学》杂志采访时谈到了这个灵感的来源。


“人类总是能在头脑中听到很多个声音,比如我给你一个冰淇淋,一个声音告诉你‘太好了,我现在就想吃甜食’,另一个声音告诉你‘不,这会让你变胖’……这让我想到了对抗网络。”


这与近两年在推荐算法流行之后开始兴起的“算法价值观”问题交相呼应。


在推荐算法驱动的信息流中,由人工编辑插入强制置顶的内容并不一定能取得最好的效果。


相比之下其它由算法推荐的内容更合他们的口味、更具吸引力也更不可抗拒,因此用户可能会直接忽略那些被强制加入的内容。


“二分心智”这一设定给我们的启示是,也许可以用对抗网络来解决信息流的价值观问题。什么是对抗网路呢?以图片生成技术为例,一个典型的对抗网络是这样的:


假设我们有一个图片生成模型(generator),它的目标是生成一张真实的图片。与此同时我们有一个图像判别模型(discriminator),它的目标是能够正确判别一张图片是生成出来的还是真实存在的。


那么如果我们把刚才的场景映射成图片生成模型和判别模型之间的博弈,就变成了如下模式:


生成模型生成一些图片->判别模型学习区分生成的图片和真实图片->生成模型根据判别模型改进自己,生成新的图片->····


在推荐算法驱动的信息流中,我们可以假定目前的、基于兴趣向读者生成感兴趣内容的整个引擎为生成模型,而另外一个用于辨别整个信息流是否呈现正向价值的引擎为判别模型。


通过这样训练而成的信息流就会有两重的内在“声音”,一个声音说“这个内容,读者会非常喜欢”,另一个则说“不,这是一条谣言会带来不良的后果”,而两个声音最终会形成一个平衡。



第二,是AI道德与伦理问题


从很大程度上,在第一点启示中,对抗算法只是我们为算法赋予价值观的其中一个途径。而《西部世界》中揭示了更多我们应该如何为算法赋予价值观的指导思想。


在《西部世界》的剧情中,机器人觉醒或者说开始脱离原有轨迹的方法,是让所有的“心声”都来自自己而非原本写好的程序。


这其中蕴含着另一个启示,即在面对技术带来的问题时,我们总还是应该用技术的问题去解决。


换句话说,如果AI在提高生产力的同时导致了一个问题,那么我们同样应该用AI去解决它,而不应将人类和人类伦理摆到它的对立面。


目前,无论是在国内还是国外,解决人工智能伦理和价值观问题上的思路偏向于从算法外部加入人的因素去解决。


无论是腾讯、今日头条还是外国的Facebook,我们经常谈到的解决人工智能价值观问题的方法就是投入更多的审核人员。


这在短期内似乎是一个不错的解决方法,但从长期内似乎变成了一场人与AI之间的猫鼠游戏,而正像《西部世界》中描绘的那样,人工智能比我们更强大、更迅速、学习能力更强,人类并不一定总会赢得战争。


为什么人工智能发展到今天,已经可以为我们做出许多决策和参考,却依然不能很好的发展出内在道德与规范呢?


大卫·伊格尔曼在表示,人工智能在理解道德和法律上存在先天缺陷。


在《西部世界》中所有的招待员被设定为像人类一样活动。因此他们会吃饭、会睡觉、会喝酒,但无论在《西部世界》还是现实中,机器人本身其实并不需要这些行为,也因此不会衍生出诸如“餐桌礼仪”这样的道德文化。


《西部世界》中机器人的这些行为源自于他们相信自己是人类并且有一段属于自己的“背景故事”。


简单来说,是女主角多洛莉丝的“背景故事”让她表现的像是一个淑女,让她喜欢绘画,能够发现一切事物中的美丽。而并非程序员去定义她的每一个具体的爱好。


而一旦“背景故事”改变,多洛莉丝依然擅长绘画,也能够理解那些原本美丽的事物,但她不再表现出对这些美好的事物和蔼可亲。


这与人类不同,在认知理论中认为人类道德同时来源于先验、后验和超验,而目前人工智能学习道德的方法只来自于后验。


如果未来我们真的发明出了如《西部世界》那样的机器人,那么他们可以不眠不休的工作,因此他们将忽视千百年来人类为自己争取的劳动福利。


甚至更甚——如果他们认可“劳动最光荣”这个道德理念,那么他们可能会认为人类对合理休息的需求是一种懒惰的表现。


回到现实领域,由于大多数的AI算法都应用于商业领域,企业的逐利行为是训练算法的唯一反馈。而对算法在道德和法律上的要求,往往来自于企业外部的舆论环境、社会压力和司法要求。


这也意味着伦理和道德并没有像《西部世界》那样,作为一种先验知识被直接纳入到机器学习的过程之中,而被作为一种针对机器学习成果的事后弥补。


这种以补丁方式为人工智能增加伦理与道德的方法,周期可能是几个月甚至是几年。对比人工智能为了达成其固有目的每天都在进行的成千上万次训练,在训练度上是显然不够的。


而以人类手工对算法的“道德错误”进行纠正的方法,则更是让人类站在了与机器博弈的立场上,而人类又怎么可能与每日处理PB级数据的机器较量呢?


科学家们是怎么想的


关于《西部世界》究竟为我们带来了什么,其中哪些是真实的问题而哪些又是不切实际的,最终还是要由现实中的学者来评述。


近期,外国媒体CNET在它的一期节目中,采访了大量与《西部世界》中所述未来相关学科的大学教授。


在节目中,由于学科不同这些专家对《西部世界》褒贬不一,但大多数专家都认为作为一个艺术作品《西部世界》绝对是他们看到的最有意思的作品之一。


比如,杜克大学电子与计算机工程系副教授Kris Hauser说:“从科幻的角度来看,这是一个非常有趣的作品。但我一直在想,如果有一天仿生人真的发展到这个程度,一个机器人版迪士尼乐园不一定是它最好的应用。”


昆士兰大学昆士兰脑研究所Geoff Goodhill教授和布朗大学计算机科学教授Michael L. Littman则同时表示了“这绝对是一个非常棒的故事,但里面的技术完全不接地气或是离我们特别遥远”。


杜克大学机械工程和材料科学助理教授Leila Bridgeman在看完第一季之后表示他对剧集的欣赏来自于令人惊叹的故事讲述技巧和哲学问题的思考,并不来自其中的科技元素。


但是,思考自己的某些研究可能能够为(未来)构建《西部世界》中的机器人所用,会使工作变得更加有趣。


他谈到,上个学期一个他所在的部门的研讨会中演讲者提到的生物对机器人研发的启示就与《西部世界》中的机器人息息相关。


当然,现实中的仿生机器人动作都非常有限,但人类正在构建这种基础。作为一名控制工程师,他喜欢想象自己的研究会在《西部世界》那样的机器人之中发挥作用,这使他有前进的动力。


“我们花费上百年才了解了单一细胞的结构,可能要花上千年以上才能了解人类的大脑。因此,我们未来会在生活中使用机器人,但绝对不是《西部世界》里这种,它完全是一个艺术表演。”南加州大学工程实践教授Victor S. Adamchik如此评价。


相比之下,社会科学专家似乎更容易被《西部世界》的剧情所误导,他们思考的是“这种情况如果发生了怎么办”。


格里菲斯大学社会技术研究讲师David Tuffley表示:“西部世界主题乐园是一个远离法律与戒律的试验场,从这里可以窥探人们放纵他们最疯狂的幻想,没有人会被定罪,或甚至留下污点。


这绝对会成为高级人工智能的一个用处,像这种超逼真的拟人机器人也是可行的。也许不会太遥远,十到二十年之后,我们就能在现实世界中看到类似西部世界的产品,尽管细节可能不同,但《西部世界》里发生的剧情完全可能复现。”


RMIT计算机科学与软件工程副教授Fabio Zambetta也对这一观点表示了赞同,他认为《西部世界》值得称道的地方就是略过了无论怎样解释都会漏洞百出的技术细节,直接假定这种技术已经实现,从而可以让观众去探讨一旦技术发展到这种程度之后所产生的问题。


而这种思考也是《西部世界》编剧乔纳森·诺兰希望大家思考的,在接受媒体采访时,他表达了自己对《西部世界》创作与AI的看法:


“《西部世界》这部作品是一种幻想和比喻,它所描述的(那座公园)并不一定会真的成为现实,但它所表达的问题可以指代任何人工智能,包括目前的人工智能。


事实上,我们已经在使用 Siri 和其它语音助手来实现《西部世界》中的一些事情,比如帮你安排日程表、帮你筛选新闻、帮你分析金融数据,我们不再亲力亲为并且相信机器不会对我们撒谎。


而事实证明,其中的一些人工智能已经遇到了麻烦,比如Facebook。我们本应该在问题发生之前预料到这些问题。”


与第一季不同,《西部世界》第二季的剧情展现了更多人与机器人,机器人与机器人之间的冲突。

这除了让剧集本身更加精彩之外,也引发了人们更深层次的思考和焦虑。


如果你还没有开始看的话,不妨带着这些问题一起再次进入西部世界。


参考资料:

1、《到底什么是生成式对抗网络GAN?》

2、What Do Actual Scientists Think Of The Science In ‘Westworld’? 

3、The Popularity Of 'Westworld' Points To Our Anxiety About AI, The Show's Creators Say

4、Free will, AI, and vibrating vests: investigating the science of Westworld


图片来源于网络。本文来自微信公众号:腾讯研究院(cyberlawrc),作者:王健飞。


*文章为作者独立观点,不代表虎嗅网立场

未来面前,你我还都是孩子,还不去下载虎嗅App猛嗅创新!

本文已被收藏在:

别打CALL,打钱
0人已赞赏

热 文 推 荐

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账户

    自定义
    支付: