正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2019-08-06 11:14
人工智能一直在吃20年前的老本么?

造就第443位讲者:邬学宁(复旦大学客座教授、数据科学50人成员)

封面:电影《超能查派》


自达特茅斯会议诞生以来,人工智能已经有60年的历史。


在过去60年中,人工智能经历了两次繁荣和低谷,现在正处于第三次繁荣期,关于未来的人工智能的走向,有三种观点。


第一种观点以《未来简史》的作者尤瓦尔·赫拉利、谷歌工程总监未来学家雷·库兹维尔和软银的创始人孙正义等人为代表,他们认为未来的人工智能是神,是上帝


比如孙正义认为,30年后人工智能的智商是一万,而爱因斯坦的智商不过两百,人工智能看人类如同现在人类看蚂蚁。



第二种观点认为,本轮人工智能的主要推动力是神经网络。神经网络以大数据作为燃料和强大的计算力作为引擎,但是当下大数据的红利正逐渐消失,主宰了芯片处理能力的摩尔定律经过60年的指数增长,也已逼近了理论极限得天花板。


这一派认为未来人工智能会缓慢向前发展,但是速度不会像前两年这么快,我以“神经”来作为这派的核心词。 


第三种观点认为历史还将重演,人工智能的冬天还会再来。他们认为“人工智能统治人类”如同神经病一样荒唐可笑。


这三派的核心观点,简而言之,可以用“神”“神经”和“神经病”三个词来归纳。



这一轮的人工智能热潮是怎么开始的?


最早发端于2006年,多伦多大学教授杰弗里·辛顿(Geoffrey Hinton)等人彼时连发了三篇关于深度学习的重量级论文,提出了深度信念网络。


虽然该网络目前应用已不是很多,但在当时却是如冬日惊雷打破了神经网络联结主义长达十年的沉寂,开启了神经网络的新纪元——深度学习,该网络采用了逐层贪心训练的方法,对算力的要求较低。


深度信念网络是将受限的玻尔兹曼机一层层堆叠而成,而玻尔兹曼机是在上世纪80年代由辛顿与特伦斯(Terrence Sejnowski)一起发明的。


AlphaGo是从哪里来的?


2016年,AlphaGo以4:1战胜了韩国著名棋手拥有16个世界冠军头衔的韩国超一流棋手李世乭九段,引起了媒体和大众对人工智能的极大关注。


这几乎是人工智能最火爆的一次亮相,但少有人知道,AlphaGo是从哪里来的?


AlphaGo起步于Atari——一个古老的80年代的电视机游戏。2012年,Deepmind用摄像头对准电视机,让人工智能玩Atari,通过计算机视觉和强化学习让机器学习控制这个游戏,尽量得到更多的分数,只要将球反弹到上面消除彩色砖块就能得分获得“奖励”(Reward)


这个训练过程和心理学的行为主义的思想是一致的,训练AI就像训练一只小狗,做对了就给它吃颗糖。


在训练了四个小时之后,AI已经发现了一个打赢游戏的秘诀——将左边砖块打穿,然后球在上面空间反复来回弹射,可以自动消除大量砖块,快速得分。


这个“秘诀”是设计这个AI程序的工程师也不曾知道的,这也就可以解释为什么AlphaGo在打败柯洁和李世乭的时候,使用了很多人类从未见过的招数。



行为主义作为心理学的一个学派,他们认为思维不可被观察,不适合作为科学的研究对象,行为才是合适的研究目标。


在人工智能中,行为主义对应强化学习。


大家都知道“巴甫洛夫的狗”这个实验,有没有听说过知道“桑代克的猫”呢?


在“巴普洛夫的狗”这个实验当中,狗是完全被动的受测对象,只是听到铃声流口水,没有任何选择的机会。


而桑代克给了猫一个选择:猫被关在一个笼子里,笼子里有个开关,一旦被猫按下后,门就会打开。第一次猫被关进笼子,要花很久才能够按动开关,逃出笼子。第二次被放进去之后,猫会直接按动开关,逃出生天。



第三位行为主义的大师是斯金纳。斯金纳给测试对象2个选择,他把一只老鼠放在笼子里,笼子里有两个按钮,按下其中一个按钮,食物会掉落下来。按下另一个按钮,则会警报声大作,把老鼠吓坏了。被警报声惊吓过的老鼠被再次放进笼子后,它会远远躲开电铃的开关。行为主义认为,我们无法通过语言来了解一个人真正在想什么,只有行为才可以被客观的观察和研究。


相对应的,人工智能领域持相似观点的学者,并不关心AI是怎么想的,只关心AI是怎么做的。



人工智能已开始理解我们的语言,甚至拥有了“想象力”?


在地球上,有很多动物的视觉超越人类。但是,能使用语言进行沟通却只有人类。人类的自然语言被称为人工智能王冠上明珠,至今尚未被完全攻克。


短时记忆位于大脑前额叶的部分,也称工作记忆,而长期记忆则存储在脑后的位置。当我们理解了一个概念后,就会从工作记忆转存到长期记忆。


深度学习在处理自然语言和其他时序相关的数据时,经常使用一种名为长短时记忆(LSTM)的算法。


这两年,我们看到各种机器翻译、个人助手和智能音箱等各种AI商业化应用层出不穷,其主要原因是深度学习在语音识别领域取得了突破,使得AI可以理解我们在说什么,从而打开了自然语言处理的大门,LSTM被广泛应用于自然语言处理和其他时序相关的场景。



和辛顿一起获得图灵奖的卷积神经网络(CNN)之父杨力昆(Yann LeCun)曾说过,在过去的十年中,人工智能领域最有趣的想法要数生成对抗网络(GANs)了。


GANs使AI具有“想象力”,上图中GANs把川普与尼古拉斯·凯奇的照片进行合成。类似用GANs来生成图片的应用层出不穷,甚至LinkedIn上已经出现了虚拟的间谍。通过GANs“想象”出来的可以乱真的但实际并不存在的脸,真人间谍操控这个虚拟的美女,在社交媒体上与美国的一些高官攀关系并窃取有价值的情报。


最近也有一些关于GANs负面消息,比如Deepnude等。 GANs的核心思想是引入了博弈论,让用两个神经网络互相博弈,一个网络负责造假,另一个负责鉴定真假。两个网络互相对抗博弈,造假和鉴定真假的水平都不断上升,最终达到纳什均衡。然后就可以把判定真假的网络扔掉,因为造假的网络已经完全可以以假乱真了。


GANs的成功表明:“对抗”是实现智能的一个途径,AlphaGo也利用是对抗博弈使其达到很高的水准。



人工智能一直在吃20年前的老本么?


不论是卷积神经网络,还是LSTM等循环神经网络,都是在上世纪90年代就已经提出。由于受当时的算力和数据量的限制,所以都没有走红,而是在20年之后才爆发。


现在的人工智能产业看上去非常繁荣,但理论层面缺乏创新思想突破,还在吃20年前的老本。未来五年到十年,深度学习、人工智能领域出现重大的突破的概率并不太大,但这并不妨碍工业界大量AI应用落地。



算力是本轮AI繁荣的三个要素之一,具有多核并行处理能力的GPU已成为深度学习的必备。随着量子计算的发展,量子计算机未来也可能对AI产生深远的影响。


我们目前使用的计算机被称为经典计算机,也称冯诺依曼机,内部以0和1来表达世界。


对于量子计算机而言,一个Qubit(量子位)可以用a和b两个(复)数表达0和1两个数字的叠加态,也就是拥有了2个信息位(2的1次方);两个Qubit,可以表达2的2次方个信息位的信息。


一个50 Qubit量子计算机的强大并行处理能力,其所产生的算力将超过目前世界上任何一台超级计算机。


经典计算机可以被视为量子计算机的特殊情况(类似于三角函数取0度或90度的特殊情况),恰似逻辑推理是概率的特殊情况(概率为0或1)


展望未来十年至二十年,一旦量子计算机实现了稳定计算能力,必将对人工智能产生一个颠覆性的影响,对电子商务和加密货币的影响也将是翻天覆地的。


但目前,人工智能并没有达到人类意义上的“智能”,只是在做数学上的最小化。


绝大部分担心人工智能威胁人类的人,包括刚去世不久的黑洞物理学家霍金和特斯拉汽车的CEO马斯克,都提出人工智能对人类的“威胁论”,他们几乎都没有人工智能的落地经验,因为不了解导致了恐惧和担忧。


人工智能的一线研究人员几乎没有人持类似观点,正如前百度首席科学家吴恩达所言,现在担心人工智能统治人类,无异于担心火星上人口过剩。



深度学习建立了从输入到输出的一个自动映射的过程,在部分应用中表现得非常完美。然而,这并不代表AI具有人类的智能,甚至还想差很远。


AlphaGo虽然能打败柯洁、李世乭,但是它并没有意识,它并不知道自己在下围棋;同样的,人工智能翻译翻得再好,它也不能完全替代专业的人类翻译。因为它也并不理解翻译的内容,虽然它让你感觉到翻译得很完美,属于典型的“以其昏昏,使人昭昭”。



上面提到的讲对抗生成网络,也会犯一些人类绝对不可能犯的错误。


上图左侧人工智能正确地识别出一只大熊猫,我们一个长臂猿的梯度数据作为一个随机噪音,混入熊猫的照片数据中,AI就把大熊猫误认为了长臂猿。这对人来说是绝对不可能发生的错误。



“我为你单独分配了一个神经细胞”


目前,深度学习最大的问题之一就是它是个“黑盒子”,我们并不理解里边的每个神经元所代表的含义。已经有科学家,在这方面进行了一些探索性研究,并在计算机视觉领域,部分的解决了神经元问题。


比如,对于脑科学家长久以来争论不休的“祖母细胞”的问题,麻省理工大学的研究人员发现,用人工神经网络验证了真的可能是对于一个重要概念,大脑会分配一个或相关一组细胞来表示这个概念。每当这个概念被提起时,相关的细胞就会被激发。


以后最浪漫的情话可能是:“我为你单独分配了一个神经细胞”。


我们看到,不仅脑科学可以促进人工智能的发展,反过来人工智能也能够促进脑科学的研究,昔日两个大相径庭的领域正越走越近,相互融合。


深度学习另外一个局限性就是需要大量的人工标签,无人驾驶公司打标签的人工成本,甚至超过了数据科学家的成本。


从这个角度,目前监督式机器学习的情况可以说是:有多少人工成本,就有多少智能。


如果我们把机器学习中主要的方法和大脑做一个对比的话,监督式学习,依靠人类打标签的,也就是说有标准答案的,对应为人类小脑的机制。对这种机器学习,我们已经研究得比较成熟了。 但问题在于,互联网上大量的数据是没有标签的,依靠人去打标签的成本太高、不现实。


这类非监督的机器学习方法,可以很好地去发现数据本身的特征与结构,与监督式学习一起工作,可以得到更好的效果。大脑皮层的功能对应的就是非监督机器学习。


 AlphaGo对应的强化学习介于上述两者之间,强化学习是没有一个明确的、打标签的动作,但是它会得到一个环境的反馈。


这种学习方式比监督式学习通用性强很多,它不需要标签数据,只通过一个回报的数值来改进模型,通用性强,也是未来实现通用人工智能(AGI)的重要路径。


未来的人工智能发展可能是以强化学习和非监督学习为主,而一些深度学习模型中已经融入了非监督机器学习,AlphaGo则是强化学习和深度学习相结合的产物。


强化学习对应的大脑结构是基底神经节。



做乌鸦,不要做鹦鹉


在过去两次人工智能热潮当中,都是以逻辑推理为核心的符号主义所主导的,这一脉可以上溯到亚里士多德和苏格拉底。某些做知识图谱的人工智能的公司,会去招哲学博士,为什么?


因为两千年前的亚里士多德的本体论,在今天构建知识图谱的过程中,其思想仍然是核心。


知识图谱被认为是下一代的搜索引擎,你可以在百度上输入一个问题:姚明的妻子是谁?百度会直接告诉你答案:叶莉。这是因为知识图谱是基于逻辑推理的。



在金融行业,知识图谱非常广泛地应用于风控,它有助于提高风控的表现,如果逾期率的风险能降低0.1%,对于很多企业来说每年都能减少了上亿损失。


和机器学习所代表的概率性思维不同,知识图谱所代表的是另一种思维——确定性的逻辑推理。这两种思维的结合会产生很好的效果。 现在的人工智能被称为窄人工智能(ANI)。就像一只鹦鹉,学人说话学得很像,但它的智力其实很低。


我们将来要实现的人工智能可能是乌鸦,在日本有人拍到一段视频:



乌鸦捡到了一个坚果,但这个坚果很硬,它吃不到里边的肉,乌鸦就把坚果抛向高空掉在地上,还是砸不碎坚果。于是这只乌鸦把坚果放在马路当中,希望来往的车辆把坚果轧碎。但路上车水马龙,乌鸦去吃的时候不小心被车轧死怎么办?乌鸦又发现了红绿灯,当红灯亮的时候,车会停下来,这时候下去吃坚果是最安全的。


未来,我们要做的人工智能应该是乌鸦,而不是鹦鹉。


深度学习基本解决了感知的问题,但是要解决问题,必须要理解问题,从把问题抽象出来并形成概念,然后加上逻辑推理。现在,在抽象、形成概念和理解问题的这些环节还比较薄弱的,这也是未来潜力巨大的领域。






有很多实现未来人工智能的路径,其中有一种是我个人特别感兴趣的——群体智能


我们看到,不管是鸟群还是蚂蚁,蜜蜂还是萤火虫,它们单体的智商都非常低。但是当它们聚集在一起的时候,没有一个个体控制群体,群体作为一个整体,却涌现出非常高超的、具有生命的智能。 我们大脑当中的神经网络也是类似的,每个神经元的功能都非常简单。但是大脑860亿个神经元,它们在一起由量变到质变,产生非常高级的智能。



最后我想用费米的一句话,来结束我今天的演讲:


“宇宙看上去包罗万物,但其实并不那么复杂,它只是由数量众多的,非常简单的结构组成。”


这轮人工智能从脑科学、心理学、 经济学,甚至量子力学中都获取了灵感。


未来的人工智能,将从哪里获取灵感呢?

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: