扫码打开虎嗅APP
虎嗅注:随着Alpha Go对弈李世石的比赛在即,外界对于双方的准备情况格外关注。几天前,DoNews作者姜伯静与《Alpha Go对弈李世石,人工智能登场》一文作者联合采访了在人工智能内容方面的内容合作者、亦在哲学方面有深入研究的张思楠,请他从哲学的角度来审视这次对决。本文来自DoNews,原文标题为《即使战胜了李世石,Alpha GO也不能真正征服围棋!》,虎嗅转载编辑。
以下为采访实录:
如果人工智能赢了,有什么意义?如果人工智能输了,李世石赢了,能代表什么?
答:人工智能在此博弈行为的胜利,可以意味着人工智能在博弈计算的领域已经发展至相对现在的一般人类智能而言更高的水平。不过由于人类的脑部尚未开发和利用完全,如果将此现象作为人工智能的计算水平已经完全等同或超越人类智能本身的话则显得武断。若博弈的结果是人工智能输,那么说明在博弈计算的范畴内,人类智能的水平目前相对的还可以保持在一定的高度,不过这种高度在极短的近期就会被人工智能等同或是超越。不过,我个人对此比赛的结果预测为:人工智能一败两胜或是完胜。
人工智能在围棋方面探索的原理?不论输赢的话,人工智能在围棋方面的探索,对人工智能的发展有何意义?
答:解读这个问题首先需要明晰围棋或是象棋以及所有游戏的共通性和本质,即它们都属于博弈行为,在博弈中,不确定性、不可证性和限制性总是存在着。这意味着,在推理材料有限或是当没有足够的资源来完成可证正确的计算时,仍然需要主体能做出合适的判断和行动使主体操作结果所带来的实际值趋同于主体操作目的的理想值。所以,决策的有限合理性(limited rationality)总是在博弈行为中被要求着,无论做出决策的主体是人工智能还是人类智能。
合理行动的具体形式必然的依据于知识,主体先有关于对象的知识,才有对对象的操作。
知识的正确与完整程度直接决定了主体所采取操作手段的操作效用性,即能否使主体操作的可能值(所采取手段基于实际情况下测定或预计的值)趋同于实际值(所采取手段操作后实际带来的值)趋同于理想值(相对主体目的具有效用的整体集成值),而操作效用性在趋同的结果中体现并被评价。知识的正确与完整程度越高则趋同越大,反之则趋同越小。
在操作中,主体所采取操作手段的可能值、实际值、理想值会有可能的偏差作为知识存于主体的认知中,而让主体最大限度的完成值与值的趋同作为始终伴随着的操作目的(追求最大的操作效用)存于主体的动机中。
决定知识的处理是基于一种我们称之为回归规划系统的机制。而在博弈行为中,这种机制的原理可被描述为:根据所能收集的知识,以理想值为推理基点,通过分析所采取手段的可操作性(现实可行)、所采取手段的可能值与理想值的趋同程度(效用偏差)、所采取操作手段的风险性(赌博决策)、所采取手段的优劣性(消耗比较),将所采取手段在理想值中每项的必要程度保留或舍去,必要性在于每项相对于造成当前操作的上一级的操作需求的效用程度。然后递减式的逆向推理出具有最趋同于理想值的操作效果的具有可行性的操作序列,并将此操作序列蕴含的目的确定为将执行的操作目的。随着认知进程的更新,主体调整自身的操作手段以及操作目的,并重置可能值以及理想值,进而求其优或是退而求其次。
人工智能在围棋方面的探索代表着人工智能在博弈领域以及计算领域的探索和人工智能发展进程本身的进步,这意味着人工智能将可以执行更复杂和有效率的运算,所处理领域的深度和广度将会提升。
此次人工智能与围棋高手的对抗与当年深蓝有何区别?
答:这世上的一切博弈活动都可以被解释成“规则与规则的互相限制”,在博弈中,规则与规则所限制的复杂性取决于博弈的具体内容,而这种复杂性又直接作用在主体的计算上。深蓝所进行博弈的内容是国际象棋,它的限制可能大概在10的60次方种,而围棋的限制可能在10的700次方种,两者的计算难易程度是不同的。
在笔者(指提问者姜伯静)的心目中,围棋代表着哲学。人工智能在围棋方面的造诣,是否意味着人工智能已经具备了哲学方面的思考能力?
答:下面是我(指回答者张思楠)作为一个哲学研究者的观点。
一个学科的诞生起源于人类对此学科本身的疑惑,为了解决此种形式的疑惑,才会寻找解决此种形式问题相对应的路径,所以才有了这门学科。而哲学作为研究存在本身的学科,存在的属性必然蕴含在存在的内容中,所以哲学可以被认为是所有学科的父级学科。但如果仔细划分,博弈计算是属于经济学、数学或是相关科学的范畴,而这些学科都归属于哲学。在这一点上说,围棋中所蕴含的博弈科学和决策理论同其他科学一样,蕴含着哲学的属性是成立的。但这并不代表,围棋比其他博弈行为更接近或是更远离哲学。事实上,哲学的本质仍然是研究存在和其本身意义等哲学概念的学科,尽管它需要以其他学科作为辅助研究的工具和手段。需要说明的是,这也是哲学作为学科而保留的必要性所在,因为真正哲学家的疑惑往往不是来自存在的具体形式,而是单纯的存在本身。
逻辑判断所处理的是关于对象的概念而非是对象本身。以单纯技术性上的推理和分析而言,人工智能现在的发展水平相对于目前人类智能在推理领域的能力来讲,可以说是更加优秀或者说是绝不逊色的。但这仍是只属于计算地范畴,也就是归纳逻辑和演绎逻辑,可以说,我们将定义好的概念交给人工智能去计算,也就是去让它去思考推理,它的确会思考并推演出给定的概念所得出的结论。但这并不代表人工智能就具备了道德。计算是一类程序,情感或者是心灵则是另一类程序。
人工智能与围棋高手对抗,是不是意味着机器人威胁论又进了一步?
答:机器人威胁论成立的前提有两个。第一点,机器人相对于人类能力而言拥有更高的等级,第二点,机器人具有反人类的倾向。令机器人产生威胁倾向的思考结论的因素可能是来自于机器人的自我意识、人工心灵、合理计算、事先设定的命令集亦或者是系统的运行错误。当两项前提被同时符合时,其中任意一项前提的符合程度也就直接决定了这种威胁性的程度。在这种威胁倾向已经被符合的前提下,才可以说:机器人等级的相对优越程度越高,威胁的程度越大。而威胁性是来自对这两个前提的同时符合,单纯的符合其中一项,虽然不能被定义成是已经实在的构成了威胁,但可以被认为是增加了构成威胁的可能。就好像我们创造了原子弹,无关使用的倾向,单就原子弹的存在本身就提供了一种构成威胁的可能。
额外一提的是,现在人类的一些工作已经完全被机器所代替,机器在大部分工作领域上的表现相较人类,完成的更出色并更有效率。随着人工智能以及机器人学的发展,这种被替代的现象也会普遍增加,失业问题也会因此而严重,这在一定程度上也威胁了人的生存。
从专业的角度,你怎么看这个事件?
答:此次的事件对于搜索策略、算法设计亦或者是博弈计算、决策制定等技术发展而言确实是很好地尝试和进步,在接下来的发展中,此领域的发展水平也会随着时间的推移而在效率和质量上成倍的提升,但它还不具有里程碑式的意义。因为人工智能科学的目的是研究并创造一个机器的人,而不是一个很厉害的人形机器或是计算器。建造智能实体始终作为人工智能的发展标的而存在着,而对于智能实体而言,“意识”是最重要也是最核心的部分。我个人认为区别人工智能系统同一般地交互式系统的差异可以总结为三个标准:自我意识,(即,区别自身与对象)、自我感知,(即,具有自身思考以及自身行为过程前、中、后的感知)、自我操作(即,具有介入自身的系统、数据库、已执行程序的调整)。以上的标准也同时作为人工智能科学在发展中需要解决并改善的问题,而随着这些问题的实质解决和功能满足,建造智能实体的标的也将会被实现。