扫码打开虎嗅APP
本文来自微信公众号:David的AI全景图(ID:aifromchina),作者:李光华DavidLee,题图来源:视觉中国
先说一些昨天(11月19日)的Update:
X上有不少OpenAI员工转发Sam的推文表示支持,据说微软Nadella和一批OpenAI员工施压董事会,要求Sam回归。
Sam正在和董事会谈判,条件是董事会和Ilya辞职,不然美国当地时间下午5点,OpenAI一批员工将离职。但董事会到时间仍然没有辞职,所以媒体爆出的大反转故事还没有消息。
现在是西海岸半夜,再过几小时可能见分晓。
目前的几种猜测版本回顾
从目前看到的不同分析,大概这几种角度:
1. 政变/宫斗论:比如有人把Sam发的推文I love you all解释成“Ilya”的首字母。认为是Ilya策划的一次政变,他的帝国时代到来——我很不赞同,Ilya和Sam因为利益宫斗的概率很小。如果你看过Ilya的访谈,你会同意他是一个纯粹的人。Ilya热衷于思考哲学和本质问题,比如:什么是思考?什么是智能?什么是学习?从AlexNet时代到GPT3的坚守,没有理想主义和先知一样的思考深度是做不到的。
Sam在YC早已名利双收,从《万物摩尔定律》看,他的UBI也是另一种非常强烈的理想主义。有人把Sam比作乔布斯,但如果你看过《乔布斯传》,年轻时被赶走的Jobs和重归Apple的Jobs已经不是一个人。
2. 阴谋论:微软希望全面控制OpenAI,坐吃红利。而Sam可能在私下接触中东的金主,而引入更大量资金可能导致不可控。微软还特意把时间选在周五,让资本市场有消化时间,避免股价大跌。不过,从“Nadella希望Atman周一回归”的传闻看,这个阴谋论站不住脚。
3. 硅基智能论:更高级的智能穿越时空回来,终止人类愚蠢行为。但愿这不是一个玩笑——这是最好的结局,因为这意味着AGI做到了超级对齐,有能力且有意愿照顾人类。
4. 路线之争:即OpenAI内部的GPT模型有大升级,接近或达到AGI。此时OpenAI内部有两派意见:一派是Ilya和Mira,认为必须慢下来优先解决AI安全的问题。一派则是Sam和Greg,希望通过GPTs、GPT Store等方式,快速建立生态,扩大商业优势。
我个人倾向于第4个角度的分析。如此激烈的冲突方式,大概率因为路线和更深层的理念冲突。
我的想法
1. AI安全可能到某种生死攸关的时刻:从Ilya导师Jeffery Hinton(深度学习之父)因为AI安全的担忧从Google离职,到Ilya最近的言论,大概率OpenAI内部已经有更强大也更危险的模型。
《超级智能》作者Nick Bostrom说过:“以计算机发展规律,如果人工智能的聪明程度接近人类,它的智力用不了多久就会远远甩开人类——差距就像人类与老鼠那样大。”我在今年初收集过一些这方面的观点:
2. 前天(11月18日)注定是要被历史记住的一天,上午是OpenAI事件,晚上是SpaceX第二次星舰发射。
人类成为跨星际物种的时间窗口有限,尤其是在地球上烽烟四起的今天(全球四个火药桶已经点着2个——俄乌和巴以战争)。在这个星球上,有人在割韭菜,有人在策划战争,也有理想主义者在不知疲倦地忙碌,试图保护人类这束宇宙中的微光。
3. OpenAI是一个值得尊敬的公司,它的理想气质,至少让“确保AGI造福人类”的使命,不是挂在官网首页的一句空话。
4. 无奈的是,Sam和Ilya的路线之争,可能甚至于不同的信仰(Sam认为技术要无限加速,越快越好;Ilya认为AGI不是普通的技术,可能反噬人类,要确认好安全的进化起点),恐怕只能二选一。
作为一名产品经理,我喜欢Sam的商业宏图,欣赏他《万物摩尔定律》中UBI的理想主义。
但谁已经被指出“并不总是坦诚”?谁是凝视GPT模型最久的人?谁对AGI有更深刻的认知?
在AGI没有完全浮现之前,如果AGI风险注定要被高估/低估,你愿意选择高估还是低估这种风险?
我支持高估AGI的风险:如果高估了,人类会浪费一些资源,但如果低估了,可能再没有翻身机会。
Sam可能是最好的CEO,Ilya可能是最好的AGI引路人。
作为人类的一员,我支持Ilya。
本文来自微信公众号:David的AI全景图(ID:aifromchina),作者:李光华DavidLee