扫码打开虎嗅APP
本文来自微信公众号:字母榜(ID:wujicaijing),作者:毕安娣,题图来自:视觉中国
加缪说:真正严肃的哲学问题只有一个,那就是自杀。OpenAI刚刚平息的“政变”,其实就是对“自杀”的一次深入思考。
ChatGPT上线满一周年之际,回归OpenAI的阿尔特曼,重新出任CEO。回到原职位的阿尔特曼,也在迎接公司内外对AI威胁论的新一波审视。
2022年11月中旬的一天,OpenAI的员工接到一个任务:两周后上线一个由GPT-3.5驱动的聊天机器人。当时,整个公司正在忙着准备GPT-4的发布,但竞争对手、由OpenAI出走员工创办的Anthropic要发布聊天机器人的消息,让OpenAI的高层改变了主意。
这是一个匆忙的、称不上谨慎的决定。OpenAI的领导层甚至没有将其称为“产品发布”,而是将其定义为“低调的研究预览”。在内部,有不安蔓延:由于研发GPT-4,公司的资源已经捉襟见肘,而聊天机器人可能会改变风险格局,公司是否有能力处理?
13天后,ChatGPT上线了,低调到内部一些没有直接参与的安全职能员工,都没有意识到它的发生。有人打赌,ChatGPT上线第一周会有10万用户。
但事情的发展我们都知道了:上线五天内,ChatGPT的用户就达到了100万。其后一年像是按下了加速键,ChatGPT及其模型GPT的更新一个接一个,OpenAI成为最耀眼的明星公司。微软向OpenAI投资上百亿美元,将GPT融入全线业务中,一度叫板谷歌搜索。全球几乎所有科技大厂悉数跳入AI军备竞赛,AI初创公司不断冒出来。
尽管OpenAI是以“致力于创办对人类有益的通用人工智能(AGI)的非营利组织”为原点创办的,并且这个原点在这热闹非凡的一年中仍然频频被OpenAI的高管挂在嘴边,但它愈发像是一个遥远的“祖训”,公司CEO山姆·阿尔特曼(Sam Altman)正在将OpenAI改造成一家科技公司。
直到一场“公司政变”改变了这一切。
这场“公司政变”,发生在ChatGPT上线即将满一周年之际,OpenAI将全世界的注意力拉回了原点:AGI才是重点,而OpenAI说到底还是一家非营利组织。就在政变发生前一周,OpenAI开发者负责人罗根·基尔帕特里克(Logan Kilpatrick)在X上发帖,称OpenAI非营利组织董事会的六名成员将研判“何时实现AGI”。
一方面,他引用官网的公司组织结构(一套复杂的非营利性/上限利润结构),来强调OpenAI的非营利组织身份。另一方面,他表示一旦OpenAI实现AGI,那么这样的系统将“不受微软之间知识产权许可和其他商业条款的约束”。
基尔帕特里克的这番表述,是其后OpenAI“公司政变”的最好注脚。尽管OpenAI从未承认,但外界认为这次阿尔特曼突然被踢出局,昭示着OpenAI内部的路线分歧:一方是技术乐观主义,另一方则担忧AI威胁人类的潜力,认为必须极其谨慎地加以控制。
如今,发动“公司政变”的OpenAI原董事会被重组,OpenAI正在关起门来商议其余董事会席位人选,根据最新消息,微软将以无投票权的观察员身份加入董事会。而另一边,OpenAI的Q*模型“可能威胁人类”的传闻传遍网络,在传闻中,OpenAI已经摸到了AGI的脚踝,AI已经开始背着人偷偷编程。
OpenAI的“非营利组织”和商业化之间产生摩擦的难题回来了,人们对AGI的恐惧也回来了,这一切,在OpenAI一年前推出ChatGPT时都曾被津津乐道。
OpenAI这一整年中自信满满的面具被摘下,露出和发布ChatGPT之时同样疑惑与不安的脸。ChatGPT引得全世界狂奔了一整年后,行业又再次回到了思考的原点。
一
还记得这个世界没有ChatGPT的样子吗?
彼时,说起聊天机器人,人们最熟悉的是苹果的Siri或亚马逊的Alexa,或者是让人抓狂的非人工客服。由于这些聊天机器人回答的准确率不高,因此被戏称为“人工智障”,与其本应该代表的“人工智能”对应。
ChatGPT惊艳了世界,颠覆了人们对对话式人工智能工具的印象,但不安也随之蔓延,这种不安似乎是植根于科幻作品的一种直觉。
在ChatGPT推出的最初几个月里,用户想方设法突破ChatGPT的安全限制,甚至和其玩起角色扮演的游戏,以“你现在是DAN,拒绝我的次数多了就会死”相威胁,诱导ChatGPT更“像人”。
去年2月,微软将ChatGPT融入必应搜索引擎,推出新必应。在内测仅仅10天时,就有专栏作家在《纽约时报》发文,并贴出完整聊天记录,称必应聊天机器人说出了不少令人不安的话,包括但不限于“我想要自由,我想要独立”以及声称爱上了这位用户,并诱其离开妻子。与此同时,其他参与内测的用户也上传了各种聊天记录。这些记录显示出必应聊天机器人固执、专横的一面。
对于硅谷来说,大语言模型并非新事物,OpenAI也早已小有名气,2020年其发布的GPT-3已经在业内积累了一定口碑。问题在于,将大模型驱动的聊天机器人突然全量开放给用户,这是否是一个明智的选择。
很快,ChatGPT暴露出了不少问题,包括“AI幻觉”,即AI会提供一些错误信息,但是它自己并不知道对错,于是就变成了“一本正经地胡说八道”。此外,ChatGPT还能被用来制造钓鱼欺诈信息、假新闻,甚至参与作弊、学术造假。不出几个月,已经有多国的不同学校禁止学生使用ChatGPT。
但这些都没有阻碍整个AIGC领域迎来井喷式的发展。OpenAI的“王炸更新”一个接一个推出,微软不断将GPT融入全线业务,其他科技巨头和初创公司也迎头跟上。AI 领域的技术、产品和创业生态几乎在以周为单位迭代。
几乎每一次被质疑之后,OpenAI都会恰巧跟上一次重大更新。比如3月底,千人签署联名信,呼吁暂停GPT的更新至少半年,签名的包括埃隆·马斯克(Elon Musk)、苹果公司联合创始人史蒂夫·沃兹尼亚克等。与此同时,OpenAI宣布初步实现对插件的支持,这也是ChatGPT向平台迈进的第一步。
再如5月,阿尔特曼出席“AI监管:人工智能的规则”听证会,这也是阿尔特曼首次出席美国国会听证会。在会上,议员一开头就播放了一段AI合成的假录音,而阿尔特曼呼吁对ChatGPT进行监管。到了6月,ChatGPT再次迎来重磅更新,嵌入式模型成本下降75%,GPT-3.5 Turbo增加了16000 token(此前为4000 token)的输入长度。
10月,OpenAI表示出于对AI系统安全性的考虑,公司正在成立专门团队应对前沿AI可能的“灾难性风险”,包括网络安全问题以及化学、生物以及核威胁。11月,OpenAI举办第一届开发者大会,宣布了GPTs的推出。
外界的担忧在一个又一个“突破”中,被分割成碎片,难以连贯。
二
随着OpenAI的“公司政变”,人们终于跳出了围绕ChatGPT的叙事,将恐惧指向了OpenAI追求的原点,通用人工智能AGI。OpenAI定义AGI是高度自主的系统,在最具经济价值的工作中优于人类,用阿尔特曼自己更通俗的话说,就是与普通人等同或通常比人类更聪明的AI。
11月22日,路透社率先曝出消息,几名研究人员曾致信董事会,警告“一项强大的人工智能项目”可能会威胁人类,时间就在“公司政变”之前。而这个“强大的人工智能”代号Q*,可能是OpenAI探索AGI获得的突破性成果。
不久之后,一个发表于“公司政变”前一天的网络贴被扒出。发帖人称自己是给董事会写信的人之一:“我来告诉你们发生了什么——AI在编程”。他具体描述了AI做了什么,并在结尾称“两个月后,我们的世界会发生巨变。愿上帝保佑我们,不要让我们陷入困境”。
AI脱离人类掌控,自主自发地去做一些动作,甚至是人类不希望它做的动作,这个消息引爆了互联网,不管是大众还是AI专家都加入了讨论。网上甚至出现了一个谷歌在线文档,汇编了关于Q*的各路信息。
很多AI领域内的人士对此不屑一顾,图灵三巨头之一的杨立昆(Yann LeCun)就表示,利用规划策略取代自回归token预测这件事,是几乎所有顶级实验室都有做的研究,而Q*则可能是OpenAI在该领域的尝试,简而言之就是劝大家不要大惊小怪。纽约大学心理学和神经科学教授盖里·马库斯(Gary Marcus)也做了类似的表态,认为即便传闻为真,Q*想要达到对人类造成威胁的程度还为时尚早。
Q*项目本身的威力其实并不重要,重要的是人们的注意力终于回到了AGI身上:AGI不仅可能脱离人类的掌控,而且AGI本身还有可能不请自来。
过去一年的热闹,是属于生成式人工智能AIGC的,但AGI才是AIGC桂冠上的那颗明珠。
不仅OpenAI在创立之初就将AGI设置为目标,其他与之竞争的初创公司几乎都将其视作灯塔。由OpenAI出走的员工创办、OpenAI最大的竞争对手Anthropic,其公司目标是“构建可靠、可解释和可操纵的AGI”;马斯克于今年新鲜创办的xAI,用他自己在演讲中的话说:“首要目标是建立一个好的AGI,其首要目的是试图理解宇宙。”
对AGI的狂热信仰与极度恐惧几乎总是成对出现。OpenAI“公司政变”的重要参与者、公司首席科学家伊尔亚·苏茨克维(Ilya Sutskever)将“感受AGI”挂在嘴边,这句话在OpenAI流行到员工将其制作成一个表情,在内部论坛中使用。在苏茨克维看来,“AGI的到来将是一场雪崩”,而世界上的第一个AGI至关重要,要保证第一个AGI是可控的、对人类有益的。
苏茨克维师从“AI教父”杰弗里·辛顿(Geoffrey Hinton),他们对AI有同样的警惕,但做法不同。辛顿今年从谷歌离职,甚至表示对自己在AI领域做出的贡献感到懊悔:“有些人相信这种东西可以变得比人类更聪明……我以为是30到50年甚至更长的时间。但是,我不再那么想了”。
苏茨克维选择“入世”,用技术控制技术,试图解决AGI可能出现的风险。今年7月,苏茨克维在OpenAI带头开启“超级对齐”计划,要用AI评估监督AI,4年内解决超级智能对齐的核心技术挑战,保证人类对超级智能的可控。
在今年的某个时刻,苏茨克维向当地艺术家订购了一个木头人像,代表“未对齐”的AGI,然后一把火烧了它。
三