扫码打开虎嗅APP
本文来自微信公众号:APPSO (ID:appsolution),编译:陈泽钧,原文标题:《Google 已经被OpenAI 超越了吗?| AlphaGo 之父深度访谈》,头图来自:视觉中国
Google DeepMind 的 CEO Demis Hassabis 前段时间登上了科技媒体 The Verge 的播客节目 Decoder。
Google DeepMind 是 Google 数个月前新成立的部门。这个新成立的部门中的两个名字对大家而言都不陌生,Google 是搜索引擎巨头,拥有一个名为 Google Brain 的人工智能开发团队。
而 DeepMind 则是造出 AlphaGo 的公司,它在 2014 年并入 Google,后来成为 Google 母公司 Alphabet 旗下的独立公司之一。现在它正式和 Google Brain 合并,成为 Google 里面的一个部门。
随着微软投资的 OpenAI 推出 ChatGPT ,特别是必应搜索融合了 GPT 技术,首次在 app 下载量上赶超 Google 后,Google 是否在人工智能领域落后于对手成了人们关注的话题。
在这场访问中,主持人 Nilay Patel 在多个方面向 Demis 进行了尖锐的提问,其中既包括 Google DeepMind 的合并原因,两个团队在研究方向和企业文化之间的磨合、Demis 是如何为团队作出正确的决策、以及 DeepMind 是如何把研究成果应用在 Google 的服务等等问题。
在 Demis 的回答里,我们可以有幸一窥这位处在人工智能行业顶端的领导者,他是如何看待人工智能工具的发展方向的?在未来人工智能变得强大的情况下,人类届时扮演的角色是什么?人工智能发展的风险有哪些,人类又要如何解决?
同时,Demis 也解释了他签署了人工智能安全中心的关于“暂缓 GPT-4 以上的人工智能开发”倡议的原因。
划重点:
1. 人工智能走入人们视野的原因,是 ChatGPT 开始能做一些人类本身就力所能及的事情,而不是做人类做不到的事情,业内还没认识到这是人工智能发展的一个转折点。
2. 未来十年内可能会见到通用人工智能的诞生。
3. 随着人工智能变得更加通用、更加复杂和强大,人工智能的安全性问题就会变得非常重要。
以下为访谈全文,APPSO 做了全文校译。
Q: The Verge 主编 Nilay Patel
A:Demis Hassabis
Q:您好,Demis Hassabis, Google DeepMind 的首席执行官。欢迎来到 Decoder 播客节目。
A:感谢您的邀请。
Q:我想 Decoder 从未遇见比你更完美的嘉宾了。人工智能是一个伟大的想法,它一直伴随着挑战和问题。特别是对您来说,您有一个巨大的组织结构需要调整,还要作出一系列高风险的决策。我很高兴您能来。
A:很高兴来到这里。
Q:让我们先来聊聊 Google DeepMind 吧。Google DeepMind 是 Google 的一个新部门,由 Google 现有的两个部分组成。一个是 Google Brain —— 我们熟悉的人工智能团队,原先由杰夫·迪恩(Jeff Dean)负责。还有 DeepMind,这是一家由你创立的公司。
2014 年你将它卖给了 Alphabet(Google 的母公司)。而你直到之前都还不是 Google 的员工。因为 DeepMind 一直是 Alphabet 内部的一家独立公司。那从一开始的时候说起好了,为什么DeepMind和 Google Brain 要分开?
A:正如你所提到的,我们早在2010年就成立了 DeepMind,这是很久以前的事情了,尤其是站在现在“人工智能时代”往回看的时候,这有点像史前文明时期的事情。
那时我自己和 DeepMind 的其他联合创始人意识到,我们来自学术界,看到了学术界正在发生的事情,比如像深度学习这样的东西刚刚被发明出来。我们是强化学习(Reinforcement Learning)的忠实拥护者。
我们可以看到 GPU 和其他硬件正在逐渐用于人工智能的发展,如果我们可以专注在通用学习系统(General Learning Systems),并从神经科学和大脑工作原理中汲取一些想法,就能在这个领域取得巨大的发展。
因此,我们在2010年将所有这些想法结合在一起。我们产生了一个这样的理论:我们将取得快速进展。
这就像 DeepMind 一开始透过 AlphaGo 一鸣惊人的时候发生的事情。然后,我们在 2014 年时决定与当时的 Google 联手,因为我们发现我们需要更多的计算能力。显然, Google 当时拥有世界上最多的计算机。对于我们来说, Google 显然是一个能够让我们集中精力以最快的速度来推动研究的地方。
Q:你们被 Google 收购,然后 Google 在某个时刻调整了公司的结构。Google 公司变成了 Alphabet,而 Google 成为 Alphabet 旗下的一个部门。
Alphabet 旗下还有其他的子公司,而 DeepMind 就是其中之一。这就是我一开始很好奇的部分,因为 Google 在 Google Brain 上也做了很多大语言模型方面的研究。
我记得六年前, Google 在 Google I/O 上展示了大语言模型,但 DeepMind 当时专注于赢得围棋比赛和蛋白质折叠(“蛋白质折叠”是一个复杂的生物学问题,传统的计算方法需要花费大量时间和资源,而 DeepMind 开发的 AlphaFold 算法可以透过人工智能预测蛋白质的折叠结构),这是一种截然不同的人工智能研究,DeepMind 当时所做的研究和 Google 完全不一样 。
为什么DeepMind 的研究领域和 Google 完全不同?为什么它会存在于 Alphabet 里面?
A:这其实是我们在被收购时达成的协议中的一部分,就是我们将持续推进通用人工智能的研究,这是一种在当时“颠覆传统的”(Out of the Box)一个系统,它可以完成广泛的认知性的任务,基本具备人类所拥有的所有认知能力。
此外,利用人工智能加速科学的探索也是我的个人爱好之一。这也解释了为何像 AlphaFold 这样的项目会存在,我相信我们很快会重新投入到这个研究项目上。但同时,从 DeepMind 成立之初,甚至在 DeepMind 成立之前,我就认为棋类游戏是一个高效、快速开发人工智能算法的完美测试或试验场。
在人工智能研究的早期,我们发现使用棋类是一个很好的方法,这也是我们能够取得成功,也是我们能够在 AlphaGo 等项目上取得快速进展的重要原因。
这些都是整个领域非常重要的证据,来证明这些通用学习技术确实有效。当然,我们在深度学习和神经网络方面也做了很多工作。我认为我们的专长就是将这些成果与强化学习相结合,让这些系统能够主动解决问题、制定计划,就像赢得一场比赛一样。而关于你说的 DeepMind 和 Google Brain 之间的“不同”。
我们 DeepMind 始终致力于推动研究议程,推动先进科学的发展。这是我们的工作重心,也是我想要去做的。而 Google 内部的人工智能团队,如 Google Brain,他们的职责略有不同,更接近产品端,也更接近 Google 的其他部门,他们的重心是为 Google 的业务加入惊艳的人工智能技术。
DeepMind 内部其实还有一个应用部门,负责将 DeepMind 技术引入到 Google 产品。但是,DeepMind 和 Google Brain 的内部文化和职责是完全不同的。
Q:从外界看来,事情发展的时间轴会是这样的:所有人都在研究这个问题很多年了,我们也在这里谈论这个问题很多遍了。像是一群跟我差不多的书呆子记者,还有研究人员会聊的话题,我们在 Google 发布会里不起眼的部分谈论它。
然后突然间,ChatGPT 发布了,甚至它还不是一个实体产品。我甚至不认为 Sam Altman 在发布时会称 ChatGPT 是一个伟大的产品。
但它始终还是发布了,人们现在就可以使用它。然后微软发布了基于 ChatGPT 的必应,就像突如其来的变天,让大家都被吓到了。而 Google 对此作出的反应是合并 DeepMind 和 Google Brain。这就是从外面看起来的样子。从内部看是这样吗?
A:时间轴是正确的,但 DeepMind 和 Google Brain 的合并不是上述一系列事情的直接后果。从某种意义上说,只能算是有点关系。Google 和 Alphabet 的运作方式是这样的。
他们让内部的团队能够“百花齐放”(Let many flowers bloom),我认为这一直是拉里·佩奇(Larry Page)和谢尔盖·布林(Sergey Brin)在建立 Google 的时候就开始使用的方法。
这种方法为 Google 的发展提供了很大的帮助,它让团队可以有机地(Organically,也用来形容公司的发展主要依靠自身努力从零开始开发,而不是只依靠收购其他公司)创造出令人惊讶的成果,一步一步走到今天,成为一家了不起的公司。在研究方面,我认为它与我们的研究工作非常契合,这也是我们在2014年选择 Google 作为合作伙伴的另一个原因。
我觉得他们真正理解什么是“基础研究”和“蓝天研究”(Blue Skies Research,指一些由好奇心驱动的、没有明确目标的研究,通常无法快速商用变现),什么是雄心勃勃的研究。
现在你们已经看到了结果,对吧?
无论从哪个角度来看,AlphaGo、AlphaFold,以及 20 多篇自然和科学论文等等成果,都是我们能够完成的令人惊叹的前沿研究的正常指标。在某种程度上而言,ChatGPT 、人工智能大模型、以及公众对此的反应已经证实了人工智能的发展已经进入了一个新时代。
顺便说一下,公众对 ChatGPT 的热情让我们当下所有人都感到惊讶,包括 OpenAI,因为我们和其他一些初创公司,比如 Anthropic 和 OpenAI,我们都有这些大语言模型。模型的能力是大致相同的。
因此,令人惊讶的并不是技术,因为我们都了解这是什么,我们所惊讶的是公众对这一技术的需求,以及由此引发的热议。我认为,这表明了我们在过去两三年中产生的一些想法,即这些系统现在已经达到了一定的成熟度和复杂度,可以真正走出研究阶段和实验室,为令人难以置信的下一代产品和体验提供动力,并实现突破。
比如 AlphaFold 直接为生物学家的研究服务。因此,在我看来,这恰恰表明人工智能正处于一个新的阶段,即在人们的日常生活中发挥实际作用,并能够解决真正重要的现实世界中的难题,而不仅仅是好奇或有趣的问题,比如在棋类运动中的应用之类的。
当你意识到这一转变时,我认为你就有必要去改变研究方法,改变对产品的关注程度了。我认为我们都意识到了这一点,那就是:现在是精简我们对 AI 研究的架构,并且应当更加专注的时候了。由此得出的结论,很明显就是DeepMind 和 Google Brain 需要进行合并。
Q:我想在这里停一下,问一个哲学性的问题。
A:当然。
Q:我认为今年导致人工智能讨论度突然升高的“ChatGPT时刻”,真的是因为人工智能开始能够做一些普通人能做的事情。我想让它给我写一封邮件,我想让它给我写一个剧本,也许大语言模型输出的内容只是 C+ (及格)的水平,但人工智能依旧能完成这些任务。人们可以看到它如何发挥作用。
我希望您填满这份蓝图的其余部分。哪些是人们可以想象的,未来可以让人工智能能够完成的事情。也许人们不具有这方面的技能,但他们可以想象这样做。
我们之前所看到的所有人工智能技术,包括你开发的那个,能模拟全世界的蛋白质折叠的 AlphaFold,显然他做的事情我们做不到,应该交给计算机来完成。即使是微生物学家也会认为:“这太棒了。计算机能完成这件事情。我感到非常兴奋,因为我无论我们花多少时间都不可能做到像 AlphaFold 一样。”又或者是,比如我想在围棋上击败世界冠军。但我们根本做不到,只有电脑能做到。
上面这些事情看上去都离普通人有点远,直到我们迎来了一个转折点——计算机开始做普通人在做的事情了,这些事甚至不一定是最复杂的任务,像是让人工智能通读网页,然后给我提供摘要,类似这样的事情。但正是这种简单的任务打开了每个人的想象力。
我想知道为什么你认为这个行业还没有预见到这一转变的到来?因为过去整个人工智能行业都在专注于一些普通人无法完成的、非常困难的任务上,而现在我们可以让计算机开始做人们日常接触到的力所能及的事情时,似乎每个人都因此得到了启发。
A:我认为这种分析是正确的。我认为,这就是大语言模型真正能进入公众视野的原因,因为它就像一个普通人,即大众能够真正理解并与之互动的东西。而语言是人类智慧和日常生活的核心,我认为这也解释了为什么聊天机器人会以这样的方式走红。
尽管我想说的是,像 AlphaFold 这样的东西,我这么说当然有失偏颇,但我认为它实际上对人工智能世界产生了迄今为止最明确、最大的正面影响,如果你和任何生物学家交谈,或者现在有 100 万名生物学家、研究人员和医学家使用过 AlphaFold。我猜全世界应该有 100 万名生物学家。
每家大型制药公司都在使用 AlphaFold 推进他们的药物开发。我曾与多位诺贝尔奖获得者级别的生物学家和化学家交谈过他们是如何使用 AlphaFold 的。
因此,可以说,世界上所有的科学家都知道 AlphaFold,AlphaFold 产生了影响力,同时也极大地加速了他们重要的研究工作。但当然,普通人甚至不知道蛋白质是什么,也不知道这些东西对药物发现等工作的重要性。
不过对于聊天机器人来说,很显然地每个人都能理解,这是很不可思议的。让聊天机器人给你写一首诗,或者一些每个人都能理解、处理和比较的东西,与人类所能够做的结果相比,这就显得非常直观。
Q:这似乎是人工智能产品的重点:这些类似聊天机器人、或生成式人工智能产品可以给人们制作一些东西(文字、图片、视频等),而这也是人们关注的一个人工智能的风险。
但即使是关于风险的讨论也和以往不同,因为人们现在可以看到“哦,这些工具可以完成一些事情”。当你在开发 AlphaFold 的时候,你有没有受到同样程度的审查?似乎没有人认为 “天啊,AlphaFold 会毁灭人类”。
A:确实没有人会认为 AlphaFold 会毁灭人类,但依旧有很多针对 AlphaFold 的审查。但同样的,这是在一个非常专业的领域,对不对?我们与一些知名专家进行了讨论。
实际上,我们确实与该领域的30多位专家进行了讨论,从顶级生物学家到生物伦理学家,再到生物安全专家。我们和我们的合作伙伴——欧洲生物信息研究所(European Bioinformatics Institute)合作,发布了包含所有蛋白质结构的 AlphaFold 数据库,他们也指导我们如何安全地将其公开。
因此,我们确实遇到了大量的审查,我们咨询过的绝大多数人中,他们给出的结论是,这样做的好处远远大于任何风险。尽管我们确实根据他们的反馈意见对公开的结构进行了小幅调整。
但我们还是进行了大量的审查,不过这也只是在一个非常专业的领域。回到你第一个关于生成模型的问题,我确实认为我们正处于一个令人难以置信的新时代的开端,这个时代将在未来对五年或十年内到来。
不仅是在人工智能的科学进步上,在产品层面,我们的工作也可以改善数十亿人的日常生活。我们帮助他们提高效率,丰富他们的生活。我认为,我们今天看到的这些聊天机器人仅仅是表象。
除了生成式人工智能,还有更多类型的人工智能可以造福社会。生成式人工智能现在是 “流行”事物,但我认为,规划能力、深度强化学习、解决问题和推理等能力将在下一波发展浪潮中与当前人工智能的能力一起卷土重来。因此,我认为在一两年后,如果我们再次讨论,我们将讨论全新类型的产品、体验和服务,这些产品、体验和服务将具备前所未有的能力。
事实上,我对打造这些事物感到非常兴奋。这也是我非常高兴在这个新时代领导Google DeepMind,并专注于打造这些人工智能驱动的下一代产品的原因之一。
Q:让我们继续深入了解一下 Google DeepMind 好了。突然有一天,桑达尔·皮查伊(Sundar Pichai)找到你说:“好吧,我是 Alphabet 的 CEO,也是 Google 的 CEO。我可以直接作出这样一个决定,我要把 DeepMind 和 Google Brain 合并,然后让你来当新团队的 CEO”。你当时对此有何反应?
A:事实不是这样的。更多时候其实是各个相关团队的领导和桑达尔·皮查伊之间的讨论,内容关于我们所看到的发展拐点、系统成熟度、产品领域的可能性,以及我们可以如何改善数十亿用户的体验。
这听起来很让人兴奋,还有作出合并这个决定的其整体的条件。研究重点的改变、研究方法的改变、必需资源(如计算资源)的组合。因此,我们作为一个领导团队讨论了很多需要被考虑到的因素,然后得出结论,采取行动。这就包括合并 DeepMind 和 Google Brain,以及未来几年的计划和合并后的部门的工作重心。
Q:在 Google 内部担任 CEO 和在 Alphabet 担任 CEO 有什么不同吗?
A:现在说这个还为时尚早,但我认为应该都差不多,因为虽然 DeepMind 过去是 Alphabet 的一家公司,但却跟其他“Bet”(指 Alphabet 旗下的其他公司)很不一样,他们把我们称为一个“Alpha Bet” ,即我们已经与许多 Google 产品领域的团队和小组紧密结合和合作。
在 DeepMind 内部有一个应用团队,他们的工作就是负责与 Google 的产品团队合作,将我们的研究成果转化为产品功能。因此,在过去几年中,我们已经成功发布了数百个产品,只是 DeepMind 在幕后显得默默无闻。事实上,你每天在 Google 使用的许多服务、设备或系统中,都会有DeepMind 技术的身影。我们已经有了这种整合结构。当然,我们因科学进步和游戏进步而闻名,但在幕后,还有很多影响 Google 所有部门的基础工作在进行。
我们与其他“Bets”不同,其他“Bets”必须在 Google 之外建立独立的业务。即使我们之前也是一家独立的公司,但我们不需要独立于 Google 开展业务。现在,在 Google 内部,我们在产品服务方面更加紧密地和 Google 进行整合。
我认为这是一个优势,因为我们实际上可以比那些 Google 以外的公司更深入地与其他产品团队紧密合作,做更多令人兴奋和雄心勃勃的事情。但我们仍然保留了一定的自由度来决定工作流程,让我们能继续聚焦在我们最初的使命上,即生产世界上最有能力和最通用的人工智能系统。
Q:有报道称,其实 DeepMind 和 Google 之间存在企业文化冲突。您现在同时负责两家公司。你是如何把这个团队组织起来的?在你担任 CEO 期间,Google DeepMind 是如何构建的,你又是如何管理两家公司的企业文化融合的?
A:事实上,我们之间的企业文化的相似性比外界报道的要高得多。而结果就是,我们的合并过程是出乎意料地顺利和愉快。因为两个都是全球性的研究团队,两个世界上最好的人工智能研究机构,双方都拥有最顶尖的人才和丰富的发展史。
在我们考虑和计划合并的过程中,我们看了一些文件,其中列出了两个团队在过去完成的十大突破。
从总体上看,在过去十年中,从深度强化学习到Transformers,80%~90% 我们达成的突破都支撑着现代人工智能产业。这是一支不可思议的团队,我们都非常彼此尊重。实际上,在过去十年中,双方已经在项目层面上开展过大量合作。
所以,事实上我们都非常彼此了解。我只是认为这实际上是两个团队之间的关注点和相互协调的问题,更多时候,我们都在讨论我们之后要关注在哪个领域的发展、两个独立团队合作的其他地方是否有意义,也许我们之前会有一些重叠的工作范围,而我们需要去除掉。老实说,这些都是显而易见的事情。
更重要的是,现在我们正在进入人工智能的工程阶段,这需要巨量的资源,包括计算、工程还有其他方面的资源。即使是像 Google 这样规模的公司,我们也必须谨慎地选择我们的赌注,并清楚“我们将把我们的木头放在哪些箭头后面”(编者按:“把更多的木头放在一个箭头后”意为“集中力量把单一产品做到最好更容易成功”,在文中指 Google DeepMind 需要决定集中力量把资源投入到哪些研究中),然后专注于这些“箭头”上,然后大规模地取得成果。因此,我认为这是人工智能发展进程中自然演进的一部分。
Q:你谈到的 “我们要把这些团队合并起来,找到研究的方向,还有去掉一些重叠的工作范围”。这些看起来都是结构性的问题。所以你们是否已经决定好了一个新的团队架构?这个架构会是怎样的?
A:架构目前还在调整中,我们才刚刚合并了几个月。我们想确保我们没有搞砸任何事情,确保这个架构是正常运作的。两个团队都非常高效,进行着非常出色的研究,同时也参与了非常重要的产品上的业务。我们会继续努力进行下去。
Q:我听你一直在说两个团队。你是把它看作两个团队,还是想整合一个团队?
A:不,不,我没有把他们看作两个团队,这肯定是一个统一的团队。我喜欢称之为 “超级团队”(super unit),我对此感到非常兴奋。但很明显,我们仍在整合,形成新的团队文化,组建新的团队,包括组织结构。
将两个大的研究小组这样组合在一起是一件复杂的事情。但我认为,到今年夏天结束时,我们就会成为一个统一的实体,我认为这将非常令人兴奋。我们已经感受到了,在刚整合的几个月里面,我就发现我们的优势和长处已经体现在 Gemini 这样的项目上。
您可能听说过 Gemini,这是我们的下一代多模态大型模型。现在 Gemini 正在进行一些非常、非常令人兴奋的工作,将两个世界级研究团队的所有最佳想法结合起来。这真是令人印象深刻。
Q:您还有很多的决策要去完成。你所描述的是一系列复杂的决策。然后,在世界上,我们应该如何监督这些工作是如何执行的?看起来也是一系列非常复杂的决策。
你是国际象棋冠军,一个棋手。您的决策框架是什么?我怀疑它比我听到的其他框架要严谨得多。
A:是的,我想可能是的。我认为,如果你从四岁开始就认真地、有效地、专业地玩类似象棋的游戏,我认为它对你的大脑非常有帮助。因此,我认为,在解决问题和制定战略上,国际象棋中的策略对很多事情来说,都是非常有用的一种框架。
国际象棋的本质就是在对手的压力下作出决策,它非常复杂,我认为这是一件非常棒的事情。我主张在学校里教学生们国际象棋,将其作为学校课程的一部分。因为我认为国际象棋是解决问题和决策的绝佳训练方法。但是,我认为实际上最重要的方法是科学方法。
因此,我认为我在攻读博士、博士后,以及在神经科学领域进行的其他教育。我在学习有关脑科学的知识的同时,也教会了我如何进行严格的假设检验和假设生成,然后根据经验和证据进行更新。
科学上的研究方法以及国际象棋的策略,都可以转化并用于商业领域。你必须聪明地思考如何才能转化这些能力,你不能在这些事情上做学术研究。通常,在现实世界中,在商业领域,有很多不确定性和你不知道的隐藏信息。但是在国际象棋中,所有的信息都在棋盘上,因此你不能直接转化这些能力。但我认为,如果应用得当的话,在某些方面它们会非常有帮助。
Q:在您作出的一些决定中,您是如何将这两者结合起来的?
A:我每天都要做很多决定,现在很难立刻拿出一个例子来说清楚是怎么结合起来了。但我倾向于在很多很多年前就开始计划要做一个什么样的决策。所以我会告诉你,我处理事情的方式是,我会设定一个最终的目标。
我很擅长想象,这是一种不同的技能——去想象一个完美的结果是什么样子的,无论是基于组织、基于产品还是基于研究。然后,我再从终点出发,找出实现结果需要采取的所有步骤,并按顺序重新排列,然后尽可能地实现这一结果。
我觉得这有点像是在下棋?从这个意义上说,你有一些计划,你想把你的对手“将死”,但你离那个目标还有很多步。那么,为了提高胜利的可能性,我们必须做哪些渐进的事情来调整棋子的布阵呢?我发现从最终目标回到当前状态的搜索过程非常有用。
Q:让我们接下来来聊聊产品吧。你说有很多 DeepMind 技术和很多 Google 的产品。现在大家都注意到的是 Bard 和你的“搜索生成体验”(Search Generative Experience)。
在Google Photos 还有其他类似的产品中都有人工智能的存在,但专注于大语言模型的是Bard和搜索生成体验。这些不可能是你们想要的最终成果,显然还没有完成。Gemini 即将到来,我们可能会透过新技术来改进这两项功能,所有事情都存在可能。所以,当你考虑这些产品的最终形态时,你认为它们看起来是怎样的?
A:围绕 Google 的人工智能系统也不仅仅是指的是面向消费者的产物,还包括你可能没有意识到的“引擎盖下的东西”(Under the hood,藏在表面下深层次的本质)。
例如,我们最初将人工智能技术应用于谷歌数据中心的冷却系统里,这是一个巨大的数据中心,我们的 AI 让冷却系统的能耗降低了近 30%,如果将所有的数据中心和计算机节省下来的能耗来算的话,这是一个巨大的数字。实际上有很多事情都在利用人工智能来提高这些系统的效率。
但你说得对,目前的产品还不是最终形态,它们实际上只是发展路上的“路标”而已。用聊天机器人和类似这样的 AI 作为例子的话,就是它们最终将成为强大的通用型个人助理,你每天都会使用它,让它在日常生活中做一些帮助你的事情。
从阅读书籍到推荐演唱会,从预订旅行到为您规划行程,再到协助您完成日常工作。我认为目前的聊天机器人离这个目标还很远,我认为我们知道还缺少什么:规划、推理和记忆,我们正在这些朝着这些方面进行努力。我认为,也许再过几年你就会发现倒闭时候的聊天机器人,会让现在的聊天机器人的能力显得微不足道。
Q:我之前是一个研究计算机的人。我认为计算机是一个模块化系统。比如手机,它有屏幕、芯片、手机天线等等。
我是否可以同样地认为人工智能系统也是如此——它有一个大语言模型,有一个能说服人类的语言界面、它的底层可能是AlphaFold,它实际上在进行“蛋白质折叠”?这是你所想象的把不同东西缝合在一起的方式吗,还是说 AI 会有一种不同的进化途径?
A:实际上,我们有一整个部门就是在研究所谓的“工具运用”。我有一种想法就是说,即这些大型语言模型或大型多模态模型,他们是“语言”领域的专家,也许它们还有一些其他方面能力,比如数学或者编程。
但是,当你要求它们做一些专业的事情时,比如“折叠蛋白质”或“下棋”之类的事情,那么实际上它们最终要做的事情是调用另一个工具,也有可能是另一个 AI ,然后就着这个特定的问题为人类提供解决方案。之后再通过中央大语言模型,以语言或图像的方式将答案传回给用户。
因此,用户实际上可能看不到那些帮你解决问题的 AI 工具。因为对用户而言,它看起来就像一个拥有多种功能的大型 AI ,但在其内部,人工智能系统实际上可能被分解成具有不同专业化功能的小型系统。
实际上,我认为下一个时代的系统可能会出现这些功能。然后,您可以将中央系统视为一个开关语句,您可以有效地使用语言进行提示,然后它就会将您的问题传递给正确的工具,为您解决问题或提供解决方案。然后以一种非常容易理解的方式将其传送回来,比如通过用户界面,使用自然的语言,这是最好的方法。
Q:这个过程会让你的产品更接近通用人工智能吗?还是说它会发展到一个大致的极限形态,然后我们不得不换个途径来继续推动通用人工智能的发展?
A:我认为这是达成通用人工智能的关键步骤。顺便说一下,这也是我对 Google DeepMind CEO 这个职位感到非常兴奋的另一个原因。事实上,我认为从现在开始的产品路线图和研究路线图,对朝向通用人工智能或相当于人类思维级别的人工智能的发展目标是非常互补的。
为了构建那些在日常生活中有用的产品,比如通用助手,我们需要推动某些关键能力的发展,例如规划、记忆和推理,我认为这些能力对我们实现通用人工智能至关重要。因此,我认为产品和研究之间现在存在着非常巧妙的相互影响,它们可以有效地互相帮助。
Q:在这个播客节目刚起步的时候,我邀请了很多汽车公司的 CEO 来担任嘉宾。我问他们,“你们认为我们什么时候会有自动驾驶汽车?”他们都说五年后,但五年之后他们还在一直说再等五年,对吗?
A:是的。
Q:我想把这个问题套在“通用人工智能”上,我觉得最近我跟越来越少人讨论这个问题了。你认为我们还有多少年才能达到通用人工智能的水平?
A:我认为在达到通用人工智能之前,需要多少次重大突破还存在着很大的不确定性。这些突破可能是革命性的、创新性的突破,而不仅仅是对现有解决方案的扩展。如果要说大致时间范围的话,我觉得取决于还有多少突破要实现。
显然,如果还需要很多重大突破,那么就会更加困难,需要更长的时间来实现。但就目前而言,如果在接下来的十年内我们接近了类似于AGI或类似AGI的水平,我并不会感到惊讶。
Q:下一个十年……好吧,十年后我再来找你。我们要看看是否会发生。
A:当然可以。
Q:但发展的过程不会一帆风顺。你称之为“关键路径”(Critical Path)。而沿途会有一些需要突破的点,可能会打乱过去的发展,让你沿着不同的道路前进。
A:研究从来不会一帆风顺。如果是的话,那就不是真正的研究。如果你在开始研究之前就知道答案,那也不是研究。无论是有目的的研究还是更前沿的“蓝天研究”总是存在不确定性的,这也是为什么你无法真正准确预测时间表的原因。
但我们可以看趋势的发展,看看当今正在进行的想法和项目的质量,观察它们的进展情况。我认为在接下来的五到十年里,会有两种可能性。我们可能会趋近于某个极限,可能会在现有技术和扩展方面遇到瓶颈。
如果这种情况发生,我也不会感到惊讶:“我们可能会发现仅仅扩展现有系统会导致系统性能的递减收益”(编者:指我们只依赖过去的研究成果来对现有的AI进行扩展可能会导致发展速度变慢。有可能需要颠覆性的创新,才会再次迎来高速发展)。
而实际上,这也预示着我们确实需要一些创新来取得进一步的发展。目前,我认为没有人知道我们正处在发展的哪个阶段。因此,答案就是你必须尽可能地推动两方面的发展,既要对现有系统和现有理念进行扩展和工程化,也要对探索性研究方向进行大量投资。
你认为这些方向可能会带来创新,从而解决现有系统的一些弱点。我们作为一家拥有大量资源的大型研究机构,我们其中一个优势就是可以最大限度地投入在这两个方面,某种意义上来说,我对 “我们是否需要更多突破,或者现有系统是否能一直扩展下去?”这个问题上持中立态度。我的观点是,这是一个经验问题,我们应该尽可能地推动这两个方面的发展。然后结果将不言自明。
Q:我觉得现在存在一种尖锐的矛盾,就是当你在 Alphabet 的 DeepMind 工作时,你非常专注于研究,然后把研究成果交给 Google , Google 的工程师将其转化为产品。
你可以看到两家公司之间的关系是如何运作的。现在,你已经在 Google 内部了。而作为一家公司, Google 目前面临着巨大压力想要赢得人工智能的竞争。这些都是产品方面的问题。
这些都是 “让人们感受到是真实的,并且能在市场上取得竞争优势的东西”。此前,有一份泄露的备忘录流传开来,据信是来自 Google 内部。
它说 Google 没有“护城河”,开源的人工智能模型或泄露出来的模型将在人们的笔记本电脑上运行,它们迟早比我们自己做的人工智能模型要厉害,因为开放计算的历史会超越闭源的竞争对手。这份备忘录是真的吗?
A:我倾向于认为那份备忘录是真实的。我认为 Google 的工程师们经常会撰写各种文件,有时这些文件会被泄露并传播开来。我认为这只是一个经常发生的事情,但我不会把它太当回事。这些只是工程师们自己的观点。我认为听听他们的观点很有意思,但你必须制定自己的发展路线。
我没有详细阅读那份具体的备忘录,但我不同意其中的结论。我认为开源和公开对我们来说是非常显而易见的。在 DeepMind 的发展史上,我们已经做了很多这样的事情。我的意思是,AlphaFold 就是开源的,对吧?
所以,我们显然相信开源,支持研究和开放性研究。这是科学讨论的关键内容,而我们一直是其中的重要一部分。当然,Google 也在发布 Transformer 和其他一些项目。还有 TensorFlow,你可以看看我们都做过什么。
我们在这一领域内做了大量的工作。但我也认为还需要考虑其他因素,显然有商业上的考量,但也有关于访问这些强大的 AI 时的安全问题。如果坏人可以访问它怎么办?他们可能没有那么高的技术水平,所以他们不可能自己开发一个 AI,但他们肯定可以重新配置一个已经存在的系统。
对于这些情况应该怎么办?我认为这个问题迄今为止还相当理论化,但是随着这些系统变得更加通用、更加复杂和更加强大,这个问题就会变得非常重要。这个问题要求我们要有方法来阻止坏人把这些系统用于非预期的恶意目的。
这是我们需要越来越多地考虑的问题。但回到你的问题上来,看看谷歌和DeepMind在过去十年或更长时间内在提出新创新和突破方面所做的历史。我敢打赌,我非常有信心,这种情况将在未来十年甚至更长时间内持续下去,我们将继续创造出下一个重要突破,就像我们过去所做的一样。
Q:你是否认为这就是 Google 的“护城河”:我们发明了大部分这代产品,所以下一代的产品也将由我们发明。
A:我不认为这是 Google 的“护城河”,但我是一个好胜的人。这也许是我从国际象棋中得到的另一个启发,许多研究人员也是如此。当然,他们这样做是为了探索知识。归根结底,我们存在的目的就是改善人类的生存条件。
但同时,我们也希望成为行业里第一个做这些事情的人——负责任且地去做。相比世界上任何一家其他公司,我认为我们拥有世界上最多的优秀的研究人员。我们没有理由不在未来继续保持这一优势。事实上,我认为我们的新组织结构和新环境可能更有利于我们,让我们能取得比过去更多更快的突破。
Q:刚才我们也聊到了风险和监管。所以我也想谈谈这个问题,但我想从另一个角度开始。你在谈论所有你们必须要完成的工作。你谈论了 DeepMind 研究的强化学习还有他的工作原理。
我们与《纽约杂志》(New York Magazine)合作撰写了一篇大型封面报道,讲述了实际进行训练和标注数据的任务执行者的故事。在人工智能的发展过程中,有很多跟劳动力有关的话题。比如好莱坞的编剧们现在正在罢工,因为他们不想未来让ChatGPT写一堆剧本。我认为这是恰当的。
但同时一种新的劳动方式也在逐渐发展,世界上有一群人坐在电脑前说:“没错,那是个停车标志。不,那不是停车标志。是的,那是你可以穿的衣服。不,那不是你能穿的衣服。”(这里指的是“数据标注师”的职业)
那会是要长久持续下去的状态吗?还是说这些是因为 AI 的发展而产生的新工作呢?换个问法,这种工作形态会结束吗?
A:我认为很难说。我认为现在确实是一个特定的时刻,我们需要这些工作者,这与 AI 目前的需求有关。我想你在那篇文章中也引用了我们一些研究人员的观点,我们一直非常谨慎,只是从我们的角度来说,要非常小心地支付合理的工资,并负责任地处理此类工作,对我们的合作伙伴负责。
我们也有内部团队在负责这些事情。实际上,我对我们在此类工作中的负责态度感到非常自豪。但展望未来,我认为这些系统可能会有自我启动的方式,特别是当您拥有数百万用户时。或者,我们可以想象人工智能能够真正实现与自我对话或自我批评。
这就有点像把语言模型的系统变成一个类似游戏的环境,当然,我们在这方面非常有经验,我们一直在思考这些强化学习系统的不同版本如何以某种方式相互评价对方。它可能还不如人类评分员那么好,但它实际上是一种可行的方案。
它们可以进行一些“面包和黄油”(Bread and butter,基础的)的评分,最后可能通过与人类评分员核对这些评级来进行校准,而不是让人类评分员负责评级所有内容。所以我认为我可以看到很多创新正在逐渐出现,这将有助于解决这个问题,并且可能意味着人类评分员的需求会减少。
Q:但你认为人类评分员会一直存在吗?即使你越来越接近通用人工智能,似乎也还是需要有一个人来告诉计算机它是否正确。
A:让我们以 AlphaZero 作为例子,我们的通用对弈系统最终学会了如何玩各种双人棋类游戏,包括国际象棋和围棋。这很有趣,因为我们设置了让系统能够与自己对弈数千万次。事实上,它建立了自己的知识库。
它从一开始只是在随便行棋,然后通过与自己对弈,进行自我引导。最终训练出更好的自己然后让它们相互对弈进行比赛。但最后,您仍然希望将其与人类世界冠军或类似的外部计算机程序进行对比,这些程序是以传统方式构建的,以便您可以校准自己的指标,根据这些目标或指标判断系统的改进情况。
但在你使用外部基准或度量进行校准之前,你无法确定。而校准的标准可以是人工评级员或人工基准,人类专家通常是将内部测试与之对比的最佳选择。你需要确保内部测试实际上反映了现实情况。
再次强调一点,对于研究人员来说,这对产品来说是相当令人兴奋的,因为当你将研究成果转化为产品,并有数百万人每天使用它时,那时才能获得真实世界的反馈,这是不可回避的现实,也是对你所构建的任何理论或系统的最佳测试。
Q:您认为人工智能数据标注师这项工作有意义吗?有一种观点类似像这样就是,“我要告诉计算机如何理解这个世界,这样它就可能在未来取代其他人”。这里面有一个循环,似乎更值得道德或哲学上的思考。你曾经试过花时间思考这个问题吗?
A:是的,我想过这个问题。我想我并不这么认同这种观点。我认为,评分员们正在做的是使这些系统变得更安全、对每个人更有用、更有帮助、成为更可靠的开发周期的一部分。所以我认为他们是一个关键的组成部分。在许多行业里,我们都会对技术和产品进行安全测试。
而对 AI 来说,最好的方法就是有人工评分员的参与。我认为,在未来几年,我认为我们在这方面还需要更多的研究。我一直在呼吁这样做,包括我们自己也在这样做,但这需要的不仅仅是一个组织来做这件事,而是要有一个强大可靠的能力评估标准,以便我们知道如果系统通过了这些基准,它具备某些特性,并且在特定方面是安全和可靠的。
而现在,我认为我们在学术界、民间社会和其他领域的研究人员,他们都对这些测试提出了很多好的建议,但我认为这些建议还不够稳健和实用。
我认为它们基本上是理论性和哲学性的,我认为它们需要变得更加实用,这样我们就可以根据这些测试来经验性地衡量我们的系统,从中为我们的系统性能提供一些保证。我认为一旦我们有了这些测试方法,那么对人类评分员需求就会减少。
我只是认为,由于我们还没有这些独立的基准,所以我们现在才需要大量的人类评分员。部分原因是我们还没有严格定义这些特性是什么。我的意思是,这几乎是神经科学、心理学和哲学的领域,对于人脑来说,这些术语甚至还没有得到恰当的定义。
Q:你已经签署了一封来自人工智能安全中心的联名公开信,包括 OpenAI 的 Sam Altman 在内的其他业内人士也签署了这封有关人工智能带来的风险的警告信。
然而,你刚才却在说“我们还在继续推进,谷歌已经在参与市场竞争,你必须赢的这块市场,你把自己描述为具有竞争力的公司”,所以这其中是否存在一种矛盾?一方面你需要通过产品赢得市场,但另一方面你却认为 “哦,天哪,请监管我们,因为如果我们不以某种方式阻止人工智能,资本主义将把我们都推下悬崖”。你是如何平衡这种风险的?
A:这确实是一个矛盾,或者说是具有创造性的矛盾。我们在 Google 常说我们要“既大胆而又负责任”。这正是我们试图做到的榜样。所谓的“大胆”是指我们勇敢和乐观地看待人工智能能够为世界带来的益处,惊人的、巨大的好处。他们会协助人类应对最大的挑战,无论是疾病、气候还是可持续发展。
人工智能在帮助科学家和医学专家解决这些问题方面起着重要作用,我们正在努力研究和投入这些领域。正如我之前提到的 AlphaFold,它是我们在这方面所努力的典范。这就是我们“大胆”的一面。而“负责任”指的是我们尽可能审慎和带有充分的远见来工作。
我们要事先尽量预见如果我们取得成功之后可能会出现的问题,而不是当一个“事后诸葛亮”。这似乎在社交媒体市场就发生过,这是一个令人难以置信的增长故事。
显然,它在世界上做了很多好事,但后来我们意识到在这些系统中也存在一些意想不到的后果,这可能是15年后的事情。我希望在 AI 领域我们要走一条不同的道路,这将会是一个影响深远且重要的强大技术。
我认为对于像 AI 这样具有改变世界的潜力的技术,我们不得不这样做。这并不意味着我们不会犯错误。这是一项非常新颖的事物,你无法预测所有事情。但是我认为我们可以尽力而为,做到最好。
这就是签署这封信的目的,只是为了指出,我不认为这是不可能的。我们不确定它会什么时候到来,但这是我们应该考虑的事情。当我们接近实现通用人工智能的时候,这些 AI 会做出什么事情和可能做出什么事情。
尽管我们现在还远远没有达到这个水平。因此,这不是今天的技术问题,甚至也不是未来几年的技术问题。但在某个时间点上,因为技术的飞速发展,会促使我们需要提前思考这些问题,而不是在这些问题快要发生的时候才开始思考。
我们需要利用现在的时间,也许是未来的5年、10年,不管是多少年,去做研究,去做分析,并与不同的利益相关者、民间团体、学术界、政府合作,以确定在这些技术迅速发展的同时,能最大程度地实现好处并最小化任何风险。
在当前阶段,这主要包括加大对这些领域的研究力度,例如制定更好的评估和基准,以严格测试这些前沿系统的能力。
Q:你谈到了人工智能模型的工具使用,你可以要求大语言模型做一些事情,它就会去要求次级的模型,比如 AlphaFold 为你折叠蛋白质。
当这样的系统被整合起来时,历史上就出现了出乎意料的行为,出现了无法预测的事情。您会对此感到担忧吗?因为目前没有一种严格的测试方法。
A:是的,完全正确。我认为这正是我们应该提前研究和思考的内容:随着工具使用的日益复杂化,您可以以不同方式将不同的AI系统组合在一起,然后让他们做更多新的东西。
当然,这种新的东西可能是非常可取且极其有用的,但假如落在错误的人手中、或者遇到恶意的使用者,它也有潜在的危害性。
Q:比方说,一些大国都同意制定一些框架来规范人工智能,然后有些人说:“我才不管你的什么规则。”然后他们专门利用人工智能干一些坏事。你认为到时候结果会怎样?你能预见这样的世界吗?
A:是的,我认为这是存在一定可能性的。这就是为什么我一直在与政府进行对话,主要是英国、美国,以及欧盟。我认为在未来几年内,无论是什么样的法规、约束或者其他形式的措施,最理想的情况下它们应该是国际性的,围绕这些安全措施进行国际合作,并达成国际协议,以确保 AI 的部署以及其他相关事宜都符合规定。
不过,考虑到当前世界各地的地缘政治紧张局势,我不知道有多大可能性可以达成国际性的合作,但这绝对是最好的状态。如果可能,我们应该争取实现这一点。
Q:如果政府在这里通过一项规则。它说:“OK,我们规定了 Google 可以这么做,而微软可以那么做。你负责这个……你负责那个”。然后大家都说:“好吧,我们不会在我们的数据中心运行这些代码。我们不会使用这些功能,因为这不合法”。
但如果你只是一个 MacBook 用户,你会因为 AI 可怕的的威胁而默默接受 MacBook 的功能受到控制吗?这正是我所担心的。实际上,如果我们确实存在一些开源的大模型,我们没法保证人们不会用它们来做奇怪的事情。
我们是否应该告诉英特尔,让他们限制其芯片的功能?我们该怎么做,以便能限制所有人不会胡乱使用人工智能?而不是说,如果 Google 做了我们不喜欢的事情,那么我们就只把 Debis 你一个人扔进监狱就完事了。
A:我认为这些都是目前正在讨论的重大问题。我确实在担心这个问题。一方面,开源有很多好处,可以加速科学讨论,带来许多进步,并且为许多开发人员提供了机会。
但另一方面,如果有一些不良分子利用这种机会做坏事,可能会带来一些负面影响。我认为这是未来几年需要解决的问题。因为现在,我认为没有问题,因为系统还没有那么复杂或强大,因此没有那么大的风险。
但我认为,随着系统的功能和通用性的增强,政府需要考虑访问限制的问题,包括如何限制、控制或监控都非常重要。我无法给出任何答案,因为我认为这实际上是一个社会问题,需要整个社会的利益相关者走到一起,权衡其中的益处和风险。
Q:Google 在人工智能方面的工作确实引起了一些争议,围绕关于责任、模型的能力与限制等问题。艾米丽·本德(Emily Bender)、蒂姆尼特·格布鲁(Timnit Gebru)和玛格丽特·米切尔(Margaret Mitchell)发表了一篇著名的 “随机鹦鹉”(Stochastic Parrots)论文,在 Google 内部引起了很大争议。这导致了他们最后离开了 Google 。
你是否读过那篇论文,然后觉得 “好吧,这是正确的。大语言模型会对人们撒谎,而 Google 要对此负责”?在现在的审查环境下,你是如何思考这个问题的。
A:是的……你看,大型语言模型,我认为这是 Google 一直非常负责任的一个原因,因为我们知道他们会产生错误的信息,他们可能是不准确的。这也是未来几年必须改进的关键领域之一,那就是事实性和基础性,确保它们不会传播虚假信息等等。这也是我们最关心的问题。
我们有很多关于如何改进的想法。我们在几年前发布 DeepMind 的 Sparrow 语言模型,就是一项实验,旨在研究我们可以让 AI 提供尽可能准确的事实并遵从设定好的规则。结果表明,我们或许可以将其提高一个数量级,但这有时会以牺牲语言模型的流畅性或创造性为代价,从而影响其实用性。
因此,这有点像“帕累托最优解”(Pareto Frontier, 最理想化的资源分配状态,在文中的意思大致为:尽管 AI 的创造力、流畅度和准确性、可靠性无法做到二者兼得,但可以权衡出一个同时兼顾两者的最优解),如果你提高了一个维度,就会降低另一个维度的能力。
理想情况下,在下一阶段和下一代系统中,我们希望将两者的优点结合起来——既保持现有系统的创造性、流畅度和趣味性,又提高其准确性和可靠性。我们在这方面还有很长的路要走。但我可以看到情况在不断改善,而且我看不到任何理论上的理由,来解释为什么 AI 不能在未来几年内达到极高的准确性和可靠性。
Q:当您使用 Google 搜索生成体验时,您相信它所说的吗?
A:我相信。我有时会再三检查它输出的内容,尤其是在科学领域。很有趣的事,所有这些模型都会出现一种情况。就是,你会让它们总结一个研究领域。
他们会给你生成一些看似非常有用的东西,然后你去问它:“那么,我应该读哪些重要论文?”它们会给出一些听起来非常合理的论文和作者。但当你仔细查看时,你会发现它们只是该领域最有名的人或者两篇不同论文的标题组合在一起。
但作为一个短句或词组,他们看起来非常符合逻辑(但根本不是论文题目)。我认为 AI 系统需要理解引文、论文和作者列表是一个整体,而不是逐字分析。
这些系统需要改进的地方有很多,而我们作为希望推动科学前沿的人,这是一个特别有趣的应用场景,我们希望能够改进和修复它,也是为了满足我们自己的需求。
我希望这些系统能够更好地为我总结出“这是关于某种疾病阅读的前五篇论文”之类的内容,或者快速为你介绍某个特定领域的基本知识。我认为这将非常有用。
Q:我告诉你,我在 Google 上搜索了我的朋友约翰-格鲁伯(John Gruber),Google 搜索生成体验自信地告诉我,他是在报业上尝试使用 Mac 的先驱,并且发明了WebKit。
我不知道这些话从何而来。在向大众推广之前,是否这个功能本身需要达到一定的质量水平和真实性水平?
A:是的,我们一直在考虑这个问题,尤其是在Google,因为Google在搜索等方面有着非常的高标准,我们每时每刻都在依赖这些标准,并希望能达到那样的可靠性水平。显然,目前我们离这个目标还有很长的路要走。事实上也不仅是我们,每个生成式 AI 都是如此。
我们也希望能够达到像以前 Google 搜索业务那样的业内最高标准。实际上,工具使用在这里变得非常有用,您可以通过构建这些系统使它们首先进行事实核查,甚至使用搜索或其他可靠的来源进行交叉引用,就像一个优秀的研究人员一样,交叉引用您的事实。他们甚至对这个世界有更好的理解,什么是研究论文?涉及哪些内容?
因此,这些系统需要对其处理的媒体有更好的理解。也许还应该赋予这些系统推理和规划的能力,因为这样它们可以对自己的输出进行批判性评估。再次强调,这是我们在棋类游戏的程序中拥有丰富经验的领域。
它们不仅会输出你在国际象棋或围棋中首先想到的第一步,实际上它们会进行一些搜索和规划,然后再回溯。有时候它们会改变主意,选择更好的一条路。您也可以想象在词语和语言方面采用类似的过程。
Q:这就是“模型坍缩”(Model Collapse,指在训练生成模型时,模型生成的输出变得重复、无意义和缺乏多样性)的概念了。假如我们将在大语言模型生成的数据上训练大语言模型,这会进入一个循环。
当你谈到交叉引用事实时,我想到了 Google —— 比如未来的 Google 试图在网络上试图交叉引用一堆东西,但它引用的内容是错的,引用的东西都是由 2023 年一个落后的大语言模型意外地生成的。你会如何防范这种情况?
A:我们正在研究一些非常酷的解决方案。我认为这个解决方案也适用于深度伪造(deepfakes),那就是使用一些加密水印技术。一个复杂的,无法轻易或根本无法去除的水印,它或许直接内置在生成模型中,成为生成内容的过程中的一部分。我们希望推出这样的技术,甚至可能向第三方提供通用的解决方案。
但我认为整个行业需要有一个统一的解决方案,我们可以用某种标志(例如水印)来标识生成的媒体,无论是图像、音频,甚至是文本,以向用户和未来的 AI 系统表明这些内容是由 AI 生成的。我认为这是当前 AI 发展的一个迫切的问题,如深度伪造和虚假信息等。但我认为解决方案会在不远的未来出现。
Q:几周前,微软首席技术官兼人工智能执行副总裁凯文·斯科特(Kevin Scott)刚上了我的节目。他也说了一些非常类似的话。我答应过他,我们会做一集关于元数据(Metadata)的节目。希望你也会来参与。据我对我的观众们的理解,整整一小时有关元数据的节目将会是我们有史以来最受欢迎的一集。
A:好的,听起来很完美。
Q:好的 Demis,非常感谢你来到 Decoder。你很快就有机会再回来了。
A:非常感谢。
原文:https://www.theverge.com/23778745/demis-hassabis-google-deepmind-ai-alphafold-risks
本文来自微信公众号:APPSO (ID:appsolution),编译:陈泽钧