正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2021-12-26 19:52
吴恩达:回顾2021,这些大事件影响了AI这一年

12 月 23 日,机器学习大牛吴恩达(Andrew Ng)在其主编的人工智能周讯《The Batch》上发表了最新文章。文章中,吴恩达回顾了 2021 年全球人工智能在多模态、大模型、智能语音生成、Transformer 架构、各国 AI 法律举措等方面的主要进展。


本文来自微信公众号:AI前线(ID:ai-front),作者:Andrew Ng,译者:核子可乐,刘燕,头图来自:视觉中国


2021 年即将过去。


日前,吴恩达发表了以“赠人玫瑰、手有余香”为主题的圣诞寄语。


随着 2021 年底的临近,你可能正在减少工作为寒假做准备。我很期待能暂时放下工作休息一下,希望你也一样。


十二月有时被称为“给予的季节”。如果你有空闲时间,想知道如何利用它,我认为我们每个人能做的最好的事情之一,就是思考如何能够帮助别人。


历史学家、哲学家威尔·杜兰特曾说过:“重复的行为造就了我们。”如果你不断地寻求提升他人,这不仅会帮助他们,或许同样重要的是,它也会让你成为一个更好的人。正是你的重复行为定义了你的为人。还有一个经典的研究表明,把钱花在别人身上可能比花在自己身上更让你快乐。


所以,在这个假期,我希望你能休息一段时间。休息、放松、充电!与那些你爱的、但在过去的一年里没有足够的时间联系的人联系。如果时间允许,做一些有意义的事情来帮助别人。可以是在博客文章中留下鼓励的评论、与朋友分享建议或鼓励、在线上论坛上回答一个人工智能问题、或为一个有价值的事业捐款。


在与教育和(或)科技相关的慈善机构中,我最喜欢的有维基媒体基金会、可汗学院、电子前沿基金会和 Mozilla 基金会。


吴恩达还谈到了 AI 社区的发展。他表示:AI 社区在规模很小的时候就有很强的合作精神。这感觉就像一群无畏的先锋们在向全世界进军。人们渴望帮助别人,提供建议,彼此鼓励,相互介绍。那些从中获益的人往往无以为报,所以我们通过帮助后继者作为回报。随着人工智能社区的发展,我希望保持这种精神。我承诺将继续努力建设人工智能社区。希望你也可以!


我也希望你们能考虑各种方式,无论大小,向人工智能社区以外的人伸出援手。世界上还有很多地方没有先进的技术。我们的决定影响着数十亿美元和数十亿人的生命。这给了我们一个在世界上行善的特殊机会。


吴恩达回顾了 2021 年全球人工智能的进展并展望了 2022 年以及之后 AI 技术的发展前景。


回顾 2021 年


过去一年以来,整个世界都在跟极端天气、经济通胀、供应链中断以及 COVID-19 病毒作斗争。


在科技领域,远程办公与线上会议贯穿了这整整一年。AI 社区则继续努力弥合整个世界,推进机器学习发展,同时加强其造福各行各业的能力。


这一次,我们希望重点展望 2022 年及之后 AI 技术的发展前景。


多模态 AI 的起飞


虽然 GPT-3 和 EfficientNet 等单独针对文本及图像等任务的深度学习模型备受瞩目,但这一年中最令人印象深刻的,还是AI 模型在发现许可证与图像间关系中取得了进步。


背景信息


OpenAI 通过 CLIP(实现图像与文本匹配)与 Dall·E(根据输入文本生成对应图像)开启了多模式学习的开端;DeepMind 的 Perceiver IO 则着手对文本、图像、视频及点云进行分类;斯坦福大学的 ConVIRT 尝试为医学 X 射线影像添加文本标签。


重要标杆


虽然这些新的多模式系统大多处于实验阶段,但也已经在实际应用中取得突破。


  • 开源社区将 CLIP 与生成对抗网络(GAN)相结合,开发出引人注目的数字艺术作品。艺术家 Martin O’Leary 使用 Samuel Coleridge 的史诗作品《忽必烈大汗》为输入,生成了充满迷幻色彩的“Sinuous Rills”。


  • Facebook (Meta)表示其多模式仇恨言论检测器能够标记并删除掉社交网络上 97% 的辱骂及有害内容。该系统能够根据文本、图像及视频等 10 种数据类型将模因与其他图像 - 文本对准确划分为“良性”或“有害”。


  • 谷歌表示已经在搜索引擎中添加了多模式(及多语言)功能。其多任务统一模型能够返回文本、音频、图像及视频链接,用以响应由 75 种语言提交的各类查询。


新闻背后


今年的多模态发展态势源自几十年来坚实的研究基础。


早在 1989 年,约翰霍普金斯大学和加州大学圣迭戈分校的研究人员就开发出一种基于元音的分类系统,用以识别人类语音中的音频与视觉数据。


接下来的二十年间,更多研究小组先后尝试过数字视频库索引及基于证据 / 视觉数据的人类情绪分类等多模式应用方案。


发展现状


图像与文本如此复杂,因此研究人员在很长一段时间内只能专注于其中一种。在此期间,他们开发出多种不同技术成果。


但过去十年中,计算机视觉与自然语言处理已经在神经网络中得到有效融合,也让二者的最终合璧成为可能 —— 甚至音频集成也获得了参与的空间。


万亿级参数


过去一年,模型经历了从大到更大的发展历程。


背景信息


谷歌用 Switch Transformer 拉开了 2021 年的序幕,这是人类历史上首个拥有万亿级参数的模型,总量达 1.6 万亿。


北京人工智能研究院则回敬以包含 1.75 万亿参数的悟道 2.0。


重要标杆


单纯拉高模型参数并没什么特别。但随着处理能力和数据源的增长,深度学习开始真正确立起“越大越好”的发展原则。


财力雄厚的 AI 厂商正以狂热的速度堆积参数,既要提高性能、又要展示“肌肉”。特别是在语言模型方面,互联网厂商为无监督和半监督预训练提供了大量未经标记的数据。


2018 年以来,这场参数层面的军备竞赛已经从 BERT(1.1 亿)、GPT-2(15 亿)、MegatronLM(83 亿)、Turing-NLG(170 亿)、GPT-3(1750 亿)一路走来,如今终于迈过了万亿级大关。


挺好,但是……


模型的膨胀路线也带来了新的挑战。愈发庞大的模型令开发者们面临四大严酷障碍。


  • 数据:大型模型需要吸纳大量数据,但网络和数字图书馆等传统数据源往往提供不了这么多高质量素材。例如,研究人员常用的 BookCorpus 是一套包含 11000 本电子书的数据集,之前已被用于训练 30 多种大型语言模型;但其中包含某些宗教偏见,因为内容主要讨论基督教和伊斯兰教义,对其他宗教几无涉及。


AI 社区意识到数据质量将直接决定模型质量,但却一直未能就大规模、高质量数据集的有效编译方法达成共识。


  • 速度:如今的硬件仍难以处理大体量模型,当数据反复出入内存时,模型的训练和推理速度都会受到严重影响。


为了降低延迟,Switch Transformer 背后的谷歌团队开发出一种方法,能够让各个 token 只处理模型各层中的一个子集。他们的最佳模型预测速度甚至比参数量只有其三十分之一的传统模型还快 66%。


另外,微软开发的 DeepSpeed 库则选择了并行处理数据、各层及层组的路线,并通过在 CPU 和 GPU 间划分任务以减少处理冗余。


  • 能耗:训练如此庞大的网络会消耗大量电能。2019 年的一项研究发现,在 8 个英伟达 P100 GPU 上训练一个包含 2 亿参数的 transformer 模型所造成的碳排放(以化石燃料发电计算),相当于一辆普通汽车五年的行驶总排放量。


当然,Cerebras 的 WSE-2 及谷歌最新 TPU 等新一代 AI 加速型芯片有望降低排放,而风能、太阳能及其他清洁能源的供应也在同步增加。相信 AI 研究对环境的破坏将愈发轻微。


  • 模型交付:这些庞大的模型很难在消费级或边缘设备上运行,所以真正的规模部署只能通过互联网访问或精简版本实现——不过二者目前各有问题。


发展现状


自然语言建模排行榜中的主力仍然是千亿级模型,毕竟万亿级参数的处理难度实在太高。


但可以肯定,未来几年会有更多万亿级俱乐部成员加入进来,而且这种趋势仍将持续。有传闻称,OpenAI 规划中的 GPT-3 继任者将包含更加恐怖的百万亿级参数。


AI 生成音频内容渐成“主流化”


音乐家和电影制作人们,已经习惯于使用 AI 支持型音频制作工具。


背景信息


专业媒体制作人们会使用神经网络生成新的声音并修改旧有声音。配音演员们自然对此大为不满。


重要标杆


生成模型能够从现有录音中学习特征,进而创造出令人信服的复制品。也有些制作人直接使用这项技术原创声音或模仿现有声音。


  • 美国初创公司 Modulate 使用生成对抗网络为用户实时合成新的语音,使得游戏玩家和语聊用户能够建立起自己的虚拟角色;也有跨性别者用它调整自己的声音,借此获得与性别身份相一致的音色。


  • Sonantic 是一家专门从事声音合成的初创公司。演员 Val Kilmer 于 2015 年因咽喉手术而丧失了大部分发声能力,该公司则利用原有素材为他专门创造了一种音色。


  • 电影制作人 Morgan Neville 聘用一家软件公司,在自己的纪录片《流浪者: 一部关于安东尼·波登的电影》中重现了已故旅游节目主持人波登的声音。但此举引起了波登遗孀的愤怒,她表示自己并未许可这种行为。


挺好,但是……


争议不止这一例。


配音演员们也担心这项技术会威胁到自己的生计。2015 年年度游戏《巫师 3:狂猎》的粉丝们甚至在同人 Mod 版本中用这项技术重现了原配音演员们的声音。


新闻背后


最近出现的音频生成主流化倾向,完全是早期研究成果的自然延续。


  • OpenAI 的 Jukebox 就使用 120 万首歌曲进行训练,可利用自动编码器、转换器及解码器管道进行全实时录音生成,风格涵盖从猫王到艾米纳姆等多位歌手。


  • 2019 年,某匿名 AI 开发者设计出一种技术,允许用户在短短 15 秒内利用文本行重现动画及视频游戏角色的声音。


发展现状


生成音频及生成视频不仅让媒体制作人多了一种修复并增强归档素材的能力,同时也让他们能够从零开始创造新的、真假难辨的素材。


但由此引发的道德与法律问题也在增加。如果配音演员被 AI 彻底取代,他们的损失该由谁承担?将已故者的声音在商业化作品中重现涉及哪些所有权纠纷?能不能利用 AI 为已故歌手推出新专辑?这么做对吗?


一种架构,驾驭一切


Transformer 架构正在快速拓展自己的影响范围。


背景信息


Transformers 架构最初专为自然语言处理所开发,但目前已经成为深度学习领域的“万金油”。2021 年,人们已经在用它发现药物、识别语音和图像等。


重要标杆


Transformers 已经用实际行动证明自己在视觉任务、地震预测、蛋白质分类与合成等领域的优异表现。


过去一年以来,研究人员开始将其推向更广阔的新领域。


  • TransGAN 是一套生成对抗网络,结合 transformers 以确保所生成的各个像素都与之前已生成的像素一致。这项成果能够有效衡量所生成图像与原始训练数据之间的相似度。


  • Facebook 的 TImeSformer 使用该架构识别视频片段中的动作元素。它的任务不再是从文本中识别单词序列,而是尝试解释视频帧中的序列关系。其性能优于卷积神经网络,能够在更短时间内分析更长的视频片段,因此能耗也控制在更低水平。


  • Facebook、谷歌及加州大学伯克利分校的研究人员在文本上训练出 GPT-2,之后冻结了其 self-attention 与 feed-forward 层。在此基础上,他们可以针对不同用例进行模型微调,包括数学、逻辑问题及计算机视觉等。


  • DeepMind 发布了 AlphaFold 2 的开源版本,其使用 transformers 根据氨基酸序列预测蛋白质的 3D 结构。该模型在医学界内掀起轩然大波,人们普遍认为其具备推动药物发现和揭示生物学原理的巨大潜力。


新闻背后


Transformer 于 2017 年首次亮相,之后迅速改变了语言处理模型的设计思路。其 self-attention 机制能够跟踪序列中各元素与其他元素间的关系,不仅可用于分析单词序列,还适合分析像素、视频帧、氨基酸、地震波等序列。


基于 transformer 的大型语言模型已经建立起新的客观标准,包括在大型未标记语料库上进行模型预训练,利用有限数量的标记示例针对特定任务进行微调等。


Transformer 架构良好的普适性,可能预示着未来我们将创造出能解决多领域多问题的 AI 模型。


发展现状


在深度学习的发展过程中,有几个概念曾经迅速普及:ReLU 激活函数、Adam 优化器、attention 注意力机制,再加上现在的 transformer。


过去一年的发展证明,这种架构确实具有旺盛的生命力。


各国政府出台人工智能相关法律


各国政府纷纷制定新的法律和提案,希望控制 AI 自动化对现代社会的影响。


背景信息


随着 AI 对隐私、公平性、安全性及国际竞争关系带来的潜在影响,各国政府也开始加大对 AI 的监管力度。


重要标杆


AI 相关法律往往反映出各国在政治秩序中的价值判断,包括如何在社会公平与个人自由之间求取平衡。


  • 欧盟起草了基于风险类别的机器学习应用禁止或限制条例。实时人脸识别与社会信用系统被明令禁止;对于重要基础设施的控制、执法协助及生物识别技术等应用方向则需要提交详细的说明文件,证明 AI 方案安全可靠并持续接受人工监督。


这项规则草案于今年 4 月发布,目前仍在立法流程之内,预计未来 12 个月内仍无法落地。


  • 从明年开始,中国互联网监管机构将强制对可能破坏社会公序良俗的 AI 系统与推荐算法执行监督。打击的目标包括传播虚假信息、引导成瘾行为及危害国家安全的各类系统。企业在部署任何可能左右公众情绪的算法之前必须获得批准,违规算法一律不得上线。


  • 美国政府提出一项 AI 权利法案,用以保护公民免受可能侵犯隐私及公民权利的系统的影响。政府将在明年 1 月 15 日前持续为提案收集公众意见。在联邦以下,多个州及市一级政府开始限制人脸识别系统。纽约市通过一项法律,要求对招聘算法进行偏见审计。


  • 联合国民权高级专员呼吁各成员国暂停 AI 的某些用途,包括可能侵犯人权、限制民众获取基本服务、以及滥用私人数据的情形。


新闻背后


AI 社区正在逐步走向监管层面的共识。


最近对 534 位机器学习研究人员进行的一项调查发现,68% 的受访者认为模型部署确实应该重视可信度与可靠性。受访者们对于欧盟及联合国等国际机构的信任度,也普遍高于对各国政府的信任度。


发展现状


在中国以外,大部分 AI 相关法规仍处于审查阶段。但从目前的提案来看,AI 从业者必须为政府全面介入的必然前景做好准备。


原文链接:https://read.deeplearning.ai/the-batch/issue-123/


本文来自微信公众号:AI前线(ID:ai-front),作者:Andrew Ng,译者:核子可乐,刘燕

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: