正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2022-06-01 11:30
为了把Deepfake关进笼子,各大公司都拼了

本文来自微信公众号:硅星人 (ID:guixingren123),作者:杜晨,编辑:Vicky Xiao,题图来自:视觉中国


曾几何时,deepfake 在互联网上格外猖獗,新闻和成人类内容成为了“换脸”的重灾区。


由于受众广泛,市面上有不少现成的 deepfake 算法,供用户使用,如 DeepFaceLab(DFL)和 FaceSwap。并且,由于深度学习技术的普及,也有一些低成本甚至免费的在线工具,可以训练这些算法,从而让好事之徒达到其目的。


常用的工具之一就是谷歌的 Colab,一个免费的托管式 Jupyter 笔记本服务。简单来说,用户可以在 Colab 的网页界面上运行复杂的代码,“白用”谷歌的 GPU 集群,从而训练那些依赖高性能硬件的深度学习项目。


不过就在本月,谷歌终于对 colab 在线训练 deepfake 痛下杀手。


前不久,DFL-Colab 项目的开发者 chervonij 发现,谷歌本月中下旬将 deepfake 加入到了 Colab 的禁止项目列表当中:


图片来源:谷歌


chervonij 还表示,他最近尝试用 Colab 运行自己的代码的时候,遇到了如下的提示:


“您正在执行被禁止的代码,这将有可能影响您在未来使用 Colab 的能力。请查阅FAQ页面下专门列出的禁止行为。”


图片来源:DFL Discord 频道


然而这个弹出提示只是做出警告,并没有完全禁止,用户仍然可以继续执行代码(continue anyway)


有用户发现,这次谷歌的行动应该是主要针对 DFL 算法的,考虑到 DFL 是目前网络上 deepfake 行为最常采用的算法。与此同时,另一个没那么流行的 deepfake 算法 FaceSwap 就比较幸运,仍然可以在 Colab 上运行且不会弹出提示。


FaceSwap 联合开发者 Matt Tora 接受 Unite.ai 采访时表示,自己并不认为谷歌此举是出于道德目的:


“Colab 是一个偏向 AI 教育和研究方向的工具。用它来进行规模化的 deepfake 项目的训练,和 Colab 的初衷背道而驰。”


他还补充表示,自己的 FaceSwap 项目的重要目的就是通过 deepfake 来教育用户关于 AI 和深度学习模型的运行原理,言外之意可能这才是 FaceSwap 没有被 Colab 针对的理由。


“出于保护计算资源,让真正需要的用户能够获取这些资源的目的,我理解谷歌的这一举动。”


Colab 未来是否将会完全禁止 deepfake 类项目的执行?对于不听劝的用户会有怎样的惩罚?目前谷歌并未对此次修改作出回应,这些问题也暂时没有答案。


不过我们可以确定的是,谷歌肯定是不希望 Colab 这样一个出于公益目的,提供免费训练资源的平台,被 deepfake 开发者滥用。


Google Research 将 Colab 免费开放给广大用户,目的是降低深度学习训练的硬件成本门槛,甚至让几乎没有编程知识背景的用户也能轻松上手——也即所谓的 AI 普及化(democratization of AI)


由于区块链行业的爆发增长,以及疫情的次生影响,当今全球芯片(特别是 GPU)很大程度上仍然处于断供状态。所以如果是为了节约资源而禁用 Colab 运行 deepfake 项目,确实可以理解。


不过除了 deepfake 之外,Colab 禁止的其它行为当中也的确包括大众认知的恶意行为,比如运行黑客攻击、暴力破解密码等。


deepfake使用门槛变高?


在过去相当长一段时间里,对于初入门和中等水平的 deepfake 视频创作者来说,想要实现一般可接受画质(480p或720p以上)的内容输出,自己却没有足够的硬件配置的话,那么 Colab 几乎是唯一的正确选择。


毕竟 Colab 界面简单,上手轻松,训练性能达到可以接受的水平,而且还免费,没有理由不用。前面提到的一些 deepfake 算法项目也都针对 Colab 提供了代码支持。


要讨论 deepfake,很难避开新闻换脸视频和成人换脸内容。硅星人发现,DFL 主项目页面直接把新闻视频换脸作为主要使用场景之一,并且页面中引导的一些用户社群也都默许明星或私人复仇式(revenge porn)的换脸成人内容,使得此类内容大量存在。



现如今谷歌决定禁止 deepfake 类项目在 Colab 上运行,势必将对私人的 deepfake 内容制作造成不小的打击。因为这意味着那些初级和中级 deepfake 制作者将失去一个最重要的免费工具,让他们继续制作此类内容的成本显著提高。


不过据领域内一些内幕人士表示,那些最顶级的、将 deepfake 当作一门生意的专业制作者,已经基本实现了完全“自主生产”。


这群人通过非法销售及会员募捐等方式,赚到了不少钱,可以投资更加高级的设备。现在他们可以制作分辨率、清晰度和脸部还原度更高的 deepfake 视频,从而不用依赖 Colab 以及云计算等在线服务,就能实现稳定生产和营收。


举个例子:想要实现2k甚至4k分辨率和60fps的帧率,并且单片单次渲染用时在可以接受的范围(比如几天)的话,需要一个庞大的渲染农场,至少10台电脑,每台两张支持 SLI 技术的英伟达 RTX 高端显卡,以及上百GB的内存。这样下来仅单台的购置成本就已经相当高了,更别提还要算上运转时的电费(渲染、冷却等),可以说是一笔相当大的投资。


很遗憾,对于这群人来说,谷歌的新政策对他们完全起不到作用。只有全社会对 deepfake 带来的负面影响提升重视,整个科技行业都行动起来,deepfake 的滥用问题才能得到解决。


把deepfake关进笼子里,各国、各大公司都在行动


1. 谷歌


这的确不是谷歌第一次出面打击 deepfake 内容制作了。在2019年,Google Research 就发表过一个大型视频数据集。其背后是谷歌在自己内部通过制作 deepfake 视频的方式,从而试图了解相关算法的工作原理。


对于谷歌来说,它需要提高识别 deepfake 的能力,从而在商业化产品环境里(最典型的就是 YouTube 用户视频上传),从源头上切断恶意换脸视频的传播途径。以及,第三方公司也可以使用谷歌开放的这个数据集来训练 deepfake 探测器。



不过,近几年 Google Research 确实没有花太多心思在打击 deepfake 上。反而,该公司最近推出的 Imagen,一个超高拟真度的文字生成图片模型,效果非常惊人,反倒是引发了一些批评。


Imagen 文字转图片的效果   图片来源:谷歌


2. 微软


微软研究院在2020年共同推出了一项 deepfake 探测技术,名为 Microsoft Video Authenticator。它能够检测画面中的渲染边界当中灰阶数值的不正常变化,对视频内容进行逐帧实时分析,并且生成置信度分数(confidence score)


微软也在和包括纽时、BBC、加拿大广播公司等顶级媒体合作,在新闻行业的场景下对 Video Authenticator 的能力进行检测。


与此同时,微软也在 Azure 云计算平台中加入了媒体内容元数据(metadata)校验的技术。通过这一方式,那些被修改过的视频内容可以和原视频的进行元数据比对——和下载文件的时候比对 MD5 值差不多意思。


3. Meta


2020年,Facebook 宣布在 Facebook 产品平台全面禁止 deepfake 类视频。


然而这个政策执行得并不彻底。比如,目前在 Instagram 上还可以经常见到那个著名的中国翻版马斯克 deepfake 视频(主要是从 TikTok 上转发过来的)


图片来源:MaYiLong0|TikTok


在行业层面,Meta、亚马逊 AWS、微软、MIT、UC伯克利、牛津大学等公司和机构在2019年共同发起了一个 deepfake 检测挑战赛,鼓励更多、更优秀、更与时俱进的检测技术。


4. Twitter


2020年 Twitter 封杀了一批经常发布 deepfake 视频的账号。不过对于其它 deepfake 内容,Twitter 并没有完全限制,而是会打上一个标签“被修改的内容”(manipulated media),并且提供第三方事实核查机构的检测结果。



5. 创业公司


OARO MEDIA:西班牙公司,提供一套对内容进行多样化数字签名的工具,从而减少deepfake 等被修改过的内容传播对客户造成的负面影响。


Sentinel:位于爱沙尼亚,主要开发 deepfake 内容检测模型。



Quantum+Integrity:瑞士公司,提供一套基于 API 的 SaaS 服务,可以进行各种基于图像类的检测,能力包括视频会议实时 deepfake、截屏或图片“套娃”、虚假身份证件等。



6. 国家(立法和行政)


中国:2020年印发的《法治社会建设实施纲要(2020~2025年)》进一步要求,对深度伪造等新技术应用,制定和完善规范管理办法。


美国:2019年正式签署生效的2020财年国防批准法当中包含了和 deepfake 相关的条文,主要是要求政府向立法机构通报涉及跨国、有组织、带有政治目的的 deepfake 虚假信息行为。


加州、纽约州和伊利诺伊州都有自己的 deepfake 相关法律,主要目的是保护 deepfake 受害者的权益。


欧盟:GDPR、欧盟人工智能框架提议、版权保护框架、虚假信息针对政策等高级别法律文件,都对可能和 deepfake 有关的事务实现了交叉覆盖。不过,整个区域级别目前并没有专门针对 deepfake 的法律和政策。


在成员国级别上,荷兰立法机构在2020年曾经要求政府制定打击 deepfake 成人视频的政策,以及表示会考虑将相关问题写入该国刑法。


本文来自微信公众号:硅星人 (ID:guixingren123),作者:杜晨

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
文集:
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: