正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2018-02-23 12:39
特朗普也中招,AI换脸技术的边界在哪儿?

继神奇女侠盖尔·加朵“被下海”以后,AI “换脸术”已经蔓延到越来越多的领域,这次的受害者是美国总统特朗普。


近日 Youtube 上出现了一段以假乱真的特朗普视频(链接在这里,需要特殊的上网技巧),其原视频是 Alec Baldwin 周末晚间秀中对特朗普的模仿,一位的 UP 主 “ derpfakes ” 用 AI 技术将 Alec Baldwin 的脸换成了特朗普的脸。


作为原视频,右为换脸版本


如果对比着看,你会发现右边的修改版本,相较于原视频有些失真,脸上也少了不少细节。但这是在对比的情况下,如果单拿出来,这个视频足以以假乱真,不仔细观察根本看不出有什么破绽。


无独有偶,另一位 Youtube UP 主,将2004年的电影《帝国的毁灭》中 Bruno Ganz 扮演的希特勒的脸,换到了现任的阿根廷总统 Mauricio Macri 脸上。


视频点这里


还是那句话,仔细看还是有些别扭,但有多少人愿意去抠这些细节?况且技术实在不断发展的,几年以后,不用技术手段就无法辨别的模仿技术定会出现。


造假视频的泛滥,主要是因为这种技术的实现门槛实在太低了。制作出盖尔·加朵等人“下海视频”的是一位名为“deepfakes”的美国网友,这位仁兄不仅技术高超,还非常有开源精神,他无偿地分享了自己的技术成果,甚至非常“贴心”地制作了视频教程,只要有耐心,几乎任何人都可以跟随教程制作出像样的“换脸”视频。


此前虎嗅文章《“换脸术”即将带来的“福利”与恐慌》曾提到:


这里隐藏的真正问题,在于利用开源的AI架构进行视频换脸这件事,不是太复杂太前卫了,而是太简单太容易了。


为了验证这点,我先后把deepfakes分享的视频和代码发给了三位从事机器视觉相关工作的朋友,得到的反馈基本一致:这东西毫无技术难度。只要会用TensorFlow的基础功能,电脑显卡不至于太烂,差不多几个小时就可以搞出来一个。


哪怕连编程基础都没有的人,跟着教程一步步走,搜集足够多的素材,也可以自己搞出来换脸视频。


对此,Deepfakes这么解释:“每个技术都可能被用来做坏事,这个我们拦不住,我不认为让每个普通人参与到机器学习的研究中来是一件坏事。”


虽说技术进步是好事,但这也意味着造假的成本进一步降低,而人们分辨真伪的成本被前所未有的抬高。如果你从未听说过有所谓的“AI 换脸术”,面对视频里活灵活现的真人,是非常难以辨别真伪的。


在此之前,此项技术还只是用来满足部分群体的自娱自乐,虽然不可避免地会对明星们的声誉造成不好的影响,但涉及到的还只是侵权等方面的问题。但如果任由技术滥用,将会有更多现实问题出现,比如诈骗、勒索,甚至对社会和政治造成恶劣影响。


此前 Facebook 曾公布数据,俄罗斯过去两年在Facebook上发表了8万多篇试图影响美国政治的帖子,大约有1.26亿美国人看过这些内容。虽然无法统计有多少人看了这些帖子就改变选票,但你没法保证它是毫无影响的。


而如果一旦这种造假视频,被当作某种政治手段大规模使用,欺骗性会更高,会有更多的人被蒙蔽,从而对政治走向造成影响。最好的例子就是美国大选,如今美国大选的胜利似乎已经成为了人设的胜利,看你顺眼就投你。但如果大选期间,有几个伪造的视频出现,势必会掀起不小的波澜。“造谣一张嘴,辟谣跑断腿”,即便能证明视频系伪造,其所造成的影响一时半会是不会轻易消除的。


毕竟群众总是盲目的,当他看到一个猎奇的视频是更愿意倾向于相信,而不是去了解晦涩的技术手段去辨别真伪。


什么,你说人们不会被虚假视频忽悠?好,请你告诉我,下面这个奥巴马踹门的片段是真是假?



目前来看,“Deepfakes”还没有得到有效的监管。虽然美国一些图片、视频网站已经开始训练自己的 AI 模型以对抗造假视频的泛滥,但这更多的还是民间行为,还没有政府层面的机构出面进行相关干预。但随着造假视频涉及的范围越来越广,甚至开始拿政要开涮,估计离有关部门出来踩刹车的那天也不远了。


自由是相对的,同理技术自由也是相对的,没有被正确应用的技术,难免会走向另一个极端。

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
频道:

别打CALL,打钱

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: