扫码打开虎嗅APP
本文来自微信公众号:独立鱼电影,作者:鱼叔,头图来自:《网络炼狱:揭发N号房》
前段时间,微博上一封求救信引起了人们的注意。
一个IP显示为韩国,名叫nosunae_520的账号,称自己深受DeepFake(深度伪造)的侵害。
DeepFake是这些年十分流行的AI伪造技术。
我们经常在网上看到的将明星AI换脸,运用的就是这样的技术。
而这个女孩遭遇的,是自己的脸出现在成人视频当中。
并且,她在博文中写道:
现在韩国的情况太严重了,无法预测有多少女性因DeepFake而受害。
随着此事热度的不断上涨,人们惊恐地发现,一件可怕的AI换脸性丑闻正在发生。
这个事件时间跨度之长,涉及范围之广也已经远超人们的想象,被称为“N号房2.0”。
更要命的是,当你了解整个事件之后就会发现,下一个被换脸的人可能就会是自己。
如此可怕的事实,简直让人不寒而栗。
1
也许很多人没有意识到,别有用心的AI换脸有多么可怕。
高分英剧《真相捕捉》曾展现了DeepFake的可怕之处。
一个英国军人被控告殴打并绑架了一名女性,证据是一段街道上的监控录像。
可经过调查却发现,这个视频是那名女性受害者用DeepFake制作的。
如果调查不够仔细,一个无辜之人就很可能被投入牢狱之中。
将这种转白为黑的手段运用在性犯罪事件中,其带来的后果简直无法想象。
nosunae_520并不是唯一一个在微博发出求救的人。
就在她发声的两天后,另一个IP为韩国的微博账号也写下了相同的内容。
中国也不是她求救的第一个海外国家。
全球各类社交平台上,她们都发表过相似的文字。
之所以要在海外求助,因为在韩国国内,这件事情并没有得到应有关注。
实际上,早在今年5月,韩国就发生过一起被称为“N号房2.0”的案件。
几名首尔大学的校友,在过去三年间,利用DeepFake将女性的头像植入成人视频中。
之后再在名为“电报”的加密软件上组建群组,进行传播获利。
进入这个群组的条件,就是拿出身边的5个女性熟人的换脸视频。
成功进入群组后,成员们就可以免费使用群里的制作软件,然后开始制作收费视频再向外输出。
如此一来,就完成了一套自产自销且传播速度很快的产业链。
这些加害者,往往会从自己身边的人下手。
同学、老师、同事,甚至是自己的母亲、姐妹都是他们的目标。
他们甚至还恶劣地根据受害者的身份,将私密群聊分为“妈妈房”“姐妹房”“护士房”……
更令人气愤的是,当被发现后,他们还嚣张地直接威胁受害者。
而受害者报警后,警方只是说“会调查”然后不了了之。
法律途径走不通,受害者便转向网络求助。
可她们收到的,却是删帖禁言和更过分的言语羞辱。
忍无可忍的受害者们找到了当初卧底调查N号房的“追踪团·火花”的成员。
这个名叫恩智(音译)的成员再次化身卧底,一举曝光了这个团伙,也将一组可怕的数据公之于众:
仅一名加害者,就在3年时间里针对包括未成年人在内的48名受害者制作了约400个视频,并传播了约1700个视频。
本以为,这次事件的爆发能够结束这样恶劣的事情。
没想到,反而愈演愈烈。
8月,韩国一名初三男生了解到,自己学校依旧有DeepFake成人视频受害者。
于是他建立了一个“受害者学校地图”的网站。
结果,短短的2天内,这个网站中就有超过200所学校被标记。
这些学校不仅有大学,还包含了大量中学与小学。
但是韩国警方与媒体并没有给出过多的关注。
他们的理由,一是软件IP地址在国外难以追查,二是“不方便公开加害者信息”难以立案。
直到数字井喷式的增长,再加上大量韩国女性在外网求助,才引起政府重视。
调查数据显示,AI换脸成人视频的受害者数量已经达到22万人,而韩国去年一整年的出生人口是23万人。
在所有受害者中,青少年的占比高达73.6%。
而大部分的加害者,也是未成年人。
2
近年来,用AI换脸对女性造黄谣,愈来愈频繁。
2017年,就有人将女星盖尔·加朵的脸嫁接在一个成人电影女演员的身上。
在“DeepFake Maker”网站上,截至目前已经有4000多位名人被AI换脸为成人视频的主角。
其中包括了斯嘉丽·约翰逊、娜塔莉·波特曼、泰勒·斯威夫特等欧美女星。
还有一众韩国女爱豆。
近日,韩国四大娱乐公司之一的JYP公司,还专门针对旗下女艺人被恶意AI换脸发布了官方通告,称要诉诸强制法律手段。
2021年,一位台湾知名网红被曝出,用AI换脸技术将许多台湾艺人变成成人影片的女主角后贩卖盈利。
其中就包含蔡依林、陈意涵等知名艺人。
内娱也有大批受害者。
杨幂、迪丽热巴、赵丽颖也多次被人发现成为AI换脸的对象。
而这一次的事件,无论是受害规模还是技术精度,都大幅提升。
早些年,那些粗糙的换脸视频,大家基本上都能一眼辨真假。
但现下越来越精进的技术,普通人已经难以用肉眼分辨。
日剧《相棒》有一集,就将话题对准了DeepFake技术的以假乱真。
一名国防技术顾问在家中卧室被杀害。现场的电脑中有一段他与一名女性的“性爱录像”。
而这位女性在面对警察的调查时,坚称自己从未与被害者发生过关系,并能够给出完美的不在场证明。
但她依旧无法证明,视频中的女性不是自己。
因为一切都太真了。
直到后面凶手自己承认,警方才知道这是一段用DeepFake制作的视频。
不仅如此,此次事件的受害者基本上都是普通人。
以前,如果是明星受到侵害,还能借助公众影响力和经纪公司的力量为自己维权。
相反,普通人就很难拥有这样的资源。
而且,随着社交网络的发展,个人信息很容易就能被他人获取,更不用说图片这样最唾手可得的材料。
想想《黑镜》第六季中的一集。
女主只要使用了智能手机等联网设备,AI就可以立马根据大数据复刻她的人生。
更何况,AI换脸成人视频的犯罪成本太低了。
只要一张正面的照片、成熟的软件就可以完成一个逼真的视频。
随着技术的不断更新,现在甚至连声音都可以伪造。
电影《保你平安》中,有这样一句台词:当你说一个女人是小姐的时候,不管她是不是,她都已经是了。
过去,仅仅是文字、语言上的造黄谣,就能给一名女性带来毁灭般的伤害。
如果再加上可以眼见为实的“证据”呢?
2022年,杭州警方就破获了一起涉黄AI换脸案。
在犯罪者的供述中,就提到了有不少人拿着自己暗恋女生的照片来制作换脸视频。
生活在互联网时代的我们,在微博、朋友圈、QQ空间中都留下过自己的照片与信息。
谁都不能保证,自己会不会就是下一个受害者呢?
3
除开一个个发生的具体案件本身,还有一个事情值得我们警惕。
那就是人们对待此事的态度。
这个事件中,加害者们一直是肆无忌惮的。
他们将这种行为看作是一种娱乐方式,只是为了有趣,开个玩笑而已。
随便说上无数个理由,来为自己的行为找借口。
被发现后,他们甚至还会变得更加兴奋。
因为比起视频中的假人,他们似乎更喜欢看当事人的真实反应。
就算真的被警察盯上,他们也会有恃无恐地叫嚣自己会卷土重来。
反而是那些受害者每日活得战战兢兢,再也不敢在网上公开任何自己的照片与信息。
当韩国 DeepFake事件彻底爆发后,大多数人的态度当然是愤怒与恐惧。
但也有不少人因为是“AI换脸”而不以为然。
甚至连一部分韩国警方也持有这样的态度。
有受害者在网上表示,当她去寻求警方帮助时就受到反问:
“既然不是你本人,那又有什么关系?”
在他们看来,这种没有在实体上造成侵害的行为,没必要大惊小怪。
这种态度就像《黑镜:圣诞特别篇》的男主。
他作为一名用摄像头远程操控他人的“恋爱导师”,因为偷窥被警方逮捕。
面对这项罪名,他辩解道:我只是为一些孤独的男人提供了一项服务。
但要知道,如同语言霸凌也是一种暴力,数字侵犯也是一种性凌辱。
还有人曾试图将这种暴行用作遮羞布。
之前在某女星私密视频泄露事件中,有人“好心”提议:不如将这个视频当作是AI换脸,这样就不会那么难受。
说出这种话的人,显然没有意识到事情的严重性。
且先不说,身为受害者为什么要主动粉饰自己遭受的伤害。
就单说AI换脸本身,有谁能保证当这种事情形成规模后,会不会滋生实质的侵害?反正在这次韩国事件中,不少加害者们直接公开了受害者的真实身份、家庭住址。
如果这些信息真的被那些心怀不轨的人拿到,后果不堪设想。
再进一步说。
如果有人在实施真实侵害后,反过来利用这种理由掩盖自己的罪行。那到时候会发生怎样的事情,鱼叔甚至连想都不敢想。
本文来自微信公众号:独立鱼电影,作者:鱼叔