正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2024-09-06 10:03

N号房2.0,终于爆了

本文来自微信公众号:独立鱼电影,作者:鱼叔,头图来自:《网络炼狱:揭发N号房》

文章摘要
AI换脸技术引发大规模性丑闻,受害者扩大至普通人及未成年人。

• 😱 AI换脸技术引发大规模性丑闻,受害者达22万人

• 👩‍🎓 韩国警方和媒体关注不足,受害者转向网络求助

• 🚨 加害者肆无忌惮,普通人难以维权,造成严重社会影响

前段时间,微博上一封求救信引起了人们的注意。


一个IP显示为韩国,名叫nosunae_520的账号,称自己深受DeepFake(深度伪造)的侵害。



DeepFake是这些年十分流行的AI伪造技术。


我们经常在网上看到的将明星AI换脸,运用的就是这样的技术。


而这个女孩遭遇的,是自己的脸出现在成人视频当中。


并且,她在博文中写道:


现在韩国的情况太严重了,无法预测有多少女性因DeepFake而受害。



随着此事热度的不断上涨,人们惊恐地发现,一件可怕的AI换脸性丑闻正在发生。


这个事件时间跨度之长,涉及范围之广也已经远超人们的想象,被称为“N号房2.0”。



更要命的是,当你了解整个事件之后就会发现,下一个被换脸的人可能就会是自己。


如此可怕的事实,简直让人不寒而栗。


1


也许很多人没有意识到,别有用心的AI换脸有多么可怕。


高分英剧《真相捕捉》曾展现了DeepFake的可怕之处。


一个英国军人被控告殴打并绑架了一名女性,证据是一段街道上的监控录像。


可经过调查却发现,这个视频是那名女性受害者用DeepFake制作的。


如果调查不够仔细,一个无辜之人就很可能被投入牢狱之中。



将这种转白为黑的手段运用在性犯罪事件中,其带来的后果简直无法想象。


nosunae_520并不是唯一一个在微博发出求救的人。


就在她发声的两天后,另一个IP为韩国的微博账号也写下了相同的内容。



中国也不是她求救的第一个海外国家。


全球各类社交平台上,她们都发表过相似的文字。


之所以要在海外求助,因为在韩国国内,这件事情并没有得到应有关注。


实际上,早在今年5月,韩国就发生过一起被称为“N号房2.0”的案件。


几名首尔大学的校友,在过去三年间,利用DeepFake将女性的头像植入成人视频中。


之后再在名为“电报”的加密软件上组建群组,进行传播获利。



进入这个群组的条件,就是拿出身边的5个女性熟人的换脸视频。


成功进入群组后,成员们就可以免费使用群里的制作软件,然后开始制作收费视频再向外输出。


如此一来,就完成了一套自产自销且传播速度很快的产业链。


这些加害者,往往会从自己身边的人下手。


同学、老师、同事,甚至是自己的母亲、姐妹都是他们的目标。


他们甚至还恶劣地根据受害者的身份,将私密群聊分为“妈妈房”“姐妹房”“护士房”……


更令人气愤的是,当被发现后,他们还嚣张地直接威胁受害者。


而受害者报警后,警方只是说“会调查”然后不了了之。


法律途径走不通,受害者便转向网络求助。


可她们收到的,却是删帖禁言和更过分的言语羞辱。



忍无可忍的受害者们找到了当初卧底调查N号房的“追踪团·火花”的成员。


这个名叫恩智(音译)的成员再次化身卧底,一举曝光了这个团伙,也将一组可怕的数据公之于众:


仅一名加害者,就在3年时间里针对包括未成年人在内的48名受害者制作了约400个视频,并传播了约1700个视频。



本以为,这次事件的爆发能够结束这样恶劣的事情。


没想到,反而愈演愈烈。


8月,韩国一名初三男生了解到,自己学校依旧有DeepFake成人视频受害者。


于是他建立了一个“受害者学校地图”的网站。


结果,短短的2天内,这个网站中就有超过200所学校被标记。



这些学校不仅有大学,还包含了大量中学与小学。


但是韩国警方与媒体并没有给出过多的关注。


他们的理由,一是软件IP地址在国外难以追查,二是“不方便公开加害者信息”难以立案。


直到数字井喷式的增长,再加上大量韩国女性在外网求助,才引起政府重视。



调查数据显示,AI换脸成人视频的受害者数量已经达到22万人,而韩国去年一整年的出生人口是23万人。


在所有受害者中,青少年的占比高达73.6%。


而大部分的加害者,也是未成年人。



2


近年来,用AI换脸对女性造黄谣,愈来愈频繁。


2017年,就有人将女星盖尔·加朵的脸嫁接在一个成人电影女演员的身上。


在“DeepFake Maker”网站上,截至目前已经有4000多位名人被AI换脸为成人视频的主角。


其中包括了斯嘉丽·约翰逊、娜塔莉·波特曼、泰勒·斯威夫特等欧美女星。


还有一众韩国女爱豆。


近日,韩国四大娱乐公司之一的JYP公司,还专门针对旗下女艺人被恶意AI换脸发布了官方通告,称要诉诸强制法律手段。



2021年,一位台湾知名网红被曝出,用AI换脸技术将许多台湾艺人变成成人影片的女主角后贩卖盈利。


其中就包含蔡依林、陈意涵等知名艺人。


内娱也有大批受害者。


杨幂、迪丽热巴、赵丽颖也多次被人发现成为AI换脸的对象。


而这一次的事件,无论是受害规模还是技术精度,都大幅提升。


早些年,那些粗糙的换脸视频,大家基本上都能一眼辨真假。


但现下越来越精进的技术,普通人已经难以用肉眼分辨。


日剧《相棒》有一集,就将话题对准了DeepFake技术的以假乱真。


一名国防技术顾问在家中卧室被杀害。现场的电脑中有一段他与一名女性的“性爱录像”。


而这位女性在面对警察的调查时,坚称自己从未与被害者发生过关系,并能够给出完美的不在场证明。


但她依旧无法证明,视频中的女性不是自己。


因为一切都太真了。


直到后面凶手自己承认,警方才知道这是一段用DeepFake制作的视频。


不仅如此,此次事件的受害者基本上都是普通人。


以前,如果是明星受到侵害,还能借助公众影响力和经纪公司的力量为自己维权。


相反,普通人就很难拥有这样的资源。


而且,随着社交网络的发展,个人信息很容易就能被他人获取,更不用说图片这样最唾手可得的材料。


想想《黑镜》第六季中的一集。


女主只要使用了智能手机等联网设备,AI就可以立马根据大数据复刻她的人生。



更何况,AI换脸成人视频的犯罪成本太低了。


只要一张正面的照片、成熟的软件就可以完成一个逼真的视频。


随着技术的不断更新,现在甚至连声音都可以伪造。


电影《保你平安》中,有这样一句台词:当你说一个女人是小姐的时候,不管她是不是,她都已经是了。


过去,仅仅是文字、语言上的造黄谣,就能给一名女性带来毁灭般的伤害。


如果再加上可以眼见为实的“证据”呢?


2022年,杭州警方就破获了一起涉黄AI换脸案。


在犯罪者的供述中,就提到了有不少人拿着自己暗恋女生的照片来制作换脸视频。



生活在互联网时代的我们,在微博、朋友圈、QQ空间中都留下过自己的照片与信息。


谁都不能保证,自己会不会就是下一个受害者呢?


3


除开一个个发生的具体案件本身,还有一个事情值得我们警惕。


那就是人们对待此事的态度。


这个事件中,加害者们一直是肆无忌惮的。


他们将这种行为看作是一种娱乐方式,只是为了有趣,开个玩笑而已。


随便说上无数个理由,来为自己的行为找借口。


被发现后,他们甚至还会变得更加兴奋。


因为比起视频中的假人,他们似乎更喜欢看当事人的真实反应。


就算真的被警察盯上,他们也会有恃无恐地叫嚣自己会卷土重来。


反而是那些受害者每日活得战战兢兢,再也不敢在网上公开任何自己的照片与信息。



当韩国 DeepFake事件彻底爆发后,大多数人的态度当然是愤怒与恐惧。


但也有不少人因为是“AI换脸”而不以为然。


甚至连一部分韩国警方也持有这样的态度。


有受害者在网上表示,当她去寻求警方帮助时就受到反问:


“既然不是你本人,那又有什么关系?”


在他们看来,这种没有在实体上造成侵害的行为,没必要大惊小怪。


这种态度就像《黑镜:圣诞特别篇》的男主。


他作为一名用摄像头远程操控他人的“恋爱导师”,因为偷窥被警方逮捕。


面对这项罪名,他辩解道:我只是为一些孤独的男人提供了一项服务。


但要知道,如同语言霸凌也是一种暴力,数字侵犯也是一种性凌辱。


还有人曾试图将这种暴行用作遮羞布。


之前在某女星私密视频泄露事件中,有人“好心”提议:不如将这个视频当作是AI换脸,这样就不会那么难受。


说出这种话的人,显然没有意识到事情的严重性。


且先不说,身为受害者为什么要主动粉饰自己遭受的伤害。


就单说AI换脸本身,有谁能保证当这种事情形成规模后,会不会滋生实质的侵害?反正在这次韩国事件中,不少加害者们直接公开了受害者的真实身份、家庭住址。


如果这些信息真的被那些心怀不轨的人拿到,后果不堪设想。



再进一步说。


如果有人在实施真实侵害后,反过来利用这种理由掩盖自己的罪行。那到时候会发生怎样的事情,鱼叔甚至连想都不敢想。



本文来自微信公众号:独立鱼电影,作者:鱼叔

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: