扫码打开虎嗅APP
本文来自微信公众号: 非凡油条 ,作者:豆腐乳儿
今年春晚,AI也没少做广告,如今AI已经深入我们的生活了。
春节前后也是AI产品扎堆发布的时候,大家用AI新产品,发现AI视频生成可太厉害了,换个脸分分钟。
这就有可能出问题,近年来AI换脸危害已经很大了。
有些人要么出于恶意,要么为了牟利,用AI合成色情照片、视频,对他人身心造成严重伤害,连带着不小的财产损失。
比如去年广州国际车展后,网上很快流传一段视频,视频里的某品牌汽车前,一位绿裙女子做出低俗不雅的动作。
这样的不雅视频流传开,会让该车企和低俗挂钩,品牌损失惨重。
于是车企迅速辟谣该视频为“AI技术生成”,强调“从未邀请模特及演艺人员”,还报了警。
有法务部就是不一样,证据收集、辟谣、报警一气呵成,迅速查到了制作视频的人并且行政拘留了。
但普通人没有法务部,面对类似问题就非常棘手,尤其是现在AI换脸已经非常成熟,甚至能低成本批量生成不雅图片或视频。
以前没有AI生成图片或视频,光靠人工PS或者合成视频需要很高的技术水平,较长时间,修改痕迹也很重。
AI生成图片或视频刚出现的时候,也不太好用,需要多达50张多角度、高清晰度的照片,才能实现较为自然的视频合成,但技术门槛已经大大降低,合成速度也加快了。
如今AI技术进一步发展,只需要20张左右的照片就可以实现AI换脸,很多人在公共平台上的露脸照片可不止20张,这就让AI换脸门槛进一步降低。
自己不会换也不要紧,花个十几块钱就能定制一部换脸视频。
普通人面临的,就有可能是多次低成本AI换脸造谣——十几块钱,就能让任何人“有视频有真相“地泼上乱搞的脏水。
更严重的是,AI换脸造黄谣还会被用在诈骗上。
如今骗子找到一个人二十多张照片非常容易,拿这些照片,用AI换脸生成一段黄色视频,发给受害者。
受害者惊疑不定时,骗子就会威胁,不给钱就群发出去,让受害者丢脸,受害者会害怕视频传播,向骗子转账。
转账一次,骗子不会满足,也不会删除视频,反而过段时间接着敲诈受害者,美其名曰“删除费”、“手续费”。
与出于恶意污名化女性的AI造黄谣不同,这种合成AI黄片往往敲诈的是中老年男性。
中老年男性往往好面子,不熟悉新技术,又有钱,就容易被骗子用AI黄谣敲诈。
我相信我们的读者朋友们洁身自爱,遇到这种造黄谣,不管是不是AI合成的,都不会恐慌,只要自己清白,就知道这些视频都是假的。
不恐慌,就不会点击骗子给出的链接,不加骗子好友,也不会转账,而是第一时间报警。
春节期间,大家也要注意节前骗子冲业绩,说不定会用AI合成黄色视频反复轰炸你的手机。
大家可千万别上当。
“AI生成车展不雅视频”事件的背后https://mp.weixin.qq.com/s/QGVsPI74pDTtW_aA7U2tew?scene=1&click_id=1
不敢告诉子女!常州一六旬男子,突然收到自己的“不雅照”https://mp.weixin.qq.com/s/0Tsj3kySsaNRxOwlsb55kQ
阜阳有人收到合成不雅视频勒索短信!此类情况需警惕!https://mp.weixin.qq.com/s/5RPixUy4kn4mikambFIM8A
警惕!女性面容被恶意嫁接色情视频,几元就能“定制”https://mp.weixin.qq.com/s/6qsm9kx5Z0ZYd0zjatjSgA