正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
原创
2024-04-29 17:09

谁能找到越南女首富失落的2亿黄金?

出品 | 虎嗅青年文化组

作者 | 木子童

编辑、制图丨渣渣郡


本文首发于虎嗅年轻内容公众号“那個NG”(ID:huxiu4youth)。在这里,我们呈现当下年轻人的面貌、故事和态度。

文章摘要
文章揭示了越南女首富张美兰被判死刑后所传的假新闻,以及AI深伪技术带来的虚假信息焦虑。

• 💰 揭露了张美兰被判死刑后所传的假新闻

• 🤖 探讨了AI深伪技术带来的虚假信息焦虑

• 🕵️ 强调了媒体素养对于区分真假信息的重要性

“我将价值2亿人民币的黄金藏在了某海域,想要我的宝藏吗?想要的话可以全部都给你!”

 

日前被判死刑的越南女首富张美兰,一句话让《海贼王》走进现实。根据一段网络疯传的庭审视频,她承认将巨量财产藏在了海上。


 

此言一出,仿佛一针肾上腺素戳进动脉,春天里昏昏欲睡的越南人民一下子精神起来,就连中国沿海网友,也准备拜拜妈祖扬帆起航了。


 




张美兰何许人也?

 

华裔女商人、房地产大亨、亿万富豪。因为涉嫌越南史上最大金融诈骗案,不久前被判死刑,并处673万亿越南盾罚金。

 

即便以当地极端膨胀的货币面额来计算,673万亿也是一笔超越感知极限的巨款,折合人民币约合1924亿元。

 

网传外泄的庭审视频中,审判委员会询问张美兰消失的巨额资金去向,张美兰镇定自若且略带挑衅地回答,所有钱都在海上:

 

“有人知道被告把钱藏在哪里吗?”

“还没有人知道。”

“因此,被告必须诚实地告知审判委员会,才能获得宽大处理。”

“是的是的,在海上,是的,没错,有六百七十三万亿盾......”

 


 


中文网络盛传的“两亿人民币”还是过于保守,真按源视频说法,找到这笔宝藏的话,那将真正“富可敌国”。

 

死刑、财宝、大海,张美兰大秘宝像极了《海贼王》的开篇。

 

坐拥无尽宝藏的海贼王罗杰临刑前公开喊话:“想要我的财宝吗?想要的话可以全部给你,去找吧!我把所有财宝都放在那里。”

 

《海贼王》世界由此开启千帆竞渡的“大海贼时代”。

 

 

庭审视频一出,张美兰俨然已经成了当代罗杰。“寻找张美兰宝藏”词条冲上越南热搜,此时点开TikTok,你会觉得所有越南朋友都已经冲进了大海。

 

有人开着自家渔船乘风远航,有人穿好潜水装备组团摸金,技术流大佬分析排查可能藏匿黄金的位置、经验流小哥向鱼群打听方向……

 

 

没钱出海的,批一筐火龙果,倒卖“恶魔果实”,有装备基础的,扣一顶草帽,开始cos路飞。

 

就连谷歌地图上也凭空冒出许多名为“张美兰宝藏”的地址,不过循迹而去,该地只会有一家再普通不过的小餐馆,店老板露出促狭的笑容。

 

 

不,等等,这事儿怎么越看越透着一股乐子人的气息?

 

没有错,正如你所感受到的违和感。张美兰大秘宝事件是一则彻头彻尾的假新闻。

 

张美兰辩护律师、庭审参与者等多方人士相继向媒体证明,庭审当日,张美兰没有说过任何“海上藏宝”相关的发言。

 

网络热传的庭审视频完全出自伪造,根据其流畅度来判断,很有可能是借助了AI深伪(deepfake)技术。

 

离谱的1924亿大宝藏,压根就没存在过。但平凡的生活实在太过无聊,一些人明知是假,一些人半信半疑,张美兰的宝藏就这么在吃瓜群众的半推半就下,迅速流行起来。传到中国,又演化出“2亿黄金”的本地适配版本。

 

AI深伪资讯又又又又又一次,如此轻易地骗到了我们。

 

熟练掌握AI生图,人手一块金砖

 

一年前,AI技术大爆炸之际,我们对它的应用前景提出过很多反乌托邦焦虑,比如AI抢人饭碗、AI控制人类。一年后,它们统统还停留在遥远的预言阶段,唯独AI深伪资讯焦虑迅速落进现实。

 

当AI技术大幅降低资讯造假成本,每个人都能随手生成逼真的新闻图片、视频,AI深伪信息极速激增,“深伪”已经不再是未来想象中的一个遥远课题。

 

它正在迅速侵入现实、改变现实、成为现实,而我们大多数人,还远远没有做好准备。

 

 

AI深伪时代,“眼见为实”不复存在。

 

因为造假的成本无限降低。

 

几个月前,一座名为Almendralejo的小镇中,20多名初中女生突然发现同学正在传看她们的“裸照”。赤裸的陌生身体、本人的脸,毫无疑问,是AI深伪照片。

 

而嫌犯是她们的同学,几名同样年轻、普普通通的初中男孩。

 

几个青春期的毛头小子也能随手制造足以乱真的虚假信息,指向了AI深伪时代最恐怖的一点:“造假”从一门需要学习的手艺,沦落为人人皆可随意利用的工具。

 


 

不需要学习任何技术,只要拥有一台“NUCA相机”,就可以对任何人实现“一键脱衣”。

 

对准拍摄对象,咔嚓,十秒后,NUCA相机就会吐出一张专属“裸照”。这是艺术家Mathias Vef和Benedikt Groß创作的一个特殊装置。

 

成像原理非常简单,相机拍摄照片后,联网Stable Diffusion,请AI参照相片生成对应“裸照”。生成后的图片当然不是被拍摄者本人的身体,但乍看起来已经相当有说服力。

 

艺术家希望借此提醒人们,当下时代,生成一张侵犯隐私的虚假色情图片有多么轻而易举。

 


与低廉的造假成本相对的,是高昂的代价。维系一段良性关系需要几年甚至几十年的长久经营,而摧毁它,只需要一段几秒钟的AI深伪视频。

 

Netflix一档名为《情场深伪术》(deep fake love)的恋爱综艺中,一对相恋长达9年的亲密情侣也没扛AI深伪的考验。

 

节目组把情侣二人拆开,分别扔进热辣单身异性环绕的别墅,然后每隔一段时间,向他们展示一段对方的生活视频。

 

视频内容通常都很“过分”,有时伴侣在与单身异性调情、有时在讲对方坏话、甚至有时直接与单身异性滚上床单,展开热吻。其中有真有假,假货由AI深伪生成。

 

西班牙情侣Manuel和AIDA经过9年恋爱长跑,马上准备结婚,结果仅仅分开两天,Manuel就看到未婚妻在帅气单身汉面前沦陷:两人在泳池对视几秒,随后亲到了一起。

 

Manuel当场震惊离席,不敢相信自己的眼睛:“什么?这个女孩是谁?她是谁?她跟一个男人亲热!他们亲热了!”

 




尽管很快主持人告知,视频可能是AI深伪,Manuel还是久久无法释怀——视频实在是太逼真了。

 

阳光下毛糙的发丝、水珠滑过略显纹理的皮肤,肌肉柔软地伴随动作起伏,精心制作下,没有任何一处流露AI的痕迹。

 

实际情况是,AIDA尴尬微笑着避开了帅气单身汉的进攻,深伪视频中,她的动作被篡改为迎合了男人的热吻。

 

 

“深伪已经存在很长一段时间了,现在最大区别是它们变得越来越好。”

 

试想如果并非在电视节目中,而是在现实生活中看到这样一段视频,我们还能够对伴侣、朋友、合作伙伴坚守信任吗?

 

现实生活中,没有人会在最后揭晓正确答案。而深伪之所以可怕,正是因为怀疑的种子一旦种下,就会啜吸着不安自己生根发芽。

 

AI深伪不仅仅是恶作剧和性侮辱,甚至会妨碍国家的政治活动。

 

早在2018年,华盛顿大学研究团队就利用一段奥巴马讲话的深伪视频,预言了深伪技术出现在政治领域的恐怖。

 

视频中,深伪技术合成的奥巴马生动自然地说道:

 

“我们正在进入一个时代,我们的敌人可以让任何人在任何时间点说任何话——即使他们永远都不会说那些话。比如,他们可以让我说这样的话。”

 

 

在合适的时间,合适的地点,AI深伪只需要轻轻施加一点推力,就能达到四两拨千斤的效果。

 

去年斯洛伐克选举期间,进步党领导人Michal Šimečka便深受其害。投票前48小时,一段他联系记者讨论操纵选票的录音突然出现在社媒平台。

 

音频中,他用平淡呆板的声音嘲讽了自己的选民、还拿儿童色情制品开了个低级玩笑。

 

斯洛伐克内政部打击虚假信息部门负责人Daniel Milo表示这段录音假得不能再假了:“你绝对可以听出这不是一个真人——但这段录音却迅速传播开来。”

 

显然,这是一次洞悉人性与规则的精心策划。很快多家事实核查部门证实,录音系深伪制造。但根据斯洛伐克选举规则,在选举前这一关键时段,媒体和政界人士应该保持沉默,因此辟谣很难广泛传播。

 

 

AI深伪技术还远远谈不上完美,但已经足够说服那些想被说服的人。

 

倾向“相信”的动力始终积攒在暗处,只需要一个小小的凭依,就能自己滚动起来。

 

奥巴马深伪视频出现的同年,非洲国家加蓬的一次未遂政变便是绝佳证明。

 

时任总统阿里·邦戈·翁丁巴因在海外接受治疗而长期缺席国内公共生活,而且政府对于他的情况讳莫如深。一些人开始质疑他的身体状况,甚至怀疑他已经死亡。

 

疑云密布中,总统发表了一次视频新年致辞。本意是辟谣:看,我还活着!

 

 

结果事与愿违,他在视频中看起来古怪、僵硬,处处充满违和。于是反对派当即断定视频是伪造的,迅速发动政变——总统可能已经去世,是政府秘不发丧!

 

“那些顽固地掌握权力的人,再次利用总统,以保住一个已经失去身体和精神能力的病人。”

 

政变领导人奥比昂如此深信不疑地说道。

 

很不幸,视频并非伪造,总统确实还活着,而且精神状态尚可。政变迅速被挫败,策划者被或抓或杀。事后事实核查专家指出,看起来僵硬古怪,可能是总统注射肉毒杆菌并过度化妆所致。

 

这次深伪引发的政权颠覆未能成功,但下一次会如何,谁也说不准。

 

我们已经进入与AI深伪资讯深度共生的时代。身边的任何一个普通人都可能轻而易举地制造深伪信息。他们的初衷或许是恶意,也或许只是单纯的玩笑,但虚假信息一旦出现,流通就不再可控。

 

当空气中充满AI制造的怀疑气氛,公众人物甚至可以反而利用它作为逃避责任的途径。试想如果水门事件发生在今天,那么尼克松完全可以声称那段关键性录音证据是AI伪造的。

 

传播学者罗伯特·切斯尼形象地称之为,“说谎者的红利”。

 

前所未有的AI深伪焦虑让那个曾经遥远的问题,骤然变得现实而紧迫:

 

我们有办法控制AI深伪吗?在这样真假难辨的时代,普通人又该如何生存?

 

 

技术层面上来说,完全管制AI深伪就像试图管制盗版制品,很难。

 

最努力的,是提供流通渠道的各大社交平台。因为欧盟制定《数字服务法案》(DSA)规定,相关企业对有害内容、虚假信息等承担法律责任,一旦被认定违反,将面临最高达全球营业额6%的罚款。

 

为了不被罚钱,Meta、X、TikTok、YouTube都摆出了相当积极的姿态。

 

它们与高校合作,开发AI虚假信息识别工具,成立对策运营中心,并为识别可能AI生成的内容打上强制标签。深伪色情视频一经发现立刻删除,Reddit甚至直接关停了参与者超过9万的deepfake话题。

 

 

但看似靠谱的平台规则就像杜甫的房顶,处处漏风。

 

首先准确检测就是一项不可能完成的任务。正如Lusia Verdoliva所说:“你无法做出一个通用检测器——这太难了。”

 

她是深伪视频识别软件FaceForensics++的开发者之一,这款软件可以发现多数常用伪造软件露出的马脚,但并不能做到百分百的概率。

 

如同鉴宝人与赝品贩子之间的猫鼠较量,每当技术专家找到一种鉴伪秘诀,深伪制造者就迅速更新迭代。

 

与此同时,杀灭“深伪癌细胞”时,平台投鼠忌器,必须避免误伤真实信息,因此审查总是“高抬贵手”。

 

换句话说,未来的日子里,我们已经注定要与海量的深伪信息共存。

 

那么普通人会因为深伪丧失真假判断力吗?一个小测试,来试试你的成色。

 

以下6张图片,或为真实照片,或为AI深伪,你认为哪些是真?

 


答案公布:假真真假假真。

 

图片来自美国西北大学凯洛格管理学院制作的在线测试“deepfake,can you spot them?”。研究者试图通过收集真实人类数据,分析人类能否分辨AI深伪图片,以及判断依据。

 

另一项欧洲研究发现,人们报告,16岁-64岁人群中,58%的人认为他们经常与AI信息交互,但其中只有五分之一对识别AI生成内容表示很有信心。

 

另外每四个受访者就有一个表示,他们认为自己经常暴露在AI深伪信息之中。

 

研究者指出,实际数字可能比研究显示得更加糟糕,因为许多人在接触AI信息时,并未意识到该信息来自AI。

 

如何在AI时代辨别信息的真伪,俨然已经是一门新兴学科。

 

当媒体从广播电视的大众传媒转向网络世界时,人们开始谈论“网络时代的媒体素养”:如何正确地使用网络媒体、识别网络信息。

 

AI时代,又一次媒体革命,是时候谈论“AI时代的媒体素养”了。

 

MIT率先开办了网络公开课《深伪时代的媒体素养》,专门教导人们如何习得鉴别深伪信息的能力。

 


可以借助政府和公共机构提供的工具,比如Sensity的“深度伪造检测”平台、美国国防高级研究计划局(DARPA)的MdeiFor计划、Adobe的内容真实性计划、TinEye的图像识别软件,以及国际特赦组织的YouTube数据查看器。

 

或者更简单一些,寻找有信誉度的传统媒体,看看事实核查员和专业媒体人的判断。

 

“传统媒体有时确实传播错误信息,但它们依然是最可靠的信息来源。”

 

就像过马路的口诀,“一看二慢三通过”,点击分享前,先多一秒怀疑。

 

 

说起来多少有些讽刺,在这个阴谋论满天飞的时代,最稀缺的品质却是“怀疑”。

 

多项调查显示,“批判性思维”被认为是当今最稀缺的媒体素养技能。

 

欧洲音视频观察组织对欧盟成员国的547个媒体素养项目进行统计发现,批判性思维是最常被提及的技能。另一项调查指出,95%的人认为批判性思维在当今世界至关重要,但他们大多数(85%)认为公众缺乏这些技能。

 

在怀疑一切的同时,我们又总是轻信那些符合自己刻板价值观的内容——如果一段视频显示特朗普准备当众招妓,以表达对女性主义的不满,那么想必相信者众,毕竟特朗普在我们心中就能这么离谱。

 

说不清究竟是真的分辨不清,还是半推半就,深伪信息总是能在“看热闹不怕事儿大”的心态下广泛传播。

 

而此时,一个具有批判性思维的普通公民就无比珍贵了起来:他们将在谣言传播链中,扮演阻燃剂的角色。

 

真正可怕的其实从来不是AI深伪,而是深伪的病毒式传播。

 

 

太阳底下无新事,要说媒体革新带来信任焦虑,其实每一次媒体迭代时都曾发生过。

 

photoshop出现时,有了P图造假。

 

广播刚刚出现时,人们把广播里的外星人入侵故事信以为真。

 

这些新技术带来的信息信任危机,很快伴随司空见惯,不再引起焦虑。

 

现如今,每当出现明星“裸照”,很多人心里都会问上一句“是不是P的”?

 

当公众见识过越来越多AI深伪信息,今后每当出现过于反常的信息,同样一句话也将前置于所有反应:“这是不是AI?”

 

AI深伪技术确实值得焦虑,但也无需过虑。

 

如同自然生态系统,人类社会也在自我调节中不断适应着新的变化,新技术短时间打破的平衡,很快在社会的自我调节下恢复平稳。

 

说到底,AI深伪问题,错不在AI,也不在深伪。AI深伪如同过去每一种造假技术一样,不过是为选择提供了一种凭依。技术无罪,问题还是人的问题。

 

为什么人类热衷传播谣言?为什么千万年来谣言永不止息?

 

因为信息从来不只是信息,还是价值、偏见、姿态。

 

接收信息是被动而客观的,传播信息则是主观行为,从海量资讯中选择哪些来传播分享,往往只取决于个人的好恶:

 

一言以蔽之,你的分享就是你。

如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
文集:
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: