正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2024-10-25 13:25

“AI马斯克”,是互联网上最大的骗子

本文来自微信公众号:果壳 (ID:Guokr42),作者:深思,编辑:Luna,题图来自:AI生成


马斯克、特斯拉汽车和“马斯克”,正在转移他们的比特币。


嗯?你问我是不是说了两遍马斯克?


据链上情报交易平台Arkham披露,特斯拉最近悄悄地把价值7.65亿美元的比特币,移到了另一个钱包中。由于特斯拉拒绝作出评论、且昨日公布的Q3财报中并未显示他们卖出了这笔比特币,没有人知道马斯克到底在计划什么。


不过,我们知道另一个“马斯克”为什么要转移甚至卖掉比特币:这是从粉丝手里骗来的钱。


故事要从10月11日的Robotaxi发布会说起。


“分身”的伊隆·马斯克


马斯克要发布自动驾驶出租车Robotaxi的时候,出了个大乐子。


他没能准时现身发布会,迟到了整整一小时,理由是紧急医疗事故。但与此同时,超过22万名网友又亲眼看见伊隆·马斯克正在直播间推销虚拟货币。


这是什么情况?分身术?



正在推销虚拟币的假“马斯克”丨Youtube


困惑的观众们纷纷涌入直播间。这里的收看人数一度高达官方账号的2倍,点赞也突破了2万。


如此多的观众,希望没有人上当受骗 丨YouTube


直播中,“马斯克”正侃侃而谈——“给我1个虚拟币,我就还给你2个!数量有限,先到先得!快来扫码!”


诈骗犯甚至做了一个假网站,方便转账。别信,别信!


不是自动驾驶出租车的发布会吗?这……怎么听着不对劲啊?很快有人反应过来:这是诈骗团伙用AI生成的!大家不要上当!


因为,这个马斯克讲话不结巴!


不知道马斯克对此作何感想丨reddit


“完美”AI,造就一流诈骗犯


说来讽刺:骗局被识破,并非因为AI视频一眼假;恰恰相反,是因为如今的深度伪造技术(Deepfake)太“完美”了。


众所周知,马斯克的演讲向来磕磕巴巴。在Deepfake虽然能精准模仿马斯克的南非口音,甚至学习到挑眉毛的细微习惯,马斯克却完全没有口吃或卡顿,这不符合他的风格。


人类的不完美,变成了区别于AI的界限。



假直播中的这个人,也会向观众挑眉丨Tesla


这不是马斯克第一次被AI克隆了。


监控和检测Deepfake的公司Sensity,曾调查了2000多起骗局,其中近四分之一的主角都是伊隆·马斯克。如果把诈骗范围缩小到虚拟货币相关时,这个比例会骤升至90%。


这事儿可能还真得怪马斯克自己:他太爱虚拟货币了。


2021年初,特斯拉曾大笔购入价值1500万美元的比特币,还放出风说要允许大家用比特币来买车。后来大家发现挖矿这事儿过于耗电耗水、污染环境,才悄悄取消了这个付款渠道。马斯克他在虚拟货币领域的号召力让骗子一拍脑门:机会来了!


他的一条推特就让Floki币涨了近10倍丨X


香港证监会曾披露过“Quantum AI”如何专精诈骗虚拟资产。他们会先锁定关注了科技名人或金融大腕的用户,以及那些积极关注虚拟货币的人。这些行为并不违法,而且相当高效,靠广告投放工具就能实现。


正有问题的是下一步:精准投放广告后,他们再假扮成记者,和AI生成的名人互动;用机器人观众营造出热闹的假象,再通过“双倍回报”的承诺,一步步诱骗受害者完成转账,展示虚假的存款页面,鼓励他们投入更多的钱——直到受害者发现自己一毛钱也提取不出来。


除了马斯克,沃伦巴菲特(Warren Buffett)、亚马逊创始人杰夫·贝索斯(Jeff Bezos)、美国前总统唐纳德·特朗普(Donald J.Trump)和著名歌手泰勒·斯威夫特(Taylor Swift)也是深度伪造的“常客”。


这类骗局就像是外国版的“我是秦始皇,打钱”,但确实有人因此上当:根据英国的国民威斯敏斯特银行(National Westminster Bank Plc)的记录,曾有骗子用杰夫贝索斯的伪造照片宣称亚马逊要构建全新的虚拟货币投资平台,狂揽158873英镑后溜之大吉。


根据受害者的描述,这些伪造的视频和照片实在太真了,他们很难不信。麦克菲安全公司的测试表明,只需3秒的音频就足以生成与原始语音匹配度为85%的克隆。名人抛头露面的机会更多,可用于AI学习的素材也就越多,伪造也就越逼真。


不仅如此,诈骗的成本还在逐渐降低。


2024年初,新罕布什尔州的许多选民收到了自动语音电话,拜登亲自打电话告诉他们“不要投票”。而这音频是由新奥尔良州的一位魔术师花了20分钟制作的,成本只需1美元,而他因此挣了150美元


伪造视频的价格会稍高一些,每分钟价格从300美元到20000美元不等,价格越高越难被识破,AI马斯克通常是价格比较高的那一档,毕竟假名人也得质量够高,才能不被识破。


SpaceX的星舰回收也有假直播丨TREND


根据德勤会计事务所的统计,深度伪造视频每年会造成数十亿美元的诈骗损失。Raisin的报告表明,在2024年的前三个月,AI诈骗已经从英国人的口袋里掏走了10亿英镑。这或许是因为谣言传播得太快了:根据2018年发表在Science上的一篇论文,Twitter(现在的X)上处于前1%热度的谣言能传播给1万至10万人,新闻事实却很少传播到1000人以上。


我们还有别的办法识破骗局吗?毕竟,不是每位CEO都有马斯克的口吃这项“独门绝技”。


用魔法打败魔法


能又快又准识别出深度伪造视频的,还得是AI。


不少公司已经做出了检测工具,例如英特尔的FakeCatcher、微软的Video Al Authenticator,也有面向政府场景的Sentinel(哨兵)检测。它们通常是提供给X、脸书或者油管这类大平台使用的,上手门槛有点高。


一些深度伪造检测程序丨VLink


要确认日常生活中的视频是否由AI生成,我们可以挑选简单一些的工具。例如CloudSEK、Attestiv和Deepware。


它们的使用方法都差不多:只需要把直播或视频的链接复制粘贴上去,或者直接将本地的视频文件上传,再敲下回车键,就能在一两分钟内判断出它是不是AI视频。


CloudSEK检测的视频需要短于5分钟,Attestiv则会限制每个用户的免费检测数量。它们都能给出一定的总结,解释视频被认为是AI生成的原因,而Deepware专注于AI生成的人脸检测,可以扫描最多10分钟时长的视频,不需要登录,页面也最为简单。


一眼识破AI伪造的摩根·弗里曼。界面依次为Attestiv、CloudSEK、Deepware


对于照片,可以试试Optic的AI or Not工具、Maybe's AI Art Detector以及HIVE MODERATION。第一个工具只会给出是或否的结果,不过除了图片,它还可以检测音频。第二个工具则能告诉你这张图片有多大概率是由AI制作的。第三个工具可以进一步告诉你,这张图最可能是由哪个AI模型跑出来的。


一拖一拽,操作简单。界面依次为Optic、Maybe's AI Art Detector、HIVE MODERATION


这些伪造作品是怎么检测出来的呢?通常有两种思路,第一种是先搜集一大堆深度伪造的视频和图片,然后从中找出AI人物共性:抖动的牙齿、跳舞的墙面、抽搐的头发,小到不自然跳动的像素……将这些整理起来,做成“黑名单”,如果视频有大量此类特征,那就得对真实性打个大大的问号了。


第二种方法则关注“伪造”这个行为本身:既然把人脸“缝合”到视频中,那只要抓住“缝合线”和人脸的特点,就能迅速找到伪造痕迹了。


当然,还有一些令人意想不到的解决方案:英特尔的工程师们想到,心脏每次泵血都会改变血管的颜色,虽然肉眼识别不出来,但只要好好训练AI,就能从画面里提取出心率。而深度伪造的人脸,心率数据自然是一团糟。


国内也有了面向深度伪造的检测工具,例如中科院自动化所的团队VisionRush在GitHub上发布的Deepfake defenders。这个项目是全球Deepfake攻防挑战赛的第三名,通过检测微小的像素变化来识别伪造视频。如果读者有足够多的深度伪造数据,恰好还擅长AI的训练和调参,可以自行安装试一试。至于在线检测,国内的大部分平台还需要申请试用,或者只提供AI,对个人用户来说没有那么方便。


回过头来看,人类社会仿佛变成了一场大型的GAN(生成对抗神经网络)。我们造出伪造的AI,又造出了检测伪造的AI。我们希望生成的虚拟图像越来越逼真,又不希望自己被虚假所欺骗,直到两种AI都远远超出人类的能力极限。或许,人类才是被AI训练的那一方?


不论如何,当你下次怀疑自己看见假的马斯克、马云或者马化腾时,记得用AI来对抗AI。


参考文献

[1]https://www.nytimes.com/interactive/2024/08/14/technology/elon-musk-ai-deepfake-scam.html#

[2]https://www.yahoo.com/news/orleans-magician-says-democratic-operative-120008911.html

[3]https://www.theguardian.com/technology/article/2024/aug/24/trump-taylor-swift-deepfakes-ai

[4]https://finance.yahoo.com/news/fake-musk-bezos-crypto-ads-123317721.html

[5]Vosoughi S,Roy D,Aral S.The spread of true and false news online[J].science,2018,359(6380):1146-1151.

[6]Birrer A,Just N.What we know and don’t know about deepfakes:An investigation into the state of the research and regulatory landscape[J].new media&society,2024:14614448241253138.

[7]周文柏,张卫明,俞能海,等.人脸视频深度伪造与防御技术综述[J].信号处理,2021,37(12):18.

[8]https://www.security.org/resources/deepfake-statistics/#citations

[9]https://moneyweek.com/personal-finance/ai-scams-to-be-aware-of

[10]https://www.unite.ai/best-deepfake-detector-tools-and-techniques/

[11]https://video.attestiv.com/dashboard/video

[12]https://www.aiornot.com/dashboard/home

[13]https://huggingface.co/spaces/umm-maybe/AI-image-detector


本文来自微信公众号:果壳 (ID:Guokr42),作者:深思,编辑:Luna

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: