正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2018-04-14 18:11
Facebook秘密文件泄露:赚钱和背锅是AI的使命

虎嗅注:本文转载自微信公众号“量子位”(ID:QbitAI),作者:夏乙、李杉,发自 凹非寺。


国会听证大戏刚刚落幕,一份机密文件的曝光,又把Facebook推到了聚光灯下:这家公司利用AI赚钱,有很特别的方式。当然,美国民众听闻之后,又是一阵紧脏(紧张)


赚钱利器


美国媒体The Intercept最新获取了一份Facebook机密文件,其中透露了Facebook提供给广告主的一项贴心服务:忠诚度预测。


这是一项基于人工智能的服务。所谓忠诚度预测,简单来说就是一句话:预测用户的未来行为,作为广告投放的依据。


在别的平台,广告主能根据用户现状来精准投放广告,而在Facebook,广告主依据的,可能是用户还没做出的决定。


通过预测自己的20亿用户接下来面临什么选择,Facebook做到了“比你更懂你”,帮广告主“提升了营销效率”。比如说,有了忠诚度预测服务,Facebook完全可以说:亲爱的苹果,亲爱的三星、LG、华为,我们的AI能预测出几百万iOS用户有心转投Android,你们要不要精准投放一下?


你接下来做出什么决定,就在平台和广告主一念之间。相比之下,购物车里放个高达就再送上一大波手办的淘宝,根据搜索词来分发广告的Google百度,都太简陋了。


因为Facebook所掌握的数据,详细周全到任何一家同行都望尘莫及。


Facebook如何用AI来精准投放广告。The Inception整理


从文件中可以看出,Facebook“忠诚度预测”依靠的数据有:用户位置、设备信息、所连接Wi-Fi网络的情况、看了什么视频、亲朋好友的各种细节……


甚至你和朋友聊天的内容,也是广告投放的指路明灯。参议员Bill Nelson就遇到了:“昨天我在Facebook上跟朋友聊天时,提到喜欢某种吃巧克力,接着突然我开始收到各种巧克力的广告。”

这位参议员遇到的,只是Facebook广告服务的冰山一小角。


这就好像,你的一切,早已经被Facebook的AI看光光。这就是上面提到的,AI比你更懂你。


这个技能,如果被“泛化”……应用在其他方面,或者被其他人所利用的话,想想还真是有点怕怕。这也难怪美国人民又有点炸锅。


Facebook说,为保护用户隐私,所有数据都聚合的、匿名的。当然,Facebook也不卖数据,他们出售,或者说出租的,是通过自己分析数据而实现的“预测”能力。


剑桥分析获取的那点三手数据,都能用来实现千人千面推送政治广告,手握20亿用户全方位信息的Facebook,要决定你下一部手机来自谁家只会更容易。


面对质疑,Facebook想扯上同行们。这家公司在回应中表示:和很多其他广告平台一样,Facebook用机器学习技术,来向正确的人展示正确的广告。我们并不宣称知道人们所思所感,也不会将用户个人信息分享给广告主。


挡箭牌&背锅侠


你以为AI只能用来赚钱?拿衣服(Naive)


Facebook最近还为AI开辟了又一大新功能:背锅。


国会山10小时,人工智能戏份不少。小扎反复提起,似乎十分依赖,甚至寄予厚望。但深究起来,它一直是个挡箭牌和背锅侠。


减少仇恨言论?AI能搞定。恐怖主义招募信息?AI能搞定。虚假帐号?还是AI。罗斯干涉大选?AI。种族歧视广告?AI。安全问题?AI。那这个问题怎么解决?靠AI吧。问题为什么还没解决?AI还不够好。


在内容审查问题上,Facebook的AI就一直在尝试,从未被认可。


小扎在听证会上反复提到,Facebook的检测系统在没有任何人添加标签的情况下就自动删除了99%的“恐怖主义内容”。2017年,Facebook宣布“尝试”用人工智能来探测“可能支持恐怖主义”的言论。


99%的“恐怖主义内容”,很可能是以图片和视频形式为主。经过训练的机器学习算法,现在识别图像的准确率在特定的数据集上甚至早已超越人类,各家公司也都投入了大规模的使用。


但是,更多的内容是以文字形态出现的。


但是,AI理解自然语言的能力甚至还达不到幼儿园水平。人类语言的一些细微差别,人工智能识别起来表现堪忧,让它来分辨真假新闻也是强AI所难。


小扎自己也承认,Facebook用来识别仇恨言论的AI,现在错误率实在是太高了。想要依靠AI审核内容,可能“还需要5~10年”。


到今年年底,Facebook打算雇2万人来做安全和内容审查。



这种反复用“人工智能”做辩护的行为,也遭到了媒体的批评。


人工智能这个词太宽泛了,想要确切地定义它,写进教材就是整整一章。它包含各种自动化、机器学习等等。The Verge发表的一篇文章说,“人工智能”这个词,让小扎在一群外行人面前找到了一种托词,毕竟他们没有能力展开深入提问。


欺负我们不懂技术?有一位议员做出了反击。


加里·彼得斯(Gary Peters)追问了一个关于人工智能透明度的问题:“你知道,人工智能并非没有风险,你必须对这种算法的构建方式保持极高的透明度。”


是的,你的挡箭牌:人工智能,它本身就很有问题。


扎克伯格承认这个问题非常重要,他还表示,Facebook有一整个人工智能伦理团队来解决这个问题。只不过,就算不说人工智能,Facebook以及它的同行们,对“透明度”的理解也只是基本等同于“模糊地写在用户协议里”。这似乎并不能解决什么问题。


至于Facebook这一轮道歉的核心——数据泄露并被Cambridge Analytica滥用的问题,人工智能也帮不上什么忙。


而在真的需要人工智能的时候,它虽然有着巨大潜力,却也会因为使用了有问题的数据集而带上偏见。倾向于将黑人认作罪犯、认为女性和科学工作不搭等等问题,在人工智能的应用中层出不穷。


For Good


扎克伯格在听证会上说:Across the board, we have a responsibility to not just build tools, but to make sure those tools are used for good.”


打造工具,并确保这些工具用来做好事了。但愿小扎和他的同行们真的相信这句话,还能记住它。

最后发个彩蛋,小扎这次的国会听证,不少美国人看完之后,说扎克伯格是机器人……然后就有人出来恶搞了不少视频。


这是其中一段。


说着说着短路了……



修吧修吧,修好了……


本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文

别打CALL,打钱

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: