正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
原创
2019-11-04 11:36
中国人脸识别第一案,来的太晚了

作者:宇多田  封面来源:视觉中国


从一脸懵懂,到窃窃私语,再到公开讨伐,人脸识别引发的数据隐私问题,随着这项技术几年来的大规模下沉,最终到达了一个需要法律深度介入的十字路口。


与一个月前被骂上热搜的人脸识别独角兽旷视不同,今天再次登上微博热搜的“人脸识别”,不再是大家单纯过一把嘴瘾,而是因为有人真的付诸了法律行动。


一位大学教授,以“保护隐私”为由把一家使用了人脸识别认证系统的公园告上了法庭。



这桩被誉为“中国人脸识别第一案”的起因很简单:


一家杭州的动物园要把之前的指纹入园认证改为人脸识别认证,但这一改动惹怒了已经办理年卡的浙江理工大学特聘副教授郭兵。他给出的理由很充分——


凭什么你没征求我的意见,就默认我们都同意把面部信息提供给你?


“动物园强制要求游客必须进行人脸识别,我觉得这显然违法了《消费者权益保护法》,也不符合《网络安全法》,更不符合目前正在制定的《个人信息保护法》。”


公园的官方回复也很有意思,因为他们颇为疑惑,一谈到“人脸识别”大家都惊呼“我的隐私数据被盗了”,怎么指纹、电话和身份证信息大家都无动于衷呢?


“指纹也是信息啊,当时办卡缴费也要登记真实姓名,电话、家庭住址以及身份证信息,人脸识别只不过使用更方便而已。”


网友的表现也没有让人感到意外。


除了力挺教授,大家又把最近备受争议的校园安防监控项目与 BrainCo脑机接口头环引发的校园监控事件拉出来鞭尸n次。



事实上,当这项技术最终被写上一纸诉状时,我的心情是复杂的。


一方面,大众对隐私的重视和“较真”似乎有些姗姗来迟。


如果是在两年前,支付宝微信的人脸识别支付尚未推出,机场人脸识别闸机尚未引入,各大银行的APP和柜台机器尚未嵌入人脸识别功能,小区门口还没有架起人脸识别门禁,公司还没有换上人脸识别打卡机……那么或许我们还有说“不”的丁点儿可能性。


但是,在走进一家沙县小吃都可以用刷脸支付的当下,你所谓的“脸权”早已不再由自己掌控。


扪心自问一下,被人脸识别设备环绕,是不是至少有一次的面部信息是自己自愿认证的?


另一方面,现在之所以将枪口都对准了“人脸识别”,实为后者是当下新技术应用中的“出头鸟”。


很多人出口便是“脸和基因数据是不可更改的生物信息,是个人安全的最后防线”,听起来严重不已。但事实上,从目前来看,与人脸信息被盗用相比,手机APP通过你开启的麦克风权限“偷听”你的语音信息,电商网站上的消费信息被偷取、置换和销售会带来更为严重的后果。


后者更为普遍,甚至每时每刻都在发生,否则你以为很多音乐APP的个性化推荐会做的那么精准?有工程师曾向虎嗅透露,“这就是一个行规,没什么大不了的”。


2018年底,亚马逊音箱被爆出发生重大监听事故,正式拉开了“全球智能硬件窃听风云”长篇故事的大幕。当时一位德国用户向当地杂志爆料,在自己向亚马逊讨要自己的个人活动语音数据时,对方发给他了1700份陌生人对话的语音。


而国内一家智能音箱公司的工作人员曾透露,为了能够获得更多语音数据,智能音箱在一定时间内自动开启进行录音在业内已经不是什么新鲜事了。


譬如,曾有朋友半夜起床去厕所时发现,自己床头的某品牌智能音箱正处于唤醒录音状态。


但是,以上行为与技术本身有关系吗?


事实上,这些采集和存储数据的旁门左道,跟“人工智能”或“人脸识别”基本是两码事。


这是我们在为猪圈里的猪仔(人工智能)找“长膘秘籍”(数据)过程中犯下的错误,而非猪本身的错误。


因此,我们的矛头其实指偏了。


有人说密码被破解还可以换个密码,而人脸数据一旦泄露就无法更改。但身份证也是如此,一旦身份信息泄露,也同样改不了。


但与身份信息不同的是,身份证电话泄露可以被不法分子用来进行诈骗活动,而人脸数据泄露被直接利用的案例现在其实很少,很多人提到的“假视频制作”其实目前除了被用来恶搞,并无可以参考的真实犯罪案例。


据一位安全工程师向虎嗅透露,目前人脸数据泄露并没有产生大规模黑产,虽然已经有些已知的case,但整体来看,人脸识别数据直接导致的案例量级很小。


“其实隐私被侵犯,主要是指线上服务和交易系统中对敏感数据采集、存储、使用以及共享等环节出现的问题。这与人脸识别以及其他生物识别技术无关,属于应用系统问题。” 人脸识别技术供应商瑞为科技的CTO何一凡向虎嗅道出了本质。


他告诉虎嗅,除了精准度与防伪性更高,人脸识别跟指纹并没有本质区别,我们可以把它理解为一种升级版的钥匙。


“在没有跟其他‘信息’做关联的情况下,本身并不会带来太多危害,但是假如同时能获取这个人的身份证、电话、具体消费出行信息以及行为踪迹,那么危害就很直接了。”


举个例子,假如你家也安装了人脸识别锁或指纹锁,综合以上信息进行更大规模的数据搜集和分析后,“专业人士”其实可以轻松踏遍你家里的每一个角落。


对了,上面那个发现亚马逊音箱窃听内幕的用户也是这样顺着几段录音并配合在Facebook搜索信息找到语音文件中的几位“受害者”的。


请法律“上场”


如果说到这里,你还没明白我们到底应该在哪个环节去发现问题并解决问题,那么请就此打住,继续去做无脑的键盘侠。


在终于有人愿意用时间和金钱成本都极高的法律手段来维护自己的隐私权的当下,我相信这位教授站出来的终极目的不是为了要回那1000多块的卡费,而是用这起诉讼来引起法律界朋友们的重视。


没错,是时候倒逼政府出台相关法律并加强监管了。


在我们就这项“国内人脸识别第一案”联系到上海新闵律师事务所合伙人庄帆后,他试图用不同的法律维度对其进行分析,但其实每个维度单拎出来都不能完全诠释这起诉讼:


首先,从合同(法)角度来看,动物园在订立合同时,并没有要求郭先生进行面部扫描,也没有说必须要用人脸识别才能入园。


那么在合同执行过程中,动物园突然提出指纹识别无效,必须要用人脸识别入园的话,就是单方面变更履约条件。而如果郭先生不接受人脸识别入园,从而被禁止入园,那么动物园的行为就是违约。郭先生据此提出解除合约,则会得到法院的支持。


但是,动物园曾强调也提供其他入园方式,如果这种说法确实成立,那么订立合同的目的(郭先生要进动物园观赏动物)还是能够实现的,据此还达不到解约条件。


其次,从《消费者权益保护法》的角度来看,根据第二十九条规定:“经营者收集、使用消费者个人信息,应当遵循合法、正当、必要的原则,明示收集与使用信息的目的、方式和范围,并经消费者同意。”


因此我们应该假设,动物园如果说“你要购买年卡必须要录入指纹或者人像,否则我就不卖给你”,那么这种行为是否违法?


我们知道,动物园还存在一种人工校对的途径,可以比对持卡人的身份证信息或购买年卡时拍摄的照片,并不必然通过指纹或者脸部识别才能进园,只不过人工比对会降低效率,增大成本。


因此,动物园在客户未授权的情况下,根本无权要求客户录入指纹或面部图像。如果动物园出售年卡时必须要求用户录入指纹或人像,目的就存疑,我们完全可以拒绝,并且有理由去市场监督管理部门投诉。


综合来看,动物园之所以能够用指纹与人脸识别,不是动物园本身有这个权力,而是顾客为了一定的便利性,自己让渡了部分隐私权。


因此,动物园的行为,有违反消费者权益保护法第二十九条规定之嫌。


第三,从个人信息安全的角度去看,指纹与人像都能够直接与个体的身份建立联系。而与指纹相比,人眼的虹膜具有独特性,人的面部结构也能够被拍摄成图片后进行数据化编辑。


换句话说,指纹数据泄露虽然危害很大,但无法迅速且直接地与当事人构建联系;但如果人像信息被泄露,再加上动物园留存的其他身份信息也被盗取,则完全可以被他人利用建立起一个立体的身份信息库。


而动物园负责人的反驳中已经透露出公园目前留存有“指纹、电话以及地址”,这些隐私信息与人脸数据已经具备了建立一套立体身份信息库的可能性。


那么,你相信动物园有强大的信息保护系统吗?我是心存质疑的。


与此同时,试想一下哪家公司目前保存着包括你人脸、身份以及消费数据在内的所有隐私,你的人脸就会成为这些公司“帮”你开启潘多拉盒子的一把关键钥匙。


以上就是颁布《个人信息保护法》的重要性所在,这毋庸置疑将会成为用来保护我们人体生物信息最牢固的一块法律盾牌。但很遗憾,目前这项立法仍然在制定中。


不过,假如《个人信息保护法》一旦制定完成并通过,那么这可能也意味着,我们能够对所有并非以维护公共安全为目的的人脸识别应用说“不”。


信任技术还是信任公司?


我们必须承认一个残酷现实——发展人工智能,需要大量数据,而要想获得这些数据,必然会牺牲一部分隐私。


三四年前,大家都在关注人工智能底层技术的发展,这个矛盾尚处于蠢蠢欲动阶段,而在技术逐渐被大规模推广和使用过程中,如今矛盾已经在中国大众隐私意识觉醒的过程中被逐渐激化。


所以,我们是放弃发展这项技术而保护隐私?还是让出隐私来发展技术?


都不是。


我们要做的是在隐私与技术发展中间划一条线,需要集体讨论到底需要割让多少公众隐私,来达到一个整体的社会效益。


而画这条线的标准只有一个:如何在我们可以接受的隐私损失范围内,来获得更多好处。


譬如,如果有医学专家告诉一位癌症患者,医院需要他提供一部分个人身体数据来做更多分析以便更好控制病情,你认为他说“不”的几率会有多大?


实际上,我们在很多场景下并非不愿意把自己的一些数据“贡献”出来,而是我们担心,这些数据是否会被非法使用。


因此,解决“如何让数据不被非法使用”这个问题就好了。


目前很多人工智能公司正在采用与苹果2016年提出的一种隐私保护技术方法,用以来抵抗一种在黑客界很常见的攻击方法——差分攻击法。


也就是说,虽然你的身份信息通过数据脱敏等方式“隐”去了,但是我知道你的性别,知道你的其他一些指标,而外部一堆数据中如果也有与之相同的数据,那么我就有可能把你这个人给“撞”出来。


而这项对抗差分攻击的方案理解起来很简单,就是往这些数据里添加“噪声”,这本质上就是一种消除数据之间关联性的有效方式。就像上面所说,单维数据的单打独斗一般“成不了气候”。


然而,事情往往没有那么简单。


早在两年前,百度安全实验室就通过大量“渗透性测试”,也就是良性入侵的方式发现了包括人脸识别在内的多项生物识别技术其实都具备“易于伪造”的特质,甚至不如密码安全。


直到现在,受成本所限,市面上绝大部分人脸识别系统,特别是民用系统,其实都是基于2D的平面人脸图像进行识别,因此攻击起来早已不是什么难事。


你可以通过照片、视频,以及制作3D人脸模型等假体对人脸识别系统进行攻击。制作这些材料的成本可能只有几十块。


所以通常来说,只有把3D技术、人脸、指纹以及密码进行融合性使用,才能成为目前最可行的对抗攻击解决方案,但显然,大多数商业公司基于利益是不可能这么做的。



更有意思的是,即便有太多技术公司都在声称为保护用户的数据隐私使用了大量“独门技术秘笈”,但实际上我们始终无法对这些技术举措有一个直观且清晰的认识,更无法判断其成效究竟有几分。


甚至于从现实来看,他们对待数据的态度与自己口中的“愿景”是完全矛盾的。


譬如,有行业人士曾向虎嗅透露,许多人脸识别公司为了度过缺乏数据的冷启动期,除了在网上自己搜寻数据,还不得不去购买人脸数据,而中间商手里的人脸识别数据往往也是通过其他技术公司或数据标注公司几经倒手的获得的。


1个月前,北京青年报记者就曾在调查中发现有人在网络商城中公然售卖“人脸数据”,量级高达17万条。有意思的是,这些数据是完全被标注好的,除了人脸位置信息,还有性别、表情情绪、颜值等其他信息。


而这些照片对应的被拍摄者,很多都不知道自己的脸竟然被非法采集过;买家,则是一些做计算机视觉或做人脸模型训练的开发者。


这件事情让我想到了外国科技媒体Quarz曾针对波音737 Max8客机在今年发生的两起坠机事故提出的一个独特观点:


选择信任一项产品或者是服务,仅仅是取决于“我们是否可以相信这门技术”吗?还是在于“我们能否完全信任开发此类技术的公司和监管机构”?


就像这位教授所说的,如果是考虑到安防公共安全,人脸数据被使用还尚可进一步讨论,那么医院、商场超市、学校以及各种商业场所,值得我们足够信任吗?


历史告诉我们,一旦一项技术变得无处不在,即使安全问题还没有得到充分解决,人们也开始学着去接受它。


而这意味着,我们需要去更多关注“开发和部署人脸识别技术的公司和使用这项技术的商铺是否值得信任”,而不是“大众是否会因为隐私问题排斥或接受人脸识别技术”。


那么回到这个案子上,你信任动物园以及给动物园提供系统的信息服务商吗?


对所有与隐私数据相关的人工智能系统开发商与私营场景进行有意义的独立监管,是时候落锤了。

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
频道:

支持一下

赞赏

1人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: