正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2020-12-27 19:44
人脸识别背后的机器算法时代,如何定义“人的尊严”?

本文来自微信公众号:燕京书评(ID:Pekingbooks),采写:傅小黛,头图来自:视觉中国


2020年,“无语之年”。在即将过去的一年里,时代的车轮,实际上陷落在泥淖一般,既让世界重归陌生,也让世界重返熟悉。实际上人类其他的世代一样,人类眼前的危机,既使我们乘势反复咀嚼走过的路,也能使我们借机探观未来的道。曾经,我们被时代强行植入得太快,忽略了太多的问题;如今,我们被迫停滞在历史的惯例。或许,我们是时候需要在前进道路上出神一下,重估时代及其所创造的。基于人类“出神”的必要,《燕京书评》邀请学人分享他们的情绪与思考。


今年,人脸识别技术被广泛应用于新冠疫情的防疫工作,引发了人们对人脸识别技术与个人隐私权之间边界的广泛讨论。


一个人脸识别的小小鱼钩,到底能够牵出多少时代的问题?很多。从人工智能机器算法、商业逻辑、国与国的竞争到被技术定义的“个体的尊严”。


在大数据技术和个人隐私权保护之间,机器算法有哪些灰色地带?正在制订中的《个人信息保护法》在何种程度上保护个人信息?从各国立法模式来看,欧洲模式和美国模式的法律体系,对个人信息的保护的区别主要呈现在哪些方面?它对我国的《个人信息保护法》又产生了什么影响?


在商业的逻辑下,既然机器学习可以形成一整套如何去操纵人类行为的知识,那么个体出于对于自身权利的保护,该如何抵抗机器算法、商业世界的侵蚀?还是说,人类只能接受被大数据操控的事实?在工具理性取代价值理性的现代社会中,“个体的尊严”又如何定义?


就此,《燕京书评》采访了上海交通大学凯原法学院教授郑戈。郑戈的研究领域是宪法学、法理学、政治哲学和社会理论。近年来,主要关注大数据、人工智能和生命科学等科技前沿领域所涉及的法律问题。


以下为《燕京书评》和郑戈的访谈录。


郑戈,上海交通大学凯原法学院教授,上海高校“东方学者”特聘教授。曾全职任教于北京大学(1998-2003)和香港大学(2004-2014),并曾在密西根大学、多伦多大学、杜克大学和哥伦比亚大学做访问学者和访问教授。著有《法律与现代人的命运》,译有《法律的道德性》《司法和国家权力的多种面孔》等。


大数据时代,传统的隐私权已经消亡


燕京书评:人脸识别会带来哪些隐患?


郑戈:人脸识别是现在比较普遍的生物测定技术当中的一种。人工智能大数据时代,各种各样的传感器遍布在我们生活的周遭。人脸识别、指纹识别、虹膜识别等,都是广义上的生物识别或生物测定方面的装置。


人脸识别技术之所以最容易引起恐慌,是因为它具有一些特性。首先是远程识别性,它不用接触到我们的身体,比如,如果在小区门口装一个人脸识别装置,没有通知你的话,你很难察觉到。它是以一种非常隐蔽的不太容易为人所察觉的方式来收集我们的个人信息。


此外,它还有识别唯一性。如果是采集其他的数据,需要数据融合、对大量数据进行分析,才可能定位到某一个特定的人;但是,人脸识别直接就可以定位到某个具体的个人。


它还有关联验证性。因为现在很多的商业机构,包括比如说“人脸识别第一案”里面涉及到的动物园,还有银行等一些机构,都是把人脸识别作为身份认定的一个非常重要的手段。一旦人脸识别普及开来,在一个场所获取的你的面部信息,可能关联到多个场所当中的应用。一旦你的人脸信息被滥用、被盗取,会产生一系列的风险,因为在从银行到各种需要身份认证的这些场所都具有很高的关联性。


这三个特征,其实就导致了人脸识别具有比其他的数据采集方式可能更大的风险。比如传统的数据采集方式,就是你需要填写一张表格,填写姓名、年龄、身份证号等。这样的数据采集方式,都是在你知情的情况下主动去填写。人脸识别这种方式不需要你主动地填写任何东西,在这个方面,知情同意就很难做到。


燕京书评:大数据技术和个人隐私权保护之间有哪些灰色地带?


郑戈:目前的大数据分析技术所涉及到的对个人数据的利用,有很多时候是个人所不知道的。它可以采集各种数据,包括无结构数据,很多一开始可能和个人没有太大关系,分析以后才能产生一个结果,综合出一个个人画像。


在大数据时代,传统的隐私权很难得到充分的保障,实际上已经消亡了。传统的隐私权是基于某种空间想象的,它区分了公共空间和私人空间。如果你在一个私人空间里面,比如在自己的家里,你的隐私预期就会非常高,而法律也保护这种隐私预期。传统时代,如果要侵犯个人的隐私权,可能需要跑到你的家里面偷偷地装一个摄像头,或者像狗仔队那样拿一个带有远焦镜头的照相机来拍摄。


现在是万物联网的时代,人们随身都带着各种各样的可穿戴智能设备,包括智能手机,这些设备随时随刻都在向云端传送着你的个人信息。在这种状态下,隐私权所赖以为基础的公共空间和私人空间之间的界限已经变得非常模糊了。


传统的隐私权,其实包含四个维度。第一个维度是“独处”,就是一个人在自己的私密空间里待着的时候,享有免受干扰的权利。从“独处”延伸到亲密关系,在亲密关系当中,人的隐私权也得到保障。此外,又延伸到秘密,那么包括通信秘密、通话秘密等,点对点之间的通信内容也是受到保护的,这三个维度,总体上来讲都是为了维护一个人的自治。


隐私权的这四个维度,在今天的物联网时代,是缺乏空间支持的。比如,“独处”时的个人信息,其实已经没有一个秘密空间来加以保障。


燕京书评:在诸多大数据技术中,人们更关注人脸识别,一方面是今年新冠疫情人脸识别的广泛应用导致的,是否还有其他原因?


郑戈:人脸识别是大数据时代会产生新问题的一个方面。同时,人脸识别和传统的隐私权、人格权有非常直接的关系。早在我国的1986年《民法通则》里面,人格权部分就提到了肖像权,这是人的非常传统的权利,人脸识别中会涉及到肖像。人脸识别之所以很容易让人们警觉,是因为它和传统的人格权、隐私权可以挂上钩的。


其他的大数据处理方式,其实大部分人根本就意识不到,比如说我们的GPS信息,随时随刻都在上传到云端,供某个大数据掌控者进行分析,但这些是不会引起我们的注意的。只有当它产生了非常严重的后果时,我们才可能会意识到。


人脸识别和其他的比较不那么容易被人们关注到的数据采集方式不太一样。在大数据时代之前,肖像权就是受到保护的,我们的肖像被某个设备给捕捉拍摄下来,普通人都可以感觉到对自己是有影响的。


燕京书评:这些问题该怎么去面对?正在制订中的《个人信息保护法》能解决吗?


郑戈:《个人信息保护法》对这个问题是会有专门处理的,因为人脸很明显属于个人信息。


《个人信息保护法(草案)》中,第4条对“个人信息”的定义是,个人信息是以电子或者其他方式记录的与识别或可识别的自然人有关的各种信息,不包括匿名化处理后的信息。


人脸识别,显然不是匿名化处理后的信息。因为根据一个人的脸部特征可以准确地定位到某一个特定的个人,所以它明显属于《个人信息保护法》所保护的个人信息。一旦被确定为个人信息,它的采集和处理就要遵守一系列的法律原则,包括个人信息的取得必须采用合法正当的方式,要有明确合理的目的,采集的信息使用处理目的要被限缩到最小范围;出于某种目的而采集的信息,不能用于其他的目的。


《个人信息保护法》一旦通过,那么一个商业机构、住宅小区或政府部门,如果要采集人脸信息使用,首先是必须以明确的方式来告诉被采集人脸信息的人,不能再偷偷摸摸地装一个人脸识别装置。这个装置必须是有明显的标识,让所有人都知道。


比如,它对政府利用个人数据,是有非常严格的限制的。如果是政府在十字路口公共场所安装人脸识别装置,那么就必须符合特定的公共利益的目的,如防疫、安保等。商业机构要采集人脸信息,就必须有一种合同关系,每一个合同关系都是出于一个非常特定的目的,明确征得被采集者的同意,不能转作其他目的,更不能把它所采集的人脸信息再转让或者出售给别的商业机构。诸如此类的法律原则,在《个人信息保护法》里是有相对比较完备的规定的。


燕京书评:疫情期间,几乎完成了一次全民信息收集。


郑戈:出于特定目的而搜集的数据,只能服务于特定目的,而且它的存储应该是有一定的期限的。防疫期间,因为它是出于一个非常重大的公共利益目的,那么搜集个人数据应该是被允许的;疫情过后,在疫情期间所采集的个人数据,如果被转作其他用途,特别是和公共利益无关的商业用途的话,应该是法律所明确禁止。


燕京书评:疫情期间对人脸识别技术的使用,是否促成了《个人信息保护法》的制订?


郑戈:《个人信息保护法》开始制订到现在已经有很多年了,它和疫情没有直接的关系。人脸识别只是个人信息的一种。但是,人脸识别的问题出来以后,现在的征求意见稿里面,有一些专门针对人脸识别问题的。


比如说第27条,非常明确地说,在公共场所安装包括人脸识别在内的图像采集的设备,只能是出于公共安全目的,明确地限缩了公共利益的范畴,界定得更加清楚。因为很多东西都可以被称为公共利益。这是非常明显地针对人脸识别问题而确立的一个规则。


燕京书评:人脸识别相关立法会不会比较有难度,比如技术发展很快,一些细化之处无法预测和明确规定?


郑戈:因为法律它必须具有一般性,所有法律都是抽象的,都是一般性的。不仅是在人脸识别这方面有这个特点。但我觉得,在这一草案中,人脸识别的相关规定已经足够具体,可以实施了,我不觉得它有执行上面的难度。因为一旦明晰了,问题就很容易解决了。


人工智能能够形成整套知识去操纵人类行为


燕京书评:人脸识别是人工智能时代的产物,人工智能对个人权利可能造成侵蚀的,还有哪些方面?


郑戈:人工智能,核心技术就是机器学习。机器学习的机制是从海量的数据当中去寻找规律,其实是一种统计学原理,只不过我们过去的统计学需要去找样本。传统时代的统计样本、我们的算力、取得数据的能力都是很有限的。


人工智能技术存在将近70年了,1956年的达特茅斯会议就提出了Artificial Intelligence这个词。之所以在最近几年忽然成了全民关注的一个话题,而且取得了非常突破性的进展,主要原因就是我们进入了一个万物联网的时代。物联网时代产生的数据,远远超过我们之前时代所产生的数据总和。现在,人类媒体每时每刻都在产生着海量数据,这些数据用我们传统的人力方式是难以处理的。


这些数据,如果不借助机器学习的算法,其实是没有什么利用价值的。但是,恰恰是这些海量的数据,它为机器学习的算法提供了非常丰富的资源,计算机可以从这些海量的数据当中去寻找到规律。比如说每一次到百度上去搜索一个关键词,甚至每一次鼠标的点击,都会留下电子痕迹。数据本身是原始素材,表达出的某种信息其实都是关于人类行为的。


机器学习算法,使这些数据变成信息,再变成可以被人类所利用的知识。现在大多数平台企业,都是利用数据来获得关于人类行为的知识,从而实现各种各样的商业目的,比如说量身定制地投放广告。在美剧《西部世界》中,有一句很有趣的话:“我们给机器编码是为了解码人类。”人工智能,本来是人类编码而形成的一种算法,目的是解码人类的行为。然后,就可以干各种各样的事情:可以预测、修正甚至提前介入人类行为。


也就是说,在意图阶段,甚至连意图都没有形成的时候,通过大数据分析已经掌握了信息。比如,一个具体的消费者,有什么样的消费倾向、兴趣爱好是什么,由此投放诱导性信息,使你产生某些方面的购物需求。换句话说,需求很多时候是被诱导出来的。


所以,机器学习可以形成一整套的如何去操纵人类行为的知识。


现在的智能算法技术方面最强的是一些企业,从百度、阿里到 Google、Facebook。因为他们掌握着最大量的数据,主要是用于商业目的。但是,它也可以用到其他方面。比如,大家都知道,在2016年的美国总统大选中, Facebook泄露8700万用户的信息给剑桥分析,剑桥分析量身定制地来投放竞选广告,最后影响了美国总统大选的结果,彻底地改变了我们整个世界的运转方式。


在我看来,这是最深层次的问题。现在有很多的人文社会科学领域的学者,在讨论人工智能的时候,没有深入到目前人工智能技术应用的主要现实层面,即平台企业背后的算法,而有很多科幻式想象,比如,“人工智能具有了自我意识之后如何奴役人类”这类话题。其实,这并不是我们现在主要应该担心的。即使这种情况可能存在,也是在遥远的未来。目前来看,人工智能实际已经通过我刚才所讲的方式,深入到我们生活的方面。


燕京书评:个体出于对于自身权利的保护,该如何抵抗这种机器算法、商业世界的侵蚀?


郑戈:实际上,整个商业逻辑就是要利用人的弱点;而人工智能就是大数据掌控者,利用人的弱点的能力得到几何倍数的增长。但是,人类抗拒这种操纵的能力却越来越弱化。


刚才我们讲到,要发展人工智能技术首先要有海量的数据,个人是不可能获得这种海量的数据的,只有像阿里、亚马逊这样的大型平台才可能获得。所以,个人相对于平台企业来讲,抗拒操纵的能力,其实是严重弱化,甚至可以说是荡然无存的。


而人文、社会科学以及哲学、法学领域的很多学者,比较强调人的自治,认为我们每个人都是独立的。在我们法学领域,企业也是被视为法人的,我们想象自然人和法人是平等的,可以平等、自由地签订契约,完成各种各样的交易。其实,这是一种非常理想化的状态。实际上,个人和大型平台企业之间,谈不上平等。这是一个深层次的问题。但是,这个问题其实没有解决方案。


燕京书评:商业逻辑和人工智能利用个体的弱点,个体的生活却依赖它们,抗拒能力越来越弱。长此以往,人就会变傻变笨。


郑戈:实际上,已经变傻变笨了。


算法之下,“个体的尊严”是什么?


燕京书评:在这样的环境下,如何定义“个体的尊严”?


郑戈:我们现在都非常地迷信科学,实际上现在的科学也是在消解人的人格。


在宪法学里,有一个非常核心的概念,就是“人的尊严”。这个概念主要来自于康德的“人是目的,不是手段”。这个理论听起来是很美好的,但我们现在所处的世界,从人工智能到生物科学到脑科学,所有这些自然科学现在给我们造成的图景,其实就是人的人格基础是什么都已经很不确定。


人工智能让机器具有学习能力,使机器变得越来越像人。与之相反,脑科学描述的图景是人越来越像机器。这两方面,其实目前是合流的。比如说现在主流的脑科学家,会认为人脑是由1000亿个神经元所构成的,而神经元之间的连接方式决定了我们的所思所想。除了神经元之间的物理通讯机制(放电)和化学通信机制(分泌递质)以外,脑科学家认为我们找不到任何自我意识或灵魂存在的依据。既然这样,人类思考的过程最终可以用算力越来越强大的计算机来模拟和取代,就不再是天方夜谭了,而是技术发展的必然结果。


任教于普林斯顿大学的韩国裔科学家承现峻,在他的著作《连接组》(Connectome)中就写道:“据我所知,没有任何客观的科学证据来证明灵魂的存在。人们为什么相信灵魂的存在?我怀疑宗教是唯一的原因。”他很明确地说,你的身体和大脑与人造的机器并没有本质的区别。


由此来看,生物科学和计算机背后的认识论基础是一样的,也就是说,人就是机器,更准确地说,人就是代码或者算法,那么他们一方面会使用机器和算法来取代人脑,另外一方面也会借助算法来影响和控制人类的行为。所以,我们目前所面对的一个总体的技术图景,会变成商业模式,变成我们所处的整个外部环境当中非常基础性的组成部分。


《连接组:造就独一无二的你》,[美]承现峻著  孙天齐译,清华大学出版社2015年12月版


燕京书评:看来,“人的尊严”这一最基本的概念现在也有点面目不清了。那么,你个人有没有担心过自己被奴役?


郑戈:从个人角度来讲,我前面是描述了一种比较悲观的前景,但实际上也不是那么悲观。因为现在这些问题,其实在现代性的早期就已经暴露出来了。


整个现代化的进程,都是用工具理性取代价值理性的一个过程。工具理性,是指的在任何给定目的的前提下,来寻找实现目的的最优手段。现代社会的特征,就是我们不再去讨论终极价值的问题,我们认为终极价值是每个人可以自由去选择的。所以,人们就去发展各种各样的技术,包括人工智能技术。技术的关键词叫作“优化”。


现代政治思想的奠基人霍布斯,非常系统地打造了人类无中生有的创造和管理世界的理论。法律和工程技术,都是这种创世工作的工具。霍布斯曾经非常明确地写道:“旧道德哲学家所说的那种极终的目的和最高的善根本不存在。欲望终止的人,和感觉与映象停顿的人同样无法生活下去。”他认为,“幸福就是欲望从一个目标到另一个目标不断地发展,达到前一个目标不过是为后一个目标铺平道路。所以如此的原因在于,人类欲望的目的,不是在一顷间享受一次就完了,而是要永远确保达到未来欲望的道路。”


霍布斯的理论很有趣,他认为人类没有终极的价值,没有终极的追求,只不过是满足一个又一个的欲望。其实,在霍布斯那里,价值理性就已经完全被颠覆了,用今天的话来说,其实就是消费主义。技术使消费主义得到不断的膨胀。人类是有肉身的,那么人类的所有欲望都是使自己的沉重的肉身变得更舒服,满足各种各样的欲求。人类的基本欲望其实一直都没有改变,从石器时代到现在没有太大的变化,只是人类满足自己欲望的手段日新月异了。在我看来,这是一个基本哲学层面的命题。


《利维坦》,[英]霍布斯著,黎思复、黎廷弼译,杨昌裕校  商务印书馆2017年3月版


燕京书评:那么在你看来,科技能够做到中立吗?


郑戈:当我们说“科技”时,往往也混淆了科学和技术。


科学的主要的目的,是了解这个世界的真相,它关心事实。所以,科学在很大程度上是中立的。因为它只关心事实。但是,技术不一样,技术是利用科学的原理来实现特定的人类目的的手段。所以,技术从来都不是中立的。你给它什么样的目的,它都能找到更好的达到目的的手段。一旦目的是邪恶的,技术越先进,能够做的坏事就越多。


燕京书评:在这种情况下,如果我们否认了人的价值属性,那么人的尊严是什么呢?


郑戈:其实,现在在法律领域所谓的“人的尊严”也非常的技术化,它不是说人本身有什么不同于万物的根本价值,它其实还是说要保护人的身体,人首先有身体的人身自由,不能无缘无故去剥夺一个人的人身自由。围绕着“人的人身”为基础,是一个的同心圆。


这就联系到开始讲的隐私问题,人的身体、在私密空间当中的自由、亲密关系以及秘密,都是受到保护的。万物联网时代,突破了基于空间想象的法律概念,而我们还没有发展出新的法律概念和原则,甚至我们在目前的时代需要保护什么,也不是特别清楚。


从法律的角度来讲,欧盟的《通用数据保护条例》对我国的《个人信息保护法》有很大影响。这一条例的核心观念,其实还是想把传统的个人对关于自己信息的自主控制权,延用到大数据时代。欧盟的体系,最早的基础的是德国宪法法院在1980年代的一个判决当中提出的“个人信息自主权”的概念。这个概念是指,每个人都应该有权利控制关于自己的信息的流向,被什么人所利用。但是,这其实是一个很天真的想象,基本上是把这个信息想象成传统时代的通信,比如,我写了一封信,这个信要寄给谁;在寄信的过程当中,信的内容不能被第三者知道。


这种自主权,在今天的大数据时代,是根本不可能的事情。因为我们的信息是发散式的,每时每刻都向外溢出的,包括每发一个朋友圈、上网搜索一个东西等。但是,法学家们借助传统的古老概念,去理解并试图保护一些传统的价值。在我看来,这是一个非常典型的严重滞后于技术发展的特征。


燕京书评:有学者提出信息的删除权,大数据时代人们能拥有这种权利吗?


郑戈:删除权,又称为“被遗忘权”,指数据主体可以要求数据平台删除关于自己的某个信息。实际上,互联网不会遗忘。只要一则信息出现过在互联网上,它就会在某个服务器上,就很难删除。删除权,更准确地说,是去索引化的权利,它主要是针对搜索引擎而提的一种诉求。比如,可以要求Google、百度把一则个人信息去索引化,搜不到了,但要求这则信息在整个的网络空间消失,在技术上是做不到的。


删除权,也在目前的我国《个人信息保护法》的讨论里面,很有可能被纳入。欧盟《通用数据保护条例》对个人数据权做了细分,包括个人数据的可携带权,也就是说一个人可以把自己的完整的信息从一个平台转移到另外一个平台,平台的企业是不能做任何限制的。在欧洲某些国家,一个人在遗嘱当中,可以要求死后数据权,对生前留下的数据做某种处理,非常详尽。比如说自己的 Facebook账号、推特账号,甚至自己的游戏账号,在自己去世之后如何处理,也会成为遗嘱的非常重要的方面。这一系列的权利,也很有可能会进入我国的立法当中。


但是,这并不意味着规定的权利越多越好,因为也要考虑为本国数据企业的发展留下足够的空间。


在数据隐私面前,如何平衡个体权利与公共利益?


燕京书评:个人在今天这个时代到底是随波逐流,还是可以做点什么?比如,你可能想过该怎么抵抗这些,或者跟着这个趋势发展下去?


郑戈:我们都非常强调所谓的自由,但自由从来都是需要人付出艰辛的努力才能够获得和保有的。比如,上世纪九十年代末和本世纪初,在计算机科学的领域有一个非常著名的理论“创生性的计算机(the generative computer)”,当时的计算机科学专家还有一些研究计算机相关法律问题的法学家,都认为计算机是一种解放性的技术,网络也是,每个人都可以去定义和设计自己的交往空间。


当时的技术人员设想的理想计算机完全是开源的,每个人都可以去自由地编码,定义自己的计算机可以做什么。同时,互联网也是有一系列的开源代码和软件所组成的,所有的人都可以参与打造自己心目当中比较理想的互联网。如果这种理想实现了,当然我们对关于自己的信息的控制权就得到了极大的强化。


但设想一下,我们愿意用这样的计算机吗?它需要你自己去编码,自己去设计。恐怕没有人愿意用这样的计算机。果不其然,这种创生性的计算机和网络很快就淡出了历史舞台,实际上从来都没有流行过,它只是一小部分的技术专家和和人文社会科学学者提出来的一个概念而已。


后来占据主流的计算机是什么样子的?苹果。当苹果推出iPhone,是一种革命性的技术。之前是一个只能打电话的手机,苹果使你随时随刻都可以上网,是一个可随身携带的小电脑。苹果的设计理念是什么?显示决定一切,一个苹果用户不需要懂任何技术,只要看得懂显示屏就可以。


苹果就是一个完全封闭式的盒子,排除了个人所有的创造力因素。想在苹果上面做手脚,想要改变它的程序,想要去下载不是apple store里面原本就有的软件,是非常困难的。苹果是典型化的大众消费时代的理想手机,不需要个人用户去付出任何努力,就把一个非常便于使用的产品交到你手里。它假设所有的用户都是傻瓜,只要拿到一个 iPhone,再傻的人也会用,这才是目前时代的产品的主流。


这个例子其实就充分说明,我们每个人都嚷嚷着想要自由,但当真正要给你自由的时候,没有人愿意接受。所以,这就是一个辩证法了。


在今天这个时代,如果我们想要拥有自由,其实也是可以拥有的,但对个人的要求就会比较高。当技术带来很多便利时,很多人又会说技术滥用了我们的数据,这个就是有些“无厘头”的说法了。这个时候,如果你懂得加密技术,你能够拥有的个人隐私就会更多一些。否则,实际上绝大多数人都是每天在自愿交出海量的信息,回过头来又去抱怨自己的隐私权被侵犯了。


燕京书评:关于自愿和抱怨,其实如果现在没有这样的一种侵犯隐私的集体行为的话,就不用去“自愿”,也没什么好抱怨。人们使用技术的生活和日常行为有惯性,以便利为主,比如基本没人会在进小区时,因为不想被采集个人信息而当场重新做一个技术研究。作为普通的世界公民,可能一方面想拥有便利,另一方面也想拥有个人的权利。可以有这样的要求吗?


郑戈:当然是可以有要求的,但这种要求是要求一种最低限度的保护。比如说,我前面提到的《个人信息保护法》,它其实就是提供了一种最低限度的保护,主要是约束个人信息的取得者。如果是政府的话,就必须是出于公共利益目的。如果是私营企业的要盈利的话,就必须以合同的方式来征得数据主体的同意。这些最基础的法律保护是可以做到的。


现在的时代,是遍布式计算的时代,虽然各种传感器采集数据并利用,但它同时也给我们带来很多便利。这一点是需要承认的,虽然现代性的反思者对此往往都会比较批判。


在传统社会,虽然表面上看每个人都更加独立,隐私也比现在多得多,但没有人愿意回到那样一个时代。因为现代性的这套技术商业模式、社会组织方式,是使越来越多的人物质生活得到了更大的改善。而在传统时代,人的物质生活之间的差距是非常大的,生产力水平比较低,只能满足极少数人过非常优越的生活,大多数人都处在贫困的状态中;而现代化社会的一系列技术,解决了绝大多数人的温饱问题。


燕京书评:对于个人数据的保护和使用,界限在哪里?


郑戈:刚才聊到了把个人数据权作为隐私权,进而作为人格权的一部分。与此同时,我们常常忽视数据权的另外一个方面,即“数据的物权”。


国务院今年专门颁布了一个文件,把数据作为当下经济形态的要素,和土地劳动资本一样。这种数据的经济维度,就涉及到“数据的物权”的面向。也就是说,数据权也是一种财产权,但数据作为财产权,和个人的关系又不是太大,因为零零星星的个人数据其实没有多少财产价值的,它必须被一个平台企业汇总起来变成大数据才可以供机器学习,才能够去进行行为模式的分析,才能够产生商业价值。


目前我国的立法,包括个人信息保护法、数据安全法等法律里面,都有一个规则:一旦对个人数据做了匿名化的处理,用数据产业的术语来说就是数据清洗,去除了其中的可以定位到某个具体个人的信息,比如身份证号码、个人面部信息等个人敏感信息之后,它就不再属于个人信息保护的范围了。它就变成了某种财产权,一般来说,这种财产权属于大数据的采集者和处理者,是属于平台企业的。


所以,当我们来讨论数据问题的时候,要区分这两种权利。一种就是作为人格权的个人数据权,它主要是采用传统的隐私权原理来加以保护的,一旦披露以后,会使一个人比较尴尬。但是,一旦个人信息去敏感化、匿名化处理之后,它就变成了属于企业的财产权。


燕京书评:今年新冠疫情期间,有一个常常浮出水面问题是,个人隐私权与集体公共利益发生冲突时,该如何平衡?


郑戈:法律领域有一个非常重要的分析方法,叫比例原则。“比例原则”是一个非常面对现实的一种法律思维方式。它会承认,在任何问题上都会涉及到不同的权利和利益。比如,在隐私权问题上,会涉及到个人隐私和有公共利益之间的权衡。比如,在疫情防控方面,如果一个人非常强调自己的隐私,不愿意被采集自己的健康数据、活动区域数据,那么法律如果过分地保护个人权利,就会导致像健康码这样的技术手段没法得到应用。比如,一个人的言论自由,可能会侵犯别人的名誉权。所以,在每一个具体的问题上,都需要权衡不同的利益和权利。


疫情这个例子,涉及到公共利益和个人权利之间的平衡问题,涉及到一个比较典型的法律思维方式,就是避免走极端,把握好分寸。如果缺乏这样的思维,就会钻到牛角尖里面。隐私权的极端主义者就会认为所有侵犯个人隐私的,都是应该被摧毁的,都不应该存在;反过来讲,数据技术的信仰者,又会认为隐私在技术创新面前是一文不值的。这两种极端,其实都应该被避免。


所以,当下的时代,法治还是有它的作用的。因为法治可以帮助我们用比较体系化的、服从于规则的方法,进行各种利益之间的权衡取舍。


燕京书评:你刚提到,欧盟的《通用数据保护条例》(GDPR)对我国的《个人信息保护法》有很大影响。欧洲模式和美国模式的法律体系,对个人信息的保护的区别主要呈现在哪些方面?


郑戈:美国在保护个人隐私和鼓励数据企业的创新方面,其实更偏向于鼓励创新。到今天为止,美国仍然是用侵犯传统的隐私权的模式来保护个人数据,实际上相当于不怎么保护,不像欧盟有GDPR,用传统的隐私侵权模式来保护个人数据。


举一个很简单的例子,如果一个Google的用户认为自己的数据权或者隐私权被 Google侵犯了,要去告Google,他要通过诉讼,诉讼的成本是非常高的;而Google有一个最精英的律师团队来辩护,一个普通用户能够告赢这些巨头数据企业的可能性是非常低的。所以,美国的法律结构,其实是偏向于大数据企业。


欧洲是另外一种模式。除了欧盟层面的GDPR以外,法国、德国以及很多西欧国家都专门制定了个人数据保护方面的法律,它是符合公共利益的。政府会专门设立某种行政机构来保护个人的数据权。比如,设立个人数据保护局这样的机构。如果有一个数据主体认为自己的个人数据被滥用了,不用走诉讼的程序,只要到行政机关去告状就行了。行政机关会启动一个调查程序,一经核实,就会处以巨额罚款。这一点,我们在新闻中经常看到,美国的Google、Facebook动不动就在欧洲被处以上亿美元的罚款,这就是“欧洲模式”。


我国目前的立法趋势,其实借鉴了对个人数据保护更强的“欧洲模式”。比如刚刚提到的《个人信息保护法(草案)》中对“个人信息”的定义扩展得很大,包括已被识别的和可被识别的。在这点上,至少在《个人信息保护法》出台之后,其实是不弱于美国的;话又说回来,在执法层面,我国还是会给技术创新留下足够的空间,因为这次的信息技术革命被认为是“第四次工业革命”,它的背景是国际竞争。


在这方面,欧盟之所以对个人数据保护那么严格,主要是因为没有多少大型的数据企业,在这方面本身就落后了。所以,欧洲为立法做准备的报告中,经常提到一个概念:数字殖民主义(Digital Colonialism)。在“数字殖民主义”这一概念中,认为欧洲目前正在变成中美数字巨头的殖民地。这点是很搞笑的,因为我们知道,第一次工业革命是在英国开始的,西欧国家完成工业革命以后就开始到世界各地去搞殖民,但现在欧洲担心的是自己成为这一轮的信息技术革命之后的中美数字巨头殖民地,所以他们会采取一种非常保护性的立法模式。


数据是这个时代的石油。只要是搞相关的企业,海量地利用个人数据就会成为一种常态。所以,在这一轮的信息技术革命当中,一个国家的地位和处境,如果本身有这方面竞争的优势和可能性,就会相对鼓励技术创新,弱化对个人数据的保护。所以,每个国家的产业结构、在国际竞争当中的地位这些因素,反而决定着世界各国数据立法模式。


本文来自微信公众号:燕京书评(ID:Pekingbooks),采写:傅小黛

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: