扫码打开虎嗅APP
本文来自微信公众号: 斯坦福社会创新评论 ,作者:SSIR中文版
我们常将科技平台的内容洪流视作向我们席卷而来的浪潮。然而事实上,恰恰是我们主动选择与“浪潮”为舞。
将我们与算法的互动理解为一种社会契约(social contract),是一种极具启发性的视角。长期以来,政治理论家一直将“社会契约”作为一种分析工具,用以解释个体为何会服从国家的权威,以及安全、意义与自然权利的保护如何为这种权威赋予正当性。
同理,我们需要思考:为何我们会认为算法具有正当性?为何会将我所说的“筛选自主权”(curational autonomy)让渡于算法?一个重要原因在于,算法能缓解我们的“选择焦虑”(anxiety of choice),并在日益复杂的世界中提供了一种安全感的假象。我们或许会允许科技公司对我们进行分组和归类,以换取更具可预测性的生活。
这样做有利于商业(发展):消费者的可预测性越高,广告支出的回报率就越高,而经济激励会推动预测模型不断优化。如果一个模型无法预测消费者行为,它就会被淘汰。但这就是人的价值所在吗?正如沃尔特·惠特曼(Walt Whitman)诗言:“我辽阔博大,我包罗万象(I am large,I contain multitudes)。”
如果人类并非天生具有可预测性,如果模型无法预测善变的人类,那是否意味着,人类正被塑造成行为更具可预测性的存在呢?如果算法无法开发出能完全预测我们的模型,我们是否将被不断驯化,直至活成算法可预测的模样,并按模型需求进行自我归类?我在《你必须成为一个算法难题:重构社会-技术契约》(You Must Become an Algorithmic Problem:Renegotiating the Socio-Technical Contract)一书中提出,是时候打破我们与科技公司之间那份“心照不宣”的契约了。——何塞·马里查尔(Jose Marichal)
***
在我们日渐数字化的世界里,算法模型会捕捉我们输入的每一个字、做出的每一个动作(比如点赞)、每一次眼球转动和(屏幕)滑动操作,并将其拆解为节点(事物)或边(属性),再存入数据库。这个持续收集和分析我们数字生活的时代,我称之为“算法时代”(algorithmic age)。算法时代的核心任务是打造能够预测人类未来行为的产品。21世纪的第一个十年之前,这种预测机制虽然重要,但了解自身与他人才是首要目标。而如今,我们已步入一种新机制——收集数据不仅是为了通过营销或监测来了解人类,更是为了构建具有人类思维的人工复制品。
研究与实际生活经验越来越清楚地显示,大多数人并非在“逆数据浪潮而行”。尽管算法分类存在的危害显而易见,人们仍愿意接受这样的世界,只因它提供了舒适与安全的(虚假)承诺。我们依旧被牢牢吸附在电子设备上,且愈发将社交媒体平台当作获取信息的主要渠道。皮尤研究中心(Pew)2024年的一项研究显示,86%的用户通过数字设备获取新闻,54%的用户偶尔或经常从社交媒体平台获取新闻。在年轻人喜爱的社交媒体平台上,40%的Instagram用户和52%的TikTok用户会定期从各自使用的平台获取新闻(圣奥宾和利德克,2024a)。倘若我们真的受制于算法,我们的行为举止却并不像是这样。
正因如此,我们应当从社会契约理论的视角来审视人与算法的关系。社会契约是政治理论的核心概念。长期以来,政治理论家正是借助这一概念,来说明个体为何需要形成对特定政治体系的认同与归属感。社会契约本质上是一种思想实验,用以阐明一种关系形态。由于个体对国家产生认同与归属的原因各不相同,这种关系在现实中不可能具有普遍性。尽管如此,社会契约依然为国家权力提供了正当性基础。其中最具代表性的三个应用案例源自洛克(Locke)、卢梭(Rousseau)与霍布斯(Hobbes),他们认为,理性的行动者将会自愿放弃其在“自然状态”(state of nature)下的理论立场:霍布斯(1967[1651])认为这是为了自我保护,洛克(1996)则认为是为了更好地维护自身权利。而在卢梭(1920[1762])的理论中,脱离自然状态是既定事实,而重拾意义感、摆脱现代社会中的评判压力与身份焦虑的唯一途径,便是服从政治共同体,即“公意”(general will)。在上述每一种理论中,社会契约都为个体遵守某种政治体系提供了正当性理由。这一体系或能保护个体的人身安全(霍布斯,1967[1651]),或能维护个体的自然权利(洛克,1996[1689]),抑或为个体赋予存在的意义(卢梭,1920[1762])。
契约视角为我们理解自身与互动算法的关系提供了实用的分析框架。互联网为我们提供了广阔无垠的信息与文化内容场域,海量信息很容易引发我们的焦虑。为缓解焦虑,我们会将自己的筛选自主权让渡给算法。通过允许算法筛选我们的信息/文化环境,我们得以从“选择焦虑”中解脱。而作为交换,我们获得了经过筛选的海量信息,也得到了更多能表达观点的工具,即我们授权平台及其他企业提取我们的数据,并将其用于算法筛选的过程。通过数据提取,算法能更精准地筛选我们的信息环境,并将我们划分为不同的目标消费群体。我们经由算法构建的这些“新身份”(new identities)试图通过收窄认知范围、营造确定感的假象来理解这个复杂多变的世界。算法会剔除那些我们认为失调或不适的内容,或者将这类内容包装成可供我们嘲弄或抨击的对象,从而营造出一个在认知上更舒适、也更少引发焦虑的信息/文化环境。此外,我们还会依赖诸如Ring摄像头(安防智能摄像头)之类的“个人异常检测器”工具,通过扫描环境寻找“具有威胁性”的异常情况,从而为我们营造一种安全感假象。
正如洛克和霍布斯所提出的契约理论,没有人会真正“签署”这份契约,但这一思想实验却为理解个体与国家的关系提供了思路。同理,“算法契约”(algorithmic contract)旨在将新时代下我们对算法治理的默许行为理论化。然而,这份契约也伴随着一些意料之外的后果。互联网当初被推向大众时,宣称将打破知识传播、信息交流与自我表达的壁垒。早期的博客平台与互联网文化,曾催生了创造力的火花。21世纪前十年的网络更被赞誉为对抗控制与压迫、彰显民主与自由的载体。当时人们普遍认为,社交媒体带来解放而非束缚。然而,这种自我表达的能力也带来了困境:“被听见”(be heard)的渴望与自我表达的需求是人类不可磨灭的天性,而正是这份寻找真实自我的渴望,驱使我们不断产生数据。但在注意力经济(attention economy)中,若想“被听见”,就必须调整自己的表达方式。这使得“表达”的本质发生了改变:它不再源于一个渴望表达的、稳定的自我,而是变成了一个为了“被听见”而不断调整自身的可塑的身份。
过去十年间,无线数据传输能力、数据存储能力以及处理器速度的快速提升,催生了一场数据分析领域的转型。商业智能、网络安全等多个领域均实现了指数级增长。到2015年前后,一个趋势开始逐渐显现:数亿社交媒体用户的海量发帖,可转化为极具价值的营销洞察。其中的商业逻辑在于,人类的表达可被“代币化”(tokenized)并纳入模型,从而为营销人员提供预测价值。如此一来,个人观点便进入了供需关系的范畴。倘若观点成为一种商品,其匮乏便会构成问题;倘若用户使用电子设备的时间不足,便会面临“供给不足”的挑战。为应对这一问题,平台的核心任务便是让观点输出与互动行为成为用户习惯。
在这一阶段,鼓励用户留在平台上输出观点/产出内容就能生成更多可被“数据化”(datafied)、可用于机器学习预测与人工智能训练的素材。互联网互动商品化带来的结果是:市场激励机制开始强调“被听见”(发声)而非“自我表达”(思考)。自我表达需要通过反思(reflection)以明确自己想说什么、需要说什么。而“发声”则无需深思,它可以是即时的、本能的、情绪化的反应,只需通过简单的情感或欲望刺激即可产生。反思难以转化为商业价值,而海量的“发声”似乎是一种取之不尽的资源。如果我们全天都携带录音设备,表达将永不枯竭。研究表明,西方社会中人均每日说话量约为1.6万个词汇(梅尔等人,2007)。当市场激励的目标是从我们身上不断提取“发声”内容时,与谁对话其实已不再重要。近期,一项来自前美国官员的评估显示,X平台(原推特)上超过80%的账号都是机器人账号(伍兹,2022)。
运用统计建模的量化社会科学,能够弥合所研究的现实与模型抽象之间的鸿沟。在我攻读研究生时,我所接受的训练让我相信,世界的本来面貌,与我们对其进行抽象化或理解的需求之间存在差异。若一个计量经济学模型的抽象化程度过高(变量/参数过少),最终得到的模型可能会过于简化,从而遗漏其试图理解的更广泛群体中的细微差异。反之,若模型的抽象化程度不足(参数过多),则可能会变得过于复杂,难以理解其背后的动态机制,进而违背“模型应以最精简的架构实现最大化解释力”的原则。那些能够以较少变量解释大量现象的模型,通常被视为“优雅的”(elegant)。这种研究方法蕴含着一种谦逊的态度:它承认模型只是对现实的抽象化呈现。这种抽象化是必要的,因为在机器学习和人工智能出现之前,我们并没有无穷无尽的资源去收集所有个体的数据。通过精心选取的样本,我们得以借助模型对总体做出推断。然而,任何模型都不可能完全解释所有现象,因为总会存在违背既有预期的个案。在统计学中,这类无法被当前模型解释的干扰性案例,被称为“异常值”(outliers)。科学的进步,往往来自于向模型中引入新的解释变量(explanatory variables),从而拓展我们对现象的理解、提升模型的解释力。但与此同时,若向模型中纳入过多变量,也可能引发所谓的“自由度”(degrees of freedom)问题——变量的数量反而超过了可供分析的案例数量。
数据科学与人工智能的兴起,挑战了这种公认的局限。当下存在一种趋势,试图模糊“现实世界”与“算法世界”之间的区分。科技公司聘请数据工程师,不断突破模型优化的极限,核心问题只有一个——如何进一步提升“模型拟合度”(model fit)?数据科学家可以通过增加模型中参数或变量的数量,或在神经网络(neural network)中添加层级来突破“不可知领域”(unknowability)的边界。在机器学习领域,“简约性”(parsimony)并非核心关注点。凭借强大的算力,数据科学家能够处理数十亿个案例与相应规模的参数。如此一来,模型抽象化与现实之间的鸿沟正被技术不断收窄。由于解释不再是算法的目标,理论构建的必要性也随之降低;而预测,才是算法的核心追求。
然而,人类始终是难以捉摸的研究对象。在某个时点或某种情境下能解释行为的模型,在另一种情境下可能会失效。人类行为的偶然性本质,使得预测工作极具挑战性。人类固然受习惯与模式的支配,却也会反思自身的习惯与模式,并随着环境变化而做出调整。人类行为背后的驱动因素极为复杂,难以被简单破解。正如神经科学家杰夫·利希曼(Jeff Lichtman)所描述的大脑运作的复杂机制:
如果你无法理解纽约这座城市,并非因为你无法获取相关数据,而是因为万事万物同时发生、交织涌动。人类的大脑亦是如此:数百万种事件在不同类型的细胞、神经调质、遗传成分与外部刺激因素间同步进行。你永远无法在某个瞬间突然宣称“我现在理解大脑了”,正如你不会声称“我现在弄懂纽约了”一样(利希曼,引自吉丘恩茨,2021)。
现代机器学习很大程度上仿效人类大脑的运作机制——神经网络。在神经网络中,每一层都包含一组属性(即特征),网络中的每个神经元,都会根据该特征在预测中的重要性被赋予特定权重。人类可以被分类的方式无穷无尽,比如被拆解成数万个属性(瞳色、发色或腰围等),并根据分类目标对这些属性进行排序或分组。正是这一系列特征与权重的组合造就了人类的独特性;但在神经网络中,人类被拆解为零件化的组件。神经网络的核心任务,正是确定人类的哪些特征能提升预测或分类的精度。目前,被广泛运用的机器学习算法——“梯度下降法”(gradient descent)——通过不断调整模型中不同参数的“权重”,使模型达到能够优化预测价值的“局部最小值”(local minima),即降低成本函数(cost function,用于衡量模型预测结果与真实情况之间误差大小的指标)。
神经网络的精妙之处在于,权重分配并不受理论驱动。通过“反向传播”(backpropagation)机制,模型在将单个训练样本与最终层的输出结果进行对比后,沿神经网络层逆向回溯,调整权重的数值大小与方向以得出“正确答案”。若某个样本的输出结果呈现“随机噪声”(random noise)或预测效果不佳(即成本函数值偏高),模型便会“反向传播”至前一层,重新调整权重的数值大小与方向,从而最小化成本函数(即更接近正确答案)。
这正是我在本书中所提到的“算法难题”。当个体以算法难以预测的方式行事、成为“异常值”时,“模型拟合度”便会受到影响。用机器学习领域的术语来说,一个“难以分类”(difficult to classify)的案例会提升“降低模型的成本函数”的难度(即削弱模型在数据预测中的“拟合度”)。
我们几乎并不了解,将人类自身拆解为成千上万个特征并赋予不同权重,从而为分析者提供关于个人行为的强力线索,这究竟意味着什么。如果这些模型的效用有限,通常存在两种可能:a)由于数据量不足,无法实现精准预测;b)人类行为本身过于多变且不可预测,以至于我们根本无法成为一个可以通过算法解决的“问题”。如果情况属于前者,解决之道在于收集更多数据;但如果后者才更接近现实,那么答案又会是什么?
鉴于数据和算法对人类行为的预测能力存在局限性,优化问题的解决方案将转变为:改变研究对象的行为,使其行为方式与模型的契合度更高。
用机器学习领域的语言来说:我们正面临日益加剧的风险——算法不是在更好地预测我们的行为,而是我们被诱导遵循算法推荐而行事。我们会形成埃罗迪(2021)所说的“机器惯习”(machine habitus,指数字环境下内化的算法化行为倾向与认知框架,是基于社会学家皮埃尔·布迪厄“惯习”概念在算法社会的理论延伸),以一种“自我算法化”的方式对周遭世界进行分类与归纳,并一步步靠近由算法所勾勒的自我形象。模型在对我们进行分类的同时,我们也在学着如何“自我分类”;或用“梯度下降算法”的术语来说,我们正不断“趋近局部最小值”。
何塞·马里查尔是加利福尼亚路德大学(California Lutheran University)的政治学教授,主要研究方向为算法与人工智能如何重塑社会及政治机构。