正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2023-09-01 08:59
幕后之人:网络世界中的螺丝钉

本文来自微信公众号:经观书评 (ID:jingguanshuping),作者:叶克飞,头图来自:视觉中国

文章摘要
本文介绍了网络世界中的螺丝钉——内容审核员的工作现状和困境。他们需要观看大量令人不适的内容,导致身心受损,但他们的工作对于社交媒体平台和品牌保护来说是不可或缺的。作者通过调查研究揭示了内容审核工作的各个方面,并呼吁更多关注和保护这群人的权益。

• 内容审核员需要观看大量令人不适的内容,导致身心受损

• 内容审核对于社交媒体平台和品牌保护来说是不可或缺的

• 内容审核工作存在着低薪、缺乏保障和心理压力等问题

中间机制始终存在


美国曾有一篇新闻报道,指一家公司主要为客户提供业务流程外包服务,其中一项拓展业务是内容审核,即雇佣小时工为大型网站审核用户生成内容,涵盖上传到社交媒体平台上的所有图片、视频和文本等。


报道中提到,公司员工在这项工作中遭遇了极大的身心损害,这是因为他们必须观看许多令人不适的图片和视频,如淫秽画面、仇恨言论、虐待儿童和动物的画面,以及未经剪辑的战场片段,导致他们身心俱疲甚至濒临崩溃。


也正因此,一些专门从事内容审核的公司开始为那些在审核过程中感到烦闷和压抑的员工提供心理咨询。美国学者莎拉·罗伯茨在《幕后之人:社交媒体时代的内容审核》中写道:“他们仅仅领着八美元的时薪,却要为此观看用户上传到社交媒体平台和网站上的那些令人不适的内容。这些内容是如此不堪入目,以至于许多员工最终都得接受心理咨询。”


但对于社交媒体平台以及任何将产品放在网络上供用户公开评价的公司来说,这种审核又是不可或缺的,仅仅是品牌保护这项需求就足以促使他们这样做。


《幕后之人:社交媒体时代的内容审核》

[美]莎拉·罗伯茨 /著

罗文 /译

万有引力 | 广东人民出版社

2023年5月


许多互联网终端用户都认为,自己与社交平台的关系很简单,只需要上传内容就会对外传播。但实际上,中间机制始终存在,涉及一系列行为、政策和工作者,也就是互联网审核。


说到互联网审核,它最初是一种商业性质的行动,始终伴随着互联网的普及,从一开始就是互联网社会的一部分。社交媒体无疑是互联网世界的颠覆性和跨越式发展,但也让互联网审核出现了“突变”:更繁琐、工作量更大、难度也更高。


也正是社交媒体时代,使得“如果你给互联网开一个口子,它就会被‘垃圾’填满”这句话无比接近事实。


虽然许多人都在抱怨互联网过于繁杂,纷争越来越多,但即使是眼下所见,也并非互联网原本的面貌。《幕后之人》告诉我们:一个隐秘且庞大的内容过滤机制,已经事先为用户扫除了无数劣质、不良的内容。


无论是这套商业过滤机制的操控者,还是具体筛查工作的执行者,仍然是活生生的人——“全世界都能找到他们的身影。他们可能在舒适的硅谷科技公司总部,可能在仓库或摩天大楼中的隔间里,可能在某个乡村或者超级城市马尼拉,也可能在太平洋西北地区的家中用笔记本电脑办公,同时照料着孩子。那些支付且依赖这项服务的平台用户,大多对他们的工作内容、工作条件和待遇一无所知。事实上,这种隐蔽性是人为设定的。”


2010年到2018年,莎拉·罗伯茨展开了漫长的调查研究,突破互联网公司保密协议、地域限制等重重阻碍,访谈了许多离职及在职的商业性内容审核员,以及包括业内人士、学者、律师、记者等在内的群体,全面考察了互联网商业性内容审核工作的不同类型,揭示了审核员们的生存境遇,并针对内容审核过程中出现的政策争议、犯罪制止、社会影响等进行阐述。


莎拉·罗伯茨写道:“审核员在做判断时需要考虑社交规范、文化美学、内容策展以及内容是否符合站内规则和外部法律等诸多方面,但他们却是公司里薪酬最低的员工,同时还要承受工作所带来的伤害。”


她试图解答这一系列问题:在一个自动化、智能化的时代,互联网的商业性内容过滤机制为何仍然需要大量人力的投入?从事这项工作的普通员工,他们每天如何开展工作,面对的是什么,又遭遇了什么?他们的经济权益、身心健康是否得到了保护?他们对于自己的劳动、社交媒体经济乃至互联网的文化和政策,又有哪些敏锐的理解和洞察?


更重要的问题是:为什么我们没有集体讨论过这群人、他们的工作以及他们所受的影响?既然互联网已经融入了成千上万人的生活,为什么我们没有讨论过这项工作对于互联网的影响?


最终,莎拉·罗伯茨希望:“他们可以离开阴影处,从屏幕后面走出来,走到有光亮的地方来。”


技术从不是中立的


莎拉·罗伯茨在研究了美国互联网领域的状况之后,如此总结业界生态:“如今大多数人眼中的互联网,其中的绝大部分领域都由私营企业所管理,而人们几乎没有任何掌控。这些企业通常是跨国巨头,与其初创所在地的政府关系密切。这种私有化存在于网络服务的各个层面,比如为全球计算机提供主干网的公司之中,只有五家大型公司(二级、三级主干网也几乎都掌握在少数跨国媒体和通信巨头的手中)才能够提供接入私营平台内容的服务。”


至于商业性内容审核,则是强大的管控机制,它在为私营企业服务的过程中,伴随着私营企业一同成长起来。这些私营企业运营的平台和服务组成了一个高度规范化、中介化和商业化的网络。


虽然技术无止境,但仅仅从目前情况来看,完成大部分内容审核工作的并不是先进的人工智能和深度学习算法,而是薪资低微的普通人。这个隐藏在幕后的机制,包括了提供劳动力的外包公司、有相关需求的大型网络平台,以及将有害画面和有害信息挡在用户视野之外的审核员。


这部分“幕后群体”并不为大多数人所熟知,不过仍有一些人敏锐发现了它的优劣所在:有人曾阐释搜索功能如何构建对性别、性向和种族的有害表述;有人曾探讨在智能助理(或者说拟人化的虚拟助理,简称AVAs)设计过程中存在的人为干预以及内嵌的价值体系;有人通过为期十年的研究记录了Facebook二元性别选项的影响,及其在性别表达和性别选择上的衍生影响……


这一切都不意外,正如莎拉·罗伯茨所写的那样:“技术从来都不是中立的,也不是‘先天’为善或者没有影响的。恰恰相反,它们作为一种社会技术建构,必定会反映创始人的想法。同时,它们创立的目的是服务某些东西或者某些人,无论其创立初衷就是如此,还是后期在适应和抗拒过程中演变成这样的。”


技术的应用和普及,始终在影响着权力的积累和扩张,也影响着资本与文化。女性被系统性排斥就是非常典型的例子,在技术发展史上,女性的地位始终被边缘化。英国早期从事计算机编程工作的女性总被刻意打压,这也被视为英国在全球计算机产业中相对落伍的一个因素。


社交媒体更是内嵌着人类的价值观,人们使用软件时,各种操作正是他们理解自身、他人和世界的体现。同时。“软件设计和人机交互反映了一种更宏大的社会逻辑、意识形态和对当代社会的想象。”至于那些色情暴力的糟糕内容,仅仅是这些价值观和逻辑的部分衍生物。


既然技术呈现着人的意志和思维,它的走偏也需要人来纠正。用技术纠正技术,从目前来说是做不到的。即使人工智能可以识别部分不良内容,但面对海量内容,加之用户上传内容的信息、意图和潜在后果十分复杂,算法显然无法负荷。


一份吃力不讨好的工作


莎拉·罗伯茨以Megatech公司为例子,试图诠释审核员这个职业。Megatech公司是跨国上市公司,可以说是这个行业的天花板,它的员工也代表着这一行业的上限。但遗憾的是,这个群体的待遇也远远算不上好。


这家公司的审核员,每人每天要利用专门审核工具,审核1500~2000个视频。用户举报的视频首先会经过机器筛查,没有被删除的部分以缩略图形式发送到员工手中进行判断。因为互联网信息时时刻刻都在更新,所以审核人员必须几班倒,24小时始终在线工作。


这不仅仅是一份任务繁重的计件工作,还是一份附加了大量负面信息的计件工作。因为他们所要审核的视频都涉及暴力、色情、骚扰和仇恨等负面内容,在工作时间内,审核人员只有短暂的休息和吃饭时间能够远离它们。而且这些负面内容的糟糕程度远远超出大多数人的想象——比如恐怖分子处决人质、虐待动物和战争杀戮等。书中就写道,因为看多了斩首视频,一名审核人员甚至可以从尸体照片判断出刽子手使用的刀具长度与类型。


所以审核员必须面对不高的薪水、到期即走的合同、长期守在电脑前的颈椎和肩周等健康问题,还有更严重的心理问题。因为长期被暴力、血腥或色情等视频骚扰,他们很难控制自身情绪,因此会衍生酗酒等问题。“这些内部合同工从Mega Tech的旋转门中走出去,留不下任何痕迹,除了一行简历,以及对人性阴暗面的感受,他们努力忘记,但却是徒劳。”


而且,这一行的从业者还面临着痛苦无处诉说的困境。他们要签署保密协议,对工作内容严格保密,甚至不可以主动公开自己从事的职业,其目的是为了保护平台网站的形象。


莎拉·罗伯茨写道:“对于这些依赖用户生成内容的公司来说,至少还有一个原因使得它们不愿意公开其内容审核活动。它们对于大规模、产业化的内容审核的依赖是一种无奈之举,如果这种需求被人们知晓并完全掌握,平台的阴暗面就有可能暴露,即用户会利用它们的分发机制来传播令人反感和不适的内容,而大多数主流平台都不愿意给公众留下这种印象。”


虽然工作枯燥乏味且心理压力极大,但因为对言论、图片等的界定往往涉及政治、经济和文化层面,所以也需要审核人员有一定的知识基础。前些年,欧美科技公司招聘内容审核员时,往往以名校学生为主。


但这带来了更大的职业幻灭感:高学历名校生面对这个实际上门槛不高、技术元素和成长空间都非常有限的工作,很容易失去耐心。虽然偶尔也会有一些职业成就感,比如给执法部门的报告可以抓获某个嫌疑人,或者使某个儿童脱离危险,又或者挽救一个试图自杀者,但这种正向结果实在太少。


后来,外包成了相当主流的做法。这是常见的成本转移。而且外包公司也不是“最前线”,有些有专门的审核中心,还有一些则选择继续分包,或是借助零工平台招聘个体零工。在成本下降的同时,也让这份工作变得更加没有保障。


而从工作效果来说,外包让审核变得更为低效。严格来说,审核员不仅仅应该有一定文化素养和分析能力,还需要客观,因为他们不是单纯的网民,而是平台风气的塑造者之一。可在降低成本的前提下,商业平台又将审核视为一项价低者得的低门槛工作。


美国就是如此,行业会大量聘用无需提供保险的临时工,合同也是短期的,往往以时薪计算且没有任何福利。大多数从业者在工作满一年后都会遭遇实质上是逼迫辞职的假期,即强制休息三个月,之后才有资格续签合同,但大多数从业者显然无法承受这样的等待。在恶劣的竞争状态下,行业整体素质也沙河日下。


此外,欧美地区还会将审核业务进一步外包给人力成本更低的东南亚,比如菲律宾就是“审核重镇”。这很大程度上造成了新的剥削模式,即“当一个地方选择接受远方的国家和经济体所主导的发展周期和商业周期时,它收到的不只是这样有形的干扰”。


互联网的自由离不开约束


从某种意义上来说,互联网是一个充满矛盾和悖论的体系。它的构架和数据传输都高度程序化、依赖协议,但内容上又高度自由,正如《幕后之人》所言:“许多互联网拥护者早期对它的一个核心愿景,便是互联网的架构和伦理观决定了它对任何形式的审查都具有高度的抵抗力。”


可是,如此崇尚自由的互联网系统,在早期在线社群中就已出现不同形式的内容审查。最初,“这项任务通常由一些人自愿承担,根据是社群内部的社群规范和用户行为的参与规则。社群内部的审查方式和风格会带来不同的社群氛围,比如有的社群强调严格遵守规则,有的社群则提倡无政府主义式的管理。”但不管是严格还是宽松,社群都不希望内容审查这一元素被用户们所熟知,因为它们依赖用户生成内容,之后逐渐成熟的互联网行业体制显然沿袭了这一思路。


美国全国公共广播电台(NPR)的《万事皆晓》栏目早年调查互联网审核工作时,曾试图采访微软和谷歌的审核人员,但遭到拒绝。2013年,该栏目的《阻止儿童色情内容的幕后工作者》报道中,一位微软方面的发言人轻描淡写地将内容审核工作称为“脏活”。


“脏”不仅仅是互联网公司高层的看法,也是从业者自身的看法,他们认为自己从事的是互联网最底层也最肮脏的工作。尤其是在现行行业体制几乎完全被审核需求强烈的社交媒体公司所支配的当下,这一思维更是变得根深蒂固。它甚至让审核人员的低薪也变得理所当然,在同一栋互联网公司大楼里,他们往往是收入最低的一群。


但就像莎拉·罗伯茨希望的那样,这一群体理应走到幕前,得到更多的了解和理解。在商业性的互联网领域里,“审核”看似一种对自由的约束,但它对暴力、色情和种族歧视等内容的把关却是不可或缺的。或者说,正因为“审核”这一约束性的存在,才保障了大多数人的上网自由。


本文来自微信公众号:经观书评 (ID:jingguanshuping),作者:叶克飞

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
文集:
频道:

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: