扫码打开虎嗅APP
本文来自微信公众号:红流AKASHIO,作者:林彤川,题图来自:AI生成
关于“平台如果停止谣言审核会怎样”,从没有过真正的答案。
原因很简单:自网络谣言被摆上台面后,就再也没有哪家大型互联网平台敢去做这个实验。
直到 2025 年 1 月 7 日。
那天,扎克伯格穿着黑色 T 恤,在一段视频里宣布:Meta 决定“回归言论自由的根基”——终止第三方事实核查,把内容核查的权力交还给用户,由社区注释(Community Notes)自主完成。没有事先征询用户,没有伦理委员会审批这个方案。
他就这样展开了“实验”。实验对象是 35.8 亿日活用户,没有截止日期。
但一年后,“实验”结果出来了。
两份报告同时出炉。一份来自第三方组织的安全评估:平台上 72% 的用户曾被暴露于仇恨内容,弱势群体的有害内容指标“显著上升”,Meta 自己设立的监督委员会写道,社区注释替代方案“并非适当替代品”。另一份来自 Meta 财报:全年营收 200.97 亿美元,日活跃用户 35.8 亿,广告收入增长 24%。每一项指标都是历史新高。
这就是“实验”结论,没有任何歧义:舆论场更烂了,平台更赚钱了,这两件事不矛盾。
这个结论的意义,远不止于 Meta。
要讲清楚这件事,先要说清楚 Meta 原来是怎么做的,以及这次到底砍掉了哪些东西。
Facebook 的第三方事实核查体系始于 2016 年美国大选之后。
“假新闻”引发全球恐慌,国会召开听证会,舆论持续施压,Meta 的应对方案是:与全球数十家通过国际事实核查网络(IFCN)独立认证的机构签约,包括美联社、法新社、路透社等主流新闻机构。这些机构的核查员拿着 Meta 支付的薪酬,每天上班,专职审查平台上被用户举报或算法标记的可疑内容。
一旦某条帖子被认定为虚假或部分虚假,它会被打上醒目的“虚假信息”标签,算法分发权重大幅压低,相关话题的延伸内容也会受到连带限制。
这套机制运行了将近八年。它不完美——有选择性盲区,有政治偏见的指控,也有被误判的案例。但它有一个难以替代的属性:有人签名负责。每一次核查背后,都有一个注册在案的机构、一位可被追溯的核查员。
2025 年 1 月,这套机制被整体关掉了。同时被关掉的,还有两项更少被提及的东西:针对性少数群体的仇恨内容专项限制,以及对政治类内容的算法主动限流政策——后者曾是 Meta 在 2021 年 1 月 6 日国会山事件后的重要自我承诺。这些细节,在扎克伯格那段“回归言论自由”的视频里,几乎没有被单独提及。
接替这一切的,是社区注释。
也就是我们在微博和 X 上能看到的那种,由其他用户发起的,可以贴在可疑帖子下面的那种产品形式。
Meta 全球政策主管 Joel Kaplan 把终止第三方事实核查这件事,包装成了一次“纠正错误”的进步。据 Meta 官方通报(2025年5月),从 2024 Q4 到 2025 Q1,内容执法错误率下降了约 50%。博文的标题叫“More Speech and Fewer Mistakes”——更多言论,更少错误。
听起来很美。
但数字权利组织 SMEX 随即拆穿了这个逻辑:错误率下降,是因为 Meta 大幅减少了对低严重性内容的执法动作。看的少了,当然抓错的少了。数字好看,安全标准没变。
更直接的反驳来自 Meta 自己。
Business Insider 在 2025 年 5 月报道,Meta 内部数据承认:内容审核政策调整后,骚扰内容和图形暴力内容实际上升了。这组数字与“错误减少 50%”并列放在一起,制造出一种精准的内部矛盾——错误的定义悄悄换了,安全标准没有跟着换。
“更多言论,更少错误”这个口号,最精妙的地方就在这里,最大的谎言也在这里。
在继续之前,有必要解释一下社区注释究竟是怎么运转的——因为如果不了解机制,后面的数字会显得莫名其妙。
社区注释的逻辑直接借自 X(原 Twitter)2021 年推出的 Birdwatch 计划,Meta 几乎原封不动地复制了过来。
机制本身并不复杂:任何普通用户都可以对一条帖子提交纠错注释,说明它为什么具有误导性。但注释不会自动显示——它需要经过一套“跨立场共识”算法的审核:系统评估各提交者的历史观点倾向,只有当来自不同政治立场、不同背景的用户同时认为某条注释有帮助,它才会对所有人可见。
设计初衷是好的:防止注释本身被某一派系劫持,成为另一种形式的信息操控。代价是:绝大多数注释死在了共识门槛前,永远不会出现在任何人的屏幕上。没有专职人员,没有截止时间,也没有人对“注释没有出现”这件事负责。
替代品社区注释的表现则更直接。
宾夕法尼亚大学的研究(PNAS,2025)显示,社区注释平均需要 7 小时才能对一条帖子完成注释,最长可达 70 小时。而一条虚假信息在 Facebook 上的黄金扩散期往往只有头几个小时。等笔记出现的时候,谣言已经跑完了全程——注释不过是留在尸体旁边的一张迟到的纠错单。
不仅如此:所有提议笔记中,只有十分之一能最终通过并对用户可见。
6 个月时间,社区注释在美国一共产出了 900 条可见笔记。对比数字:同期,欧盟市场的第三方事实核查机构为 Meta 平台标注了 3500 万条内容标签(Poynter / EFCSN 数据)。
这种悬殊的数据对比几乎证明了社区注释在非广场式社交的 Facebook 里几乎行不通。
差距不在执行力,在结构设计。社区注释能有效运转,依赖的前提是一个足够多元、愿意主动投入内容纠错的用户社区。这个前提在 X(原 Twitter)上尚且存疑,在 Facebook 上更是从未被认真讨论过。
Meta 监督委员会在 PAO-007G5ZUV 号裁定中直接写道:社区注释并非第三方事实核查的“适当替代品”。
这不是外部批评者的声音,是 Meta 自己设立、自己资助的监督机构,给出的正式书面结论。
舆论场的恶化与营收创高,并不是偶然的并行。它们是同一套机制的两个输出端。
BBC 在 2026 年 3 月发布了一篇深度调查,标题叫《深入愤怒机器》(Inside the Rage Machine)。报道披露,Meta 内部早已知晓愤怒内容能显著拉高用户参与度,并主动放松了对这类内容的限制。逻辑链条并不复杂:愤怒内容 → 更长的停留时间 → 更多的广告曝光机会 → 更高的收入。
这个飞轮不需要任何人开会“决定”要屎化平台——它会自动运转。
从广告商业模型的角度看,拆掉内容审核之后,传统意义上影响广告收入的三个变量同步改善:用户停留时长上升(情绪激烈的内容更难滑走);内容“有争议”的标签减少,算法不再压低相关帖子的广告加载率;用户在平台上暴露的真实情绪反应增多,精准定向投放的质量随之提升。三件事叠加,等于相同规模的用户产出了更高的货币化效率。不需要新增用户,只需要更充分地利用现有用户的注意力。
与此同时,Reuters 在 2025 年 11 月的调查揭示,Meta 平台上的诈骗广告每年贡献约 160 亿美元的收入。这意味着:Meta 部分的“增长”,直接来源于对有害内容的系统性容忍。
这时候,一个合理的预期是:广告主会用脚投票。
他们没有。广告主没走,用户也没有走。2025 全年,Meta 旗下三款产品的合计日活从年初的 33 亿增长至年底的 35.8 亿。真正意义上的替代品没有出现:Mastodon 的月活在这一年约为 1000 万,BeReal 已在 2024 年以低价被收购。每次用户宣布“要删 Facebook”,往往只是一周后又悄悄打开。不是没人想走,是走了之后没有地方可以去。
Business Insider 在 2025 年 1 月 8 日发布了一篇报道,标题直接:“广告主表示,Meta 在内容审核方面的调整令他们感到不安。不过,他们并不会因此停止投放。”
拿 X(原 Twitter)做对比会更清楚。Musk 收购后,X 同样走向了内容放松路线,广告收入直接暴跌 60%。然而,在 Meta 35.8 亿日活用户面前,没有任何一家广告主拥有真正的议价权。
营销机构 Digiday 在 2025 年的年度总结里写道:X 的前百大广告主中,已有 72 家彻底离开;Meta 的广告主,一个都没有真正出走。
反讽背后,是冷静的产业判断:在这个量级的流量面前,“品牌安全”从来都是谈判筹码,而不是原则。
有一个案例最能说明问题。加拿大联邦政府曾以 Meta 屏蔽新闻内容为由,高调宣布抵制广告投放。然后,在 2025 年,政府宣布正式解除抵制,重返 Meta 平台。连主权国家政府组织的集体抵制都维持不住——“别无选择”这四个字,说的是真的。
这场危机还有一个很少被单独讨论的维度。
欧盟市场,因为 DSA(数字服务法)的约束,Meta 保留了第三方事实核查机制,欧洲用户的体验与美国用户正在出现结构性分歧。同一家公司,在不同司法管辖区执行截然对立的内容标准。这个现象,姑且叫它“规则巴尔干化”。
平台正在学习,如何像操作调光开关一样,对不同的市场执行不同程度的内容管控。
一个具体的画面:一位欧洲用户和一位美国用户同时打开 Facebook,登录的是同一家公司的同一款产品。欧洲时间线上的某条政治性帖子,可能附有法新社或路透社核查员的独立标注;同一条帖子,在美国用户的时间线上什么都没有,或者有一条需要七个小时才会出现的社区注释。哪里有法律硬要求,哪里就做;哪里没有,就按照利润最大化的方式来。
这件事后来有了一个更直接的验证。欧盟委员会在 2025 年 10 月启动了对 Meta 的 DSA 正式调查,质疑其社区注释机制是否符合欧盟标准。Meta 没有在欧洲推广社区注释,不是因为理念上反对,而是因为 DSA 的处罚上限是全球年营收的 6%——相当于超过 120 亿美元的潜在罚款。合规,是较便宜的选择。
经济学里有个叫“价格歧视”的概念:同一件商品,向不同消费者收取不同价格,以榨取最大的消费者剩余。Meta 的这套操作,是平台治理领域的“标准歧视”——同一套内容,向不同司法区的用户提供不同程度的保护,以榨取最大的监管套利空间。
评论尸在《互联网是人类历史的一段弯路吗?》里曾追问互联网是否正在走向分裂。现在答案更清晰了——互联网早就分裂了,只是分裂的方式越来越精细、越来越体面。
它是合法的。它甚至可能是理性的。这才是真正的问题所在。
加拿大科幻作家 Cory Doctorow 在 2022 年提出 enshittification(平台屎化)的时候,描述的是一个三段式衰退路径:先对用户好,再对商业伙伴好(牺牲用户),最后只对自己好(牺牲所有人)。这个模型有个隐含前提:衰退会来,总有一个时刻,代价会传导回平台自身。
Meta 的这一年提示,在足够大的规模面前,那个时刻可能一直不会来。
市场没有惩罚它。广告主没有离开它。监管在欧盟发挥了部分作用,在美国几乎没有。用户——35.8 亿个——继续每天打开 Facebook 和 Instagram。
这个“实验”回答了“停止谣言审核会怎样”这个问题。答案比预想的更无聊,也更难接受:基本什么都不会怎样。平台照样运转,照样赚钱,照样不可替代。
变坏的,是那个每天有 35.8 亿人在里面刷内容的舆论环境。
这很重要,但它不在任何一份财报里。
本文来自微信公众号:红流AKASHIO,作者:林彤川