扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
2025-12-23 23:53

快手被黑产攻击事件敲响警钟:AI治理是否需要“保险药方”?

本文来自微信公众号: Internet Law Review ,编译:互联网法律评论,作者:施瓦茨&沃尔夫


今日,快手平台遭遇的“黑灰产攻击”持续刷屏,再次以一种尖锐的方式将技术系统的脆弱性置于聚光灯下。这场发生在当下的“网络安全事件”,恰如其分地为一场关于未来“人工智能治理”的高阶辩论提供了最鲜活的注脚。当我们的社会日益构建于复杂的技术系统之上时,能否用保险机制来管理其带来的新型风险?


快手的系统复杂性似乎印证了Schwarcz和Wolff所分析的保险公司技术评估的艰难;其故障引发的连锁反应,更是系统性风险的直观体现。他们以网络安全保险的发展历程为镜,指出一个残酷的现实:保险商可能既无能力也无动力去精确评估和定价AI风险。然而,Trout则试图为我们描绘另一条路径:历史上,保险业曾在火灾、汽车和核电等领域成功扮演了“私人监管者”的角色,通过风险定价、安全标准和损失控制,推动了整个行业的安全水平。因此,我们不能因噎废食,而应通过政策引导和市场创新,主动将保险塑造为督促企业加强安全投入的“私人监管者”。


这场辩论揭示了AI治理的综合性需要:我们既需要政府的权威和远见,也需要市场的灵活与效率。答案或许并非二选一,《互联网法律评论》今日刊登两篇文章,呈现了一场关于保险在AI治理中角色的深度辩论,迫使我们去思考,如何将这些碎片拼成一幅完整的、能够保障我们未来的安全图景。


大多数人认为,提升人工智能安全性的最有效途径是确保人工智能开发者对其系统造成的任何损害承担责任。但数据泄露、网络安全和网络保险的历史给我们敲响了警钟:正是因为责任保险公司在人工智能风险定价和承保方面不可避免地扮演着关键角色,我们才特别有必要对“责任制对于提升人工智能安全性究竟能发挥多大作用”保持警惕。


笔者认为,责任保险公司不太可能以鼓励企业降低人工智能安全风险的方式来定价。相反,就像网络保险市场一样,保险公司往往会基于企业规模和行业等粗略指标来确定保费。这些因素或许足以维持保险公司的偿付能力,但却无助于激励企业在人工智能安全方面做出实质性改进。事实上,这些因素会向企业发出信号:投资人工智能安全不太可能降低保费。保险公司之所以会依赖这种粗略的指标,是因为在人工智能安全等领域,更精细的基于风险的定价极其困难。这些领域历史损失数据有限且更新迅速,评估单个企业人工智能系统的安全性需要大多数保险公司不具备的专业技术知识,以及大量支出——而那些希望在快速增长的保险领域展开竞争的保险公司往往会放弃这些支出。


我们得出这些结论是因为同样的动态已经在网络安全和网络保险领域上演。2002年,美国加利福尼亚州通过了美国首部数据泄露通知法SB 1386法案,要求公司报告影响加州居民的个人信息泄露事件。该法案打开了潘多拉魔盒,让人们能够了解自己的信息被盗的所有情况,并起诉相关公司。


早期旨在帮助企业减轻法律成本的数据泄露保险政策推动了网络保险行业的发展。如今,网络保险涵盖的风险范围广泛,从数据泄露和拒绝服务攻击到勒索软件和监管调查,无所不包。为了获得这些保单,企业通常需要填写冗长的问卷,详细说明其安全实践和状况,有时还需要实施特定的安全控制措施,例如多因素身份验证。即便如此,保险公司仍然难以确保这些控制措施得到妥善实施和维护,甚至难以确定哪些控制措施对于降低网络风险最为关键。


开发和使用人工智能模型的公司也会寻求保险公司的帮助,以支付因使用人工智能而产生的任何新责任成本。然而,保险几乎肯定无法让人工智能变得更安全。为了理解这一点,不妨回顾一下网络保险的例子,看看被寄予厚望网络保险是否能够帮助解决网络安全问题。


一、前车之鉴:网络安全保险的未竟之诺


2012年10月,美国国土安全部在华盛顿特区召集专家举行圆桌会议,责成他们找出阻碍网络保险市场增长的障碍,并探讨“如何推动网络安全保险市场的发展”。政府重视网络保险市场的发展,因为它认为这对网络安全至关重要。


当时公共部门和私营部门都认为,保险业比政府更有能力应对网络风险。保险业能够更好地收集网络风险数据,因为它可以获取过往理赔信息;它能够更好地利用这些数据,了解哪些安全工具真正有效阻止了网络安全事件,从而确定最有效的安全控制措施和预防措施;此外,保险业还可以通过提供保费折扣来激励企业使用这些工具。更重要的是,保险业能够跟上网络威胁不断变化的步伐,因为保险公司每年都会更新客户的保单——而政府可能需要数年时间才能通过一项法规。


然而,问题在于,这个愿景并未实现。网络保险市场确实发展壮大,但它并没有制定一套网络安全最佳实践,也没有为客户提供实施这些最佳实践的折扣,从而成功地在全国范围内推广有效且定期更新的安全控制措施。最终形成的网络保险行业,虽然能够帮助企业承担与网络安全事件相关的成本,并帮助它们规避责任,但实际上却很少能够真正加强企业的网络安全或更好地保护其计算机系统。


网络保险行业的失败为思考政策制定者是否需要通过追究责任来提升人工智能的安全性提供了借鉴,因为保险和责任未能提升计算机系统安全性的许多原因同样适用于人工智能。


二、根源剖析:保险治理网络的三大困境


要了解在应对人工智能安全风险时责任和保险的局限性,看看同样的方法在网络安全领域为何会失败是很有帮助的。


首先,保险公司在着手构建网络风险模型并进行定价时,面临着收集完整、一致的网络安全风险数据的巨大挑战。许多网络安全事件并未上报,而且网络安全事件的攻击者往往会随着目标实施新的防护措施而改变策略。因此,即使能够收集到去年的网络安全事件数据,也未必能预测这些攻击者今年或明年的行动,这使得精算师构建可靠模型更加困难。这些挑战在2019年和2020年达到了顶峰,勒索软件索赔的激增令网络保险行业措手不及,也暴露出保险公司对如何预测和应对勒索软件知之甚少。


在数据收集和构建有效的风险模型方面,人工智能也面临着许多类似的挑战。关于人工智能造成的危害,我们目前掌握的数据非常有限,现有的数据来自自愿公开的人工智能危害报告,但企业几乎没有动力公开其失败案例,而且有充分的理由试图掩盖它们。因此,我们往往对这些案例及其发生机制了解不足,无法就如何更好地预防未来发生类似事件得出有意义的结论。


随着时间的推移,数据收集工作可能会有所改进。然而,正如我们在网络保险领域所看到的,如果保险公司担心收集导致索赔的事件的详细数据会使投保人承担更大的责任,那么他们可能就不会收集这些数据,因为原告可能会获取这些事件报告并利用它们来构建更有力的诉讼理由。


第二,网络保险行业面临如何评估投保人的网络安全状况的巨大障碍。大型企业的计算机系统通常是复杂庞大的网络,涉及众多不同的软硬件。识别所有潜在漏洞及其攻击途径需要大量的测试和技术专长。然而,保险公司从未对潜在客户的计算机进行深入的技术评估,而是主要依赖于冗长的问卷调查,询问投保人数十个关于其安全实践的问题:他们是否使用加密和多因素身份验证?他们是否有事件响应计划?他们是否定期修补软件?但这些问卷调查并非总能捕捉到计算机系统安全保护中的细微差别——一家公司可能对其数据进行了加密,但加密实施得并不完善;或者使用了多因素身份验证,但却忘记为某些遗留账户启用该功能。换句话说,仅仅提出问题并不等同于验证安全控制措施的具体配置方式并对其进行长期监控。


由于保险公司很难评估客户的网络安全状况,大多数保险公司只是根据公司的收入和行业来确定保费,而不是将其与安全措施挂钩。因此,保险公司非但没有激励公司投资于更好的网络安全,反而传递出这样的信息:无论公司采取什么措施来保护数据和网络,保费都不会改变。


人工智能保险面临着类似的挑战,因为评估人工智能系统的安全保障,其难度和技术复杂程度甚至超过了评估标准计算机系统的网络安全。由于在如何保护人工智能系统方面缺乏明确的共识,保险公司几乎不可能将保费与其客户的人工智能保护措施挂钩,因此,这些保费也意味着人工智能公司缺乏动力在安全防范措施或测试方面投入巨资。


第三,灾难性网络风险可能动摇整个行业的稳定。通常,保险公司在销售保险时会尽量分散客户群体,以避免所有客户都受到同一事件的影响——例如,向不同地区或行业的公司销售保单,这样一来,袭击某一地区的飓风就不会同时影响到太多投保人。但网络安全事件很难做到这一点,因为它们很容易跨越地域和行业,尤其是在每个国家和行业的公司都依赖于数量有限的操作系统和云计算提供商的情况下。Windows操作系统或亚马逊网络服务中的一个漏洞可能会影响保险公司庞大的客户群,造成巨额损失。


人工智能行业同样高度集中,少数几家大型科技公司提供的基础模型被绝大多数公司所依赖。因此,一旦某个被广泛使用的模型出现漏洞或故障,后果可能迅速升级,影响保险公司相当一部分的投保人。鉴于这些原因,保险公司很可能会像网络保险一样,将部分此类风险排除在承保范围之外,或者限制其愿意出售的人工智能保险额度。


三、AI的困局:重蹈网络安全保险的覆辙?


当然,网络安全和人工智能之间存在一些显著差异:


首先,人工智能造成的危害可能源于蓄意攻击,但也可能由意外故障和错误引起,而网络安全事件几乎总是人为造成的。理论上,这使得利用历史数据预测和建模人工智能风险变得更加容易,但人工智能的快速发展使得这种方法在人工智能已部署一段时间的特定领域之外几乎不可能奏效。一些保险公司多年来提供的“窄范围性能保证保险”就体现了这种局限性,但此类产品无法涵盖许多评论员设想的责任保险所涵盖的人工智能安全风险类型。


此外,目前大多数网络风险都已包含在独立保单中,但人工智能风险由于与其他领域紧密交织,因此分散在不同的保险产品线中。但这实际上可能会使保险公司更难掌握人工智能风险的建模和缓解措施,因为他们将减少专注于在单一产品线中发展人工智能专业知识的机会。


综上所述,这些与网络保险的相似之处表明,人工智能责任及其衍生的保险市场在提升人工智能模型安全性方面极不可能取得实质性成效。当然,监管机构不可能面面俱到,但他们应该要求企业报告人工智能造成的损害,并尽早开展审计和测试,而不是坐等保险业来解决这个问题。

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: