扫码打开虎嗅APP
本文来自微信公众号: 数字经济发展评论 ,作者:数字经济发展评论
随着人工智能辅助编程普及与开源软件依赖持续增加,软件供应链安全风险与监管压力不断上升。
本文指出,人工智能辅助开发的广泛应用,开源软件漏洞数量显著增加,软件安全风险结构正发生结构性变化。文章同时关注代码库规模扩大、依赖关系复杂化以及AI生成代码带来的许可与知识产权风险,并强调企业需要提升软件组件可见性,建立自动化安全治理机制与来源追溯体系,以应对不断累积的软件供应链风险。
原文标题:Open-Source Vulnerabilities Double as AI Coding Grows
原文来源:电子商务网
原文编译:数字经济发展评论
根据黑鸭软件(Black Duck)周三发布的年度《开源软件与风险分析报告》(Open Source Software and Risk Analysis,OSSRA),过去一年中,每个代码库中的开源漏洞平均数量翻了一番。
AI开发推动开源软件风险激增
该报告已连续十年对开源软件的发展状况进行年度评估。最新报告显示,平均每个开源应用程序包含581个漏洞。
报告指出,当前的软件风险格局正处在一个关键转折点。随着人工智能辅助开发的迅速普及,软件风险的结构性特征已经发生变化,同时企业在遵守新一轮监管要求方面也面临新的挑战,其中包括《欧盟网络韧性法案》(Cyber Resilience Act,CRA)和《数字运营韧性法案》(Digital Operational Resilience Act,DORA)等监管框架。
现实中的攻击事件进一步凸显了这一问题的紧迫性。黑鸭软件在2025年对企业开展的调查显示,65%的受访组织在过去一年中遭遇过软件供应链攻击。这意味着软件供应链威胁已经成为影响各行业企业的现实风险。

▲OpenClaw在国内爆红
报告认为,当前开源软件生态的变化在很大程度上与人工智能技术的应用有关。传统应用安全体系是在“人类以人类速度编写代码”的环境中建立的,而如今人工智能生成代码的规模前所未有,大量开源组件被快速引入应用开发流程。应用安全团队难以跟上这种开发速度。
报告还指出,AI编码助手已经像编译器或调试器一样成为开发者工具链中的基础工具。调查显示,57%的组织已经在使用AI编码助手。与此同时,即便有76%的公司明确禁止开发者使用这类工具,但企业也承认这些工具实际上仍在被广泛使用。
AI推动系统性变化
以色列特拉维夫人工智能生命周期安全公司Noma Security首席信息安全官戴安娜·凯利(Diana Kelley)表示,今年OSSRA报告最重要的结论在于,人工智能已经改变了软件风险产生的规模和速度。她认为,每个代码库中的漏洞数量在一年内翻倍表明软件风险正在发生系统性转变。AI辅助开发正在以前所未有的速度推动代码生成、依赖关系扩张以及模型集成,而传统的安全和治理机制难以跟上这一发展节奏。
她同时指出,对于安全团队来说,可见性已经成为不可妥协的基础能力。企业必须清楚地了解软件中究竟包含哪些组件,包括开源组件、传递依赖关系以及嵌入的人工智能模型。
美国特拉华州纽瓦克威胁情报公司SOCRadar首席信息安全官恩萨尔·谢克尔(Ensar Seker)也认为,尽管开源软件如今几乎构成了所有企业应用的基础,但多数组织仍然将其视为被动依赖,而不是自己需要负责的代码资产。
他强调,企业无法将责任外包,只要某个组件存在于技术栈中,相关风险就必须由企业自身承担。因此,降低漏洞数量的关键在于提升可见性并建立明确的责任归属。
规模化问题
美国纽约云基础设施安全公司Gomboc创始人兼首席执行官伊恩·阿米特(Ian Amit)指出,报告显示每个代码库中的平均漏洞数量已经从280个增长到581个,与此同时,每个应用程序中所包含的组件数量也增长了30%。这表明问题不仅仅是漏洞数量增加,更是一个规模问题。
他认为,当前行业在发现漏洞方面已经取得了很大进展,但在大规模修复漏洞方面仍然能力不足。要减少漏洞数量,企业需要从单纯生成安全警报转向自动化修复机制,并确保修复过程与安全策略保持一致。安全团队需要具备上下文信息、漏洞可利用性情报以及系统性消除代码风险类别的能力,而不仅仅是报告问题。如果无法实现这一转变,漏洞数量仍将持续累积。
美国加利福尼亚州圣克拉拉网络与安全公司Acalvio首席执行官拉姆·瓦拉达拉扬(Ram Varadarajan)也认为,尽管行业已经广泛意识到人工智能带来的安全风险,但每个应用中的漏洞数量仍在一年内翻倍,这表明AI生成代码的速度不仅超出了人工审核能力,也正在压垮传统的DevSecOps安全控制体系。
他指出,以人类速度应对机器速度的风险已经不可行,未来的网络安全体系需要建立在零信任架构基础上,并依赖实时的人工智能驱动安全能力,例如诱捕机制、欺骗技术以及博弈论策略。他认为,传统网络安全模式已经难以适应新的环境。
不过,美国加利福尼亚州福斯特城云安全公司Qualys工程副总裁绍米特拉·达斯(Saumitra Das)则指出,每个应用平均581个漏洞这一数字虽然看起来惊人,但很大程度上是由于多层传递依赖关系的扩张所导致。
他认为,107%的同比增长更多反映的是复杂性不断叠加,而并非开发者的疏忽。同时,近年来流行的“氛围式编程”(vibe coding)倾向于快速从各类库中引入功能组件,这也扩大了代码规模和攻击面。
他进一步指出,更大的问题仍然是可见性。多数组织实际上并不清楚生产环境中正在运行哪些组件,而人工智能正在加剧这种不透明性。数据显示,只有24%的组织会对AI生成代码进行全面审查,而这些代码往往会引入来源不明的组件,并带来潜在的许可风险。
代码库规模激增
黑鸭软件的报告还发现,开源代码库规模和依赖关系数量正在快速增长。数据显示,每个应用程序中的组件数量同比增长30%,而每个代码库中的文件数量增长74%,这对应用安全产生了重要影响。
美国华盛顿州雷德蒙德人工智能云安全公司Averlon首席执行官苏尼尔·戈图穆卡拉(Sunil Gottumukkala)表示,氛围式编程和AI辅助开发显著加快了代码生成速度。
这些模型通常基于大量开源代码进行训练,因此在开发过程中会自动调用所需的开源库来实现功能目标,而其优化目标主要是生成可运行的代码,而不是审计依赖关系结构。

他指出,这意味着代码库规模正在以前所未有的速度增长,但安全监督能力并未同步提升。每新增一个依赖项都可能成为新的攻击面,而当人工智能以极高速度引入这些依赖时,风险也会迅速累积。
黑鸭软件软件供应链风险战略负责人蒂姆·麦基(Tim Mackey)认为,代码库规模和依赖关系增长呈现出一种典型的“问题随规模扩大而增加”的现象。
代码越多,需要测试的代码就越多,依赖关系越复杂,第三方决策对系统稳定性的影响也越大。由于每一段代码都可能包含漏洞或过时的安全实践,代码来源越多,企业在管理产品攻击面的难度也就越大。
法律与许可风险
报告还指出,人工智能正在带来新的法律与许可风险。数据显示,68%的被审计代码库存在开源许可冲突,这是OSSRA报告历史上最高的比例。AI生成代码正在加剧知识产权和许可方面的不确定性。目前只有54%的组织会对AI生成代码进行许可风险审查,而仅有24%的组织会开展涵盖知识产权、安全性和代码质量的综合评估。
《人工智能身份:治理下一代自主行为体》(AI Identities:Governing the Next Generation of Autonomous Actors)一书作者罗萨里奥·马斯特罗贾科莫(Rosario Mastrogiacomo)指出,AI辅助开发正在引入新的代码来源不确定性。
开发者在使用AI生成代码时,往往无法完全确认这些代码是否与某些开源组件高度相似,而这些组件可能带有特定的许可义务。这种情况在受监管行业或商业软件发行领域尤其可能带来知识产权风险和合规风险。
他认为,为降低这种风险,企业应当将AI生成代码视为来源不明的第三方代码,并对其进行与外部依赖相同的许可扫描、安全测试和策略检查。同时,建立清晰的治理机制也十分重要,例如规定可使用的AI工具、建立强制审查流程以及记录AI工具的使用方式。这些措施有助于减少不确定性。
他还指出,透明度和可追溯性至关重要。如果企业能够证明其在评估AI生成代码方面已经履行了必要的尽职调查,就能够显著降低后续法律和合规风险。
来源追溯成为关键防线
马斯特罗贾科莫进一步指出,黑鸭软件报告最重要的启示在于,软件风险正在从单一应用层面转变为供应链层面的问题。开源软件使用、依赖关系扩张以及AI辅助开发正在同时加速发展。未来能够更有效管理风险的组织,将是那些从被动修补漏洞转向主动提升可见性和运营纪律的企业。
他认为,随着开发速度持续提升,企业需要建立持续的软件资产清单、自动化控制机制,并在高管层面明确软件供应链风险的责任。
不过,美国德克萨斯州奥斯汀软件供应链安全公司NetRise市场副总裁加里·施瓦茨(Gary Schwartz)指出,该报告忽略了另一个重要风险因素,即恶意行为者在开源生态中的活动。他认为,随着开源依赖数量大幅增加,攻击者更容易将恶意代码隐藏在多层依赖关系中。
为应对这一问题,他建议在追溯开源依赖来源时,不仅要关注地理位置,还应分析贡献者数量、贡献频率以及维护者历史等特征。这些信息能够帮助识别潜在的恶意行为者,同时也有助于在攻击发生时快速判断受影响的依赖范围。
他指出,报告中提到的一些攻击事件,特别是与拉撒路组织(Lazarus Group)有关的活动,如果能够提前分析开源库贡献者的来源信息,其实是有机会被提前发现的。因此,依赖来源追溯已经成为当前软件供应链安全中一个可以立即着手解决的重要风险点。